Ricordate iCub, il robot-bambino messo a punto dall’Istituto Italiano di Tecnologia? Nel frattempo è arrivato alla sua terza versione e i suoi “papà” hanno pensato di testarlo per la prima volta come avatar fisico di un essere umano, mettendo alla prova il controllo virtuale a distanza delle sue capacità: muoversi nello spazio, manipolare oggetti, percepire stimoli e interagire verbalmente e fisicamente con le persone e l’ambiente.
L’esperimento è stato condotto qualche mese fa dal team di ricercatori e ricercatrici del laboratorio Artificial and Mechanical Intelligence coordinato da Daniele Pucci dell’Istituto Italiano di Tecnologia, in collaborazione con il Padiglione Italia “Comunità Resilienti” alla 17. Mostra Internazionale di Architettura – La Biennale di Venezia (22 maggio – 21 novembre 2021), promosso dalla Direzione Generale Creatività Contemporanea del Ministero della Cultura e curato dall’Architetto Alessandro Melis.
…ma “vedo” a venezia. Con questo sistema, l’operatore può anche “vedere” ciò che il robot sta vedendo a centinaia di chilometri di distanza. Gli occhi di iCub 3, infatti, sono in realtà telecamere che trasmettono le immagini al visore dell’operatore. Il quale, grazie a un sistema di microfoni, può anche “ascoltare” ciò che il robot sta ascoltando. Questo consente di creare una piena comunicazione verbale tra il robot e le persone che incontra.
L’utente, infine, indossa anche guanti sensorizzati che tracciano i movimenti della mano e gli consentono di controllare le dita del robot e di manipolare in modo accurato glioggetti a distanza.
L’esperimento della tele-esistenza, condotto a Venezia, fa parte del programma del team coordinato da Daniele Pucci che punta a sviluppare in futuro robot umanoidi che possano essere avatar degli esseri umani, consentendo per esempio di lavorare da remoto in luoghi pericolosi per la salute umana o inaccessibili, ma anche di abilitare al lavoro o dare nuove prospettive di presenza a distanza a persone con disabilità.
La tele-esistenza. Durante l’esperimento iCub 3 ha visitato gli spazi del Padiglione Italia a Venezia, eseguendo i comandi impartiti da un operatore che si trovava a Genova, consentendo a quest’ultimo di essere “trasportato” immersivamente in un’altra realtà senza muoversi dal laboratorio. Ciò è stato possibile grazie al sistema di tele-esistenza sviluppato da IIT, che permette di mettere in collegamento (con un ritardo di comunicazione di circa 25 millisecondi e utilizzando una comune fibra ottica) l’utente a Genova con il robot a Venezia.
Per un controllo accurato del robot, l’operatore ha indossato una tuta sensorizzata – ideata e realizzata da IIT nell’ambito del progetto europeo AnDy e applicata con INAIL all’interno del progetto ergoCub. La tuta si chiama “iFeel” e ha due funzioni: tracciare i movimenti dell’operatore per trasmetterli al robot, e contemporaneamente fornire il “feedback aptico”, cioè le sensazioni di tipo tattile, all’operatore che la indossa, affinché possa sentire quando e dove il robot viene toccato.
Cammino a genova… Nella sede IIT di Genova l’operatore camminava sul posto, all’interno di una piattaforma di realtà virtuale, che rilevava la direzione e la velocità della camminata, nella quale era in grado di muovere liberamente la parte inferiore (gambe e piedi) e superiore del corpo (braccia e mani). Tutti questi movimenti venivano dunque “catturati” dalla tuta iFeel e tradotti in input che successivamente erano inviati al robot iCub che, a Venezia, li riproduceva.
Ma il “controllo del movimento”, non ha riguardato solo gambe e braccia. L’operatore, infatti, indossava un visore che tracciava la sua mimica facciale e i movimenti della testa, che venivano anch’essi trasferiti all’avatar e riprodotti con precisione: per esempio quando l’operatore annuiva anche il robot annuiva, quando l’operatore chiudeva gli occhi o muoveva le sopracciglia, il robot faceva altrettanto, aiutandosi anche con l’accensione di led che arricchiscono la comunicazione tramite le espressioni del viso, trasmettendo la sensazione di stupore, felicità, tristezza… e migliorando l’interazione con gli esseri umani.
Fonte Focus.it