Des robots compagnons vont-ils bientôt occuper nos foyers, ou nos usines? Après avoir développé des systèmes comme ChatGPT, capables d’interagir avec nous en générant du texte, également à travers la voix, les scientifiques tentent maintenant de doter des humanoïdes de capacités d’intelligence artificielle similaires pour les rendre plus autonomes dans leurs mouvements, comme a pu le constater la RTS lors du AIforGood Summit, organisé à Genève fin mai à l’Union internationale des télécommunication (ITU).
«Bonjour, comment vas-tu aujourd’hui?» Nadine est assise à sa table, les mains immobiles, et le regard perdu dans le vide. De manière assez bluffante, elle interpelle le quidam et répond à toutes les questions avec une voix monotone et hachée, mais compréhensible. Nadine est un robot social, humanoïde car ressemblant étrangement à la chercheuse qui l’a créée, Nadia Thalmann, directrice du MIRALab à l’Université de Genève, qui explique : «Nadine a été testée avec succès dans des maisons de retraite, à Singapour notamment. Elle peut discuter à l’aide d’un modèle de langage artificiel, de type ChatGPT.»
Dévoilé fin 2022, ce genre de systèmes de production de textes est encore perfectible, puisqu’il génère parfois des contenus dénués de sens, que les scientifiques appellent «hallucinations». Cette «intelligence artificielle» est aussi pervertie par de multiples biais liés au genre, aux tendances politiques ou sociales. Mais pour Janet Adams, chief operating officer de SingularityNET, qui développe des robots sociaux – celui de cette société est une femme aux cheveux violets nommée Desdemona –, l’avenir s’annonce radieux : «Ces développements ne se feront pas de manière graduelle, mais plutôt sous forme de rupture, lorsque que nous aurons les technologies qui permettront de gommer les limites actuelles des systèmes ChatGPT, de manière à ce que les robots deviennent vraiment créatifs, et apprennent de leur environnement. Nous estimons que ce changement de paradigme va survenir dans les 18 à 24 prochains mois. Cela va vraiment débloquer le pouvoir des robots à travers la planète !»
Robots humanoïdes mobiles
Mais autant Nadine que Desdemona ne sont que des robots immobiles, sans jambes, destinés uniquement à interagir visuellement et oralement avec les humains. Les roboticiens planchent pourtant déjà sur l’étape suivante : équiper des robots humanoïdes mobiles, souvent bipèdes, de systèmes d’intelligence artificielle similaires à ceux générant le langage, mais ayant pour objectif d’autonomiser ces machines dans leurs mouvements, notamment en fonction des commandes qu’ils reçoivent des humains. Par exemple : demander à son robot compagnon d’ouvrir le frigo et de littéralement cuisiner un plat avec les éléments qu’il y trouvera, sans les connaître en amont….
Ces derniers mois, plusieurs sociétés, de Tesla à OpenAI en passant par Boston Dynamics ont présenté leur dernier robot humanoïde, à chaque fois digne des meilleurs films de science-fiction, mais pourtant bien réel.
The Age of Robots is here.
We are going to see incredible booming in robotics in 2024 and beyond. With huge advancement in LLM, these robots now will now have AI brains.
10 humanoid robots to watch: pic.twitter.com/qUxOK6N3Wr
— Min Choi (@minchoi) April 22, 2024
Dans une vidéo, on en voit ainsi un, nommé FigureO1, répondre à la question «Puis-je avoir quelque chose à manger ?» posée par un humain, par un mouvement de son bras robotisé saisissant une pomme. Difficile de savoir toutefois à quel point l’ensemble a été pré-programmé.
«J’aime cette idée d’insérer dans les robots des systèmes de type ChatGPT, commente Yuichiro Kawasumi, ingénieur en chef de la société japonaise Kawada Technologies Inc. Nos robots affichent des performances très élevées, mais ils n’ont pas assez de ‘cerveau’. Avant, nous devions programmer les robots, qui étaient souvent utilisés en usine. Mais ce seraient bien qu’ils acquièrent des fonctions plus flexibles, pour interagir avec les gens». Une perspective vertigineuse pour Azeem Azhar, un expert du domaine des technologies demain, fondateur du blog Exponential View: «Nous, humains, apprécions de pouvoir parler à ces machines de manière… humaine. Mais si nous insérons de tels systèmes dans des robots, nous devons être très très précautionneux pour nous assurer que tout le monde comprenne qui est un être humain, et ce qui est une machine.»
Rendre les robots entièrement autonomes est cependant loin d’être trivial, comme l’explique Nadia Thalmann: «Nadine est équipée d’un logiciel. Mais quand on parle d’un robot humanoïde, on parle de la physique du corps. Or un robot est extrêmement simple : il a des câbles, des moteurs, et c’est tout. Il reste extrêmement loin du corps humain, de sa physiologie très évoluée. Donc c’est très très difficile – et là il faudra beaucoup attendre – jusqu’à ce qu’un robot fasse des tâches complexes.»
Acquérir une représentation du monde réel
Tous les roboticiens ne sont pas d’accord, pour lesquels l’analyse est plus complexe. Comme l’explique l’un d’eux, Davide Scaramuzza, «il est certain que des systèmes comme ChatGPT aident beaucoup les robots, notamment à interpréter comme interagissent les humains. On reste, c’est vrai, très loin d’humanoïdes capables d’agir dans n’importe quel environnement.» Mai pour le directeur du Robotics and Perception Group de l’Université de Zurich, le problème actuel n’est pas dans la mécanique : « Cela fait une vingtaine d’année que l’on a pu montrer que des machines sont en réalité capables de réaliser absolument toutes les tâches de notre quotidien d’humain, et même parfois bien plus rapidement que nous, pour autant qu’on les ait programmées pour cela.» D’ailleurs, question souplesse et mobilité, le nouveau robot entièrement électrique Atlas de Boston Dynamics, dévoilé en avril dernier, peut en effet faire avec ses bras, ses jambes, son bassin et son buste, des mouvements totalement impossibles pour un corps humain.
«En fait, ce qu’il manque encore largement à ce genre de robots, c’est la capacité d’interpréter les données qu’ils acquièrent avec leurs senseurs du monde externe, poursuit Davide Scaramuzza. Par exemple, les cameras dont on les équipe: avec les images acquises, les robots parviennent encore mal à construire pour eux-mêmes une représentation visuelle en 3D de leur environnement, ou à déterminer où sont les obstacles, afin d’en déduire des instructions les aidant à bouger dans un environnement inconnu. Là, il faut encore beaucoup plus de recherches, spécifiquement dans le domaine de l’intelligence visuelle.»
S’entraîner, mais sur quelles données?
Autre écueil: les systèmes désincarnés comme ChatGPT peuvent s’entraîner sur une base de données gigantesque, l’entier d’Internet, pour générer des bribes de textes de manière probabiliste, avec une rapidité épatante. Mais rien de tel en robotique: il faudrait pour cela que les robots puissent s’exercer sur des échantillons de données de mouvement existants, mais ceux-ci font largement défaut.
Pour une équipe de l’Université américaine de Stanford, il s’agit simplement de se mettre à les générer. Avec du matériel très basique, un ordinateur et deux bras robotisés fixés sur une table de travail mobile, ces scientifiques du projet Mobile ALOHA ont d’abord entraîné la machine, équipées de caméra et capable de repérer les mouvements qui lui étaient imposés.
Et après une vingtaine de séances d’entraînement, le robot était capable de réaliser lui-même la tâche, en l’occurrence verser de l’huile dans une poêle et y faire frire une crevette. Le tout cependant avec une vitesse toute relative, comme le montrent les vidéos de l’expérience, qui sont souvent accélérées lorsqu’elles sont diffusées sur les réseaux sociaux, au point d’en devenir trompeuses.
Pour Melissa Heikkilä, journaliste spécialisée au magazine MIT Technology Review, ce n’est toutefois qu’un début: «Cela veut dire qu’on pourra utiliser des données de divers robots ou laboratoires. Et peut-être, avec de l’intelligence artificielle et la manière dont celle-ci crée du sens de manière très rapide, on pourrait construire une robotique plus utile, qui s’adapte aux nouvelles situations et apprend au fur et à mesure.» Une étape prometteuse, mais qui là aussi devrait prendre du temps, de l’avis d’un grand nombre de scientifiques rencontrés.
Avant de nous accompagner au quotidien dans nos tâches ménagères, ces robots humanoïdes devraient donc rester pour un temps encore programmés à faire les tâches spécifiques et ingrates … des automates qu’ils sont encore. En usine par exemple, où leur prochaine utilisation est d’ores et déjà prévue, voire en train d’être implémentée, comme avec les robots d’Agility Robotics, testés dans les entrepôts d’Amazon.