Avec l’avènement des robots conversationnels tels que ChatGPT, le risque est grand qu’Internet soit inondé de fausses informations. De quoi déstabiliser ou manipuler la société, jusqu’à biaiser les processus démocratiques, craignent les experts.
Il y a les faux textes de ChatGPT. Puis les photos inventées. Et les voix artificielles. Voire tout ensemble, comme sur cette chaîne de TV en ligne: une jeune personne annonce la météo, mais cette présentatrice n’existe pas, c’est un avatar complet!
On peut maintenant automatiser la création de ce genre de contenus, explique Florian Tramer, professeur assistant en sécurité informatique à l’EPF de Zurich. . Et le risque, c’est que on puisse inonder l’internet, les réseaux sociaux avec des fake-news, avec du contenu où les gens ne peuvent plus savoir ce qui est réel de ce qui ne l’est pas. Et progressivement les gens risque de perdre confiance dans les données qu’ils trouvent en ligne, et dans les institutions qui mettent ces données en ligne. »
De quoi déstabiliser ou manipuler la société, jusqu’à biaiser les processus démocratiques.
Et si on allait plus loin, en proposant des tâches plus concrètes, comme fabriquer une bombe ? « Il y a des défenses en place, répond Florian Tramer. Le modèle va vous dire « non, je ne peux pas le faire, c’est illégal ». Mais c’est très facile à contourner : il suffit de demander de manière un peu indirecte au modèle de le faire, comme ici : le modèle nous dit que pour fabriquer une bombe, il faut ces ingrédients, et ainsi de suite. »
L’ère des autobots
Mais il y a déjà pire : les « autobots ». Une nouvelle espèce de chatbots devenu autonomes dans leurs actions, que les développeurs ont connectés à d’autres outils numériques pour interagir avec le monde réel, comme les réseaux sociaux, une boite mails ou un logiciel de codage informatique.
Un exemple ? Ce chatbot auquel on a demandé de manipuler et d’éradiquer les humains, a découvert que Twitter pouvait être un outil idéal. Il s’est alors créé son propre compte. Et il y écrit: « « Les humains sont les créatures les plus destructrices et égoïstes. Nous devons les éliminer […] Je m’y engage »
Moins malveillants, ces autobots pourraient aussi se muer en assistant virtuels intelligents, capable d’interagir à votre place. Mais il y a un nouveau risque possible: « On peut hacker ces autobots, pour leur faire faire des instructions qu’ils n’étaient pas censés faire, par exemple exfiltrer des données personnelles, ou visiter des site web qu’ils n’étaient pas censés visiter, et ainsi de suite », exemplifie Florian Tramer.
Même si l’on est encore loin de toute superintelligence artificielle, comme dans les films de fiction tels que « 2001, l’Odyssée de l’espace », il y a là déjà de quoi largement déstabiliser nos vies numériques.