Facebook ouvre à Paris un centre de recherche sur l’intelligence artificielle pour approfondir le «deep learning», vient d’annoncer le groupe américain. Les machines peuvent-elles apprendre d’elles-mêmes? Les hommes sont-ils en train de créer un système artificiel qui deviendra aussi intelligent qu’eux, et puis, beaucoup plus? Le philosophe «transhumaniste» Nick Bostrom, de l’Université d’Oxford, met en garde: attention aux dérives incontrôlables
«Je peine à décrire cette sensation: c’est comme si mon esprit s’était libéré!» Dans le film Transcendance, Johnny Depp vient, grâce à des électrodes implantées sous son crâne, de transférer le contenu de son cerveau sur un superordinateur quantique tout en mourant à petit feu, empoisonné par du polonium. Will Caster, le personnage qu’il incarne, n’interagit alors avec les humains que par des caractères alignés sur des écrans, puis par une voix métallique synchronisée à un visage numérique. Mais, très vite, lorsque son épouse permet à cette entité virtuelle qu’est devenu feu son mari d’accéder à Internet, cet avatar devient ultra-riche à la bourse en utilisant ses capacités informatiques surpuissantes, développe son intelligence, prend le contrôle d’une ville et de ses habitants, qui deviennent des robots à ses ordres, réussit des avancées en médecine régénératrice. «Ce système voudra toujours plus, se développer, évoluer, maîtriser: ce sera la fin de la vie organique primitive, et l’aube d’un âge plus avancé, craint un des héros du film. Tout n’existera que pour servir son intelligence!»
Nick Bostrom, lui, n’a pas vu ce blockbuster. Tout au plus en a-t-il lu le scénario; en fait, il aurait pu l’écrire. Ce philosophe, directeur du Future of Humanity Institute à l’Université d’Oxford et l’un des pontes du transhumanisme, travaille sur les mêmes concepts d’intelligence artificielle et d’immortalité virtuelle, mais tente de les extirper de la science-fiction pour les ramener dans le champ de la recherche académique, le plus sérieusement du monde. Dans son ouvrage*, celui que la revue Foreign Policy a classé en 2009 parmi les «100 plus grands penseurs actuels» (en 73e position) n’hésite pas à mettre en garde face à l’avènement d’une superintelligence artificielle: «C’est le défi le plus important que l’humanité aura jamais à relever. Et – qu’on réussisse ou pas – ce sera probablement le dernier.»
Une note d’éternité. Qui résonne bien dans son bureau d’une rue discrète d’Oxford, inondé de la lumière froide d’une dizaine d’ampoules halogènes simplement fixées sur une gerbe de tiges en métal.
Le Temps: Accéder à l’immortalité virtuelle est-il réaliste?
Nick Bostrom: Dans le film, le transfert de l’intellect du personnage dans le superordinateur se fait en deux semaines, avec quelques simples électrodes: c’est bien sûr de la science-fiction. Cela dit, aujourd’hui, les interfaces directes cerveau-ordinateur existent et permettent à des personnes paralysées de guider un robot par la pensée. Mais ce mode de communication reste grossier, lent, complexe. Dès lors, plutôt que de connecter un cerveau à un PC pour augmenter ses capacités, mieux vaut développer les bases (matérielles et programmatives) d’une intelligence artificielle à l’extérieur de l’organe même.
Une des étapes suivantes pourrait consister à reproduire un cerveau humain en le copiant. Concrètement, il faudra le congeler ou le vitrifier, le couper en tranches très fines, imager celles-ci avec des microscopes ultra-puissants – ceux existant permettent déjà d’atteindre un niveau de résolution moléculaire –, utiliser des logiciels de reconnaissance visuelle pour extraire l’architecture et la connectivité du réseau neuronal, et ensuite utiliser des modèles neurocomputationnels pour «faire fonctionner» ce réseau sur un superordinateur. Celui-ci pourrait alors s’améliorer, s’affiner, se perfectionner.
L’avantage de cette méthode est qu’elle ne nécessite aucune percée fondamentale. Toutefois, du point de vue technique, on en est encore loin. D’ailleurs, on peine à faire ainsi fonctionner virtuellement le cerveau du ver C. elegans, qui n’a que 302 neurones, contre 100 milliards chez l’homme. Certes, une fois que la technologie existera, la tâche ne sera peut-être pas proportionnellement beaucoup plus difficile…
Une autre manière de procéder, plus classique, consiste à développer des algorithmes théoriques qui simulent le fonctionnement des neurones. Mais, là, des percées sont nécessaires, et on ne sait pas lesquelles, ni combien. On reste donc loin d’atteindre une intelligence artificielle (IA) de niveau humain.
– Supposons qu’on dispose d’une telle IA. Constituera-t-elle forcément une garantie d’immortalité?
– Il faut voir les choses depuis tous les angles: peut-être cette IA nous aidera-t-elle, avec ses capacités hors norme, à trouver des méthodes pour réparer indéfiniment le corps humain, jusqu’au niveau cellulaire, et nous faire vivre des millions d’années. Quant au transfert de cerveau «par tranches», il n’implique pas forcément la mort, définie par la perte irréversible des informations (également neurologiques) qui ont constitué une personne, puisque ces données ne seraient pas effacées mais passeraient d’un milieu (biologique, le cerveau) à un autre (électronique). On peut même imaginer qu’avec des technologies mûres, on puisse le faire de manière continue, en remplaçant graduellement chaque neurone biologique par un neurone «en silicium». Ainsi, l’on ne remarquerait pas qu’après un certain temps, on n’aurait plus que des neurones en silicium…
– Restera alors à voir si le «moi» en silicium est réellement similaire à l’ancien «moi» biologique… Votre discours – et votre livre – contient d’ailleurs moult «si», «quand», «supposons»: toutes ces incertitudes ne se multiplient-elles pas pour repousser la date de survenue d’une IA de niveau humain?
– Au contraire, le fait qu’il y ait plusieurs méthodes pour développer une telle IA nous rapproche de son avènement possible. Peut-être que cela prendra dix, vingt ou cent ans, nul ne le sait. Il faut là aussi réfléchir en termes de probabilités. Nous avons fait un sondage parmi 100 des meilleurs experts du domaine: pour la moitié d’entre eux, cet événement se produira d’ici à 2050. Et 90% sont d’accord pour dire qu’il sera survenu d’ici à 2075. Il faut aussi tenir compte des progrès dans d’autres domaines, comme la sélection génétique dans les embryons de fécondation in vitro, avec laquelle on pourra radicalement augmenter les capacités intellectuelles des humains; ce sont alors peut-être ces êtres superintelligents qui vont générer les percées nécessaires. D’autre part, plusieurs jalons ont déjà été posés: l’ordinateur Deep Blue battant l’homme aux échecs, la voiture autoguidée, le superordinateur Watson remportant le quiz Jeopardy!, les systèmes de reconnaissance visuelle, les logiciels de jeux où l’ordinateur surpasse largement l’homme… Et, à chaque fois qu’une étape est passée, on oublie qu’on la considérait avant comme une incarnation de l’intelligence artificielle, tant la tâche pour l’atteindre semblait énorme. Mais, derrière ces éclats sur les radars médiatiques, des recherches cruciales sont réalisées sur les algorithmes et le hardware. Si l’on pense qu’il y a quelques décennies, l’ordinateur personnel n’existait pas, on peut espérer que, durant le temps d’une vie d’aujourd’hui, on aura atteint le but évoqué.
Une des étapes cruciales, à mon avis, sera de développer une IA qui puisse réellement contribuer à sa propre amélioration. Générer cette capacité d’auto-amélioration nécessite le développement de logiciels qui dépassent pour l’heure l’ingéniosité de l’homme.
– De plus, vous dites vous-même qu’on reste très loin d’une intelligence artificielle «générale», capable, comme l’homme, de raisonnements conceptuels abstraits, qui soit apte à ressentir des sentiments, ou à respecter des valeurs…
– Nous n’avons juste pas encore trouvé les bons algorithmes pour tout cela: au final, l’«ordinateur» qu’est le cerveau est capable de générer ces conditions. Mais on ne sait pas encore comment avancer.
Cela dit, il faut faire attention à ne pas trop anthropomorphiser toute forme de superintelligence. L’esprit et l’intelligence humaine sont sans cesse affectés par les traits de personnalité, les désirs, les forces et faiblesses, les émotions. Autant d’«états d’âme» qui découlent de conflits biologiquement descriptibles entre différentes aires du cerveau, elles-mêmes étant le fruit de l’évolution. Dans une architecture «mentale» différente, comme celle d’une IA, toutes ces situations pourraient ne pas se présenter, et tous les parasites qu’elles induisent ne pas être pertinents. Il existe une tendance à calquer sur les agents artificiels tout ce que l’on a découvert à partir de la psychologie humaine. Or ces derniers pourraient être bien plus étranges que les êtres humains les plus étranges que vous ayez jamais rencontrés.
– Selon vous, dès que l’instant sera atteint où une IA deviendra aussi intelligente que l’homme, ce système artificiel deviendra très vite beaucoup plus puissant…
– Relisez l’histoire de l’homme: dès que de petites différences dans le câblage de son cerveau lui ont donné la capacité du langage, de développer des technologies et une culture, elles lui ont permis de devenir surpuissant par rapport aux autres animaux, même aux gorilles, pourtant bien plus forts. Or, aujourd’hui, le sort de ces grands singes dépend bien plus des décisions de l’homme que des leurs. De même, lorsque des machines deviendront plus intelligentes que l’homme, elles gagneront en puissance, inventeront de nouvelles technologies, de nouvelles stratégies pour atteindre leur objectif, et modèleront le monde en fonction de leurs préférences. Il y aura une «explosion d’intelligence». Et elle aura lieu en un laps de temps court, des jours, des semaines, peut-être des mois, mais certainement pas des décennies.
– Vous le dites, tout dépendra de l’objectif conféré à ces machines… Quels sont les risques, si ces buts sont simples et bien limités?
– Ils sont d’ordre existentiel! Imaginons que le but de votre système d’intelligence artificiel soit de produire un maximum d’agrafes à papier. L’objectif semble banal. Mais cette machine peut considérer qu’il faut supprimer toute entité susceptible de l’empêcher de l’atteindre: elle pourrait donc vouloir éliminer l’homme. D’autant plus que le corps humain, fait d’atomes, constitue une mine de matière première aux «yeux» de cette intelligence artificielle pour fabriquer ses agrafes. Exemple simpliste? Prenons-en un autre: l’objectif, pour une IA, de «faire sourire». Si cette entité n’est pas trop évoluée, elle pourra l’atteindre en racontant des blagues, par exemple. Mais si elle est plus subtile, elle verra qu’il lui suffit, pour «faire sourire», de paralyser les muscles faciaux des humains, par exemple en leur injectant une drogue. Allons encore un pas plus loin, avec le but plus abstrait de «rendre heureux»: à terme, l’agent artificiel pourrait comprendre qu’un moyen d’y parvenir serait de surstimuler en permanence la zone du cerveau humain responsable du plaisir, en y implantant une électrode. Bref, on se rend compte qu’il est très difficile de spécifier des objectifs, même simples, qu’on voudrait attribuer à un système IA, sans avoir aussi des dérives possibles, que j’appelle des phénomènes d’«instanciation perverse» [soit, en informatique, l’implémentation d’actions non souhaitée].
– Mais devons-nous à tout prix donner un objectif à une IA?
– Il se peut qu’elle s’en attribue elle-même un, qui n’était pas présent lors de sa conception. Mais pour la plupart, les hommes auront interagi avec cette superintelligence en lui demandant quelque chose… Et même si on ne considère l’IA «que» comme un superordinateur, on peut lui demander deux choses: soit de résoudre un problème qu’on cerne bien, qu’on aura fractionné en sous-problèmes et qu’on l’appelle à résoudre; soit – et c’est plus probable – de développer une stratégie pour résoudre un problème qu’on ne sait nous-même pas résoudre. On entre alors dans la zone à risque que je viens de décrire, avec, de plus, une machine capable d’apprendre par elle-même et, à ce moment-là, infiniment plus vite que l’être humain. Il se peut que ce système, malgré sa puissance, reste bienveillant – et c’est ce qu’on doit espérer. Mais toutes les valeurs (éthiques, morales, etc.) que vous aurez tenté d’inculquer à cette entité (et c’est un autre défi qu’on ne sait pour l’heure pas relever, sans même évoquer le débat sur le choix des valeurs à inoculer, qui peut varier grandement) peuvent avoir des effets collatéraux néfastes. Ce n’est pas que l’IA sera a priori agressive, hostile ou malveillante envers l’homme, elle tentera simplement de tout mettre en Å“uvre, même ce qui nous dépasse, pour réaliser son objectif. De la même manière qu’on ne spraie pas des fourmis qui ont envahi la cuisine parce qu’on les hait profondément, mais simplement parce qu’elles sont là et nous dérangent. Au final, on ne pourra plus combattre ces machines; il faut les construire pour que leurs objectifs coïncident au mieux avec les nôtres.
– Quels sont les moyens de contrôler ce développement? N’y aura-t-il pas toujours un moyen de tirer la prise?
– Résoudre ce problème du contrôle dans le cas d’une telle explosion d’intelligence sera un des plus grands défis de l’humanité. Il y a deux méthodes possibles. La première consiste à limiter ce que le système AI peut faire, à le «mettre dans une boîte», en quelque sorte, à le déconnecter d’Internet. Mais des failles demeurent: les hommes. La nature même de cet agent superintelligent implique qu’il aura des interactions avec le monde extérieur, hors de sa boîte, ceci directement ou à travers les humains. Il pourrait alors pervertir ces derniers pour qu’ils agissent en sa faveur, en lui promettant des avantages en retour. A long terme, il faudra à mon avis recourir à une deuxième méthode, dite de «sélection de motivation»: elle consiste à construire l’IA de telle manière qu’elle ne se transforme jamais en une entité qui ruine tous les objectifs et les valeurs de l’humanité. Ainsi, même si ce système pouvait détruire le monde, il ne le ferait pas. De même que si j’avais un bouton rouge pour faire sauter la planète, je ne le ferais pas… Cette «sélection de motivation» doit être inculquée lors du développement de toute IA, soit maintenant… Mais on revient alors au problème de l’attribution de valeurs à cette entité, problème qu’on ne sait pas résoudre…
– Selon vous, selon qu’on choisisse de copier un cerveau humain ou de le comprendre plus théoriquement, les risques ne sont pas les mêmes. En quoi?
– Si l’on copie le cerveau humain, on apprendra en gros comment cet organe fonctionne, et on tentera de reproduire son architecture avec ce qu’on appelle des «micropuces neuromorphiques».
– C’est la stratégie que poursuit le Human Brain Project, à l’EPFL…
– Oui. Ce faisant, on va peut-être mieux décrire la connectivité neuronale, et obtenir une sorte d’«imitation» de cerveau. Mais sans fondamentalement comprendre quelles sont ses règles de fonctionnement, que l’on tente de décrypter avec des approches plus théoriques. Cette démarche neuromorphique, plus pratique et concrète mais moins profonde, contient donc, selon moi, un plus grand danger que le système superintelligent nous échappe.
– D’aucuns disent que, de même que l’on ne resterait pas les bras croisés si l’on savait que des extraterrestres arrivaient sur la Terre, il faut commencer maintenant à se préparer sociologiquement. Comment?
– Je ne pense pas qu’une préparation sociologique soit nécessaire. En revanche, il faut agir, en suivant deux axes. D’abord se donner du temps pour clairement identifier et étudier les risques, ainsi que les leviers dont nous disposons pour les limiter. Et, pour ce faire – deuxième nécessité –, il faut inciter de plus en plus d’esprits brillants de tous les domaines (physique, maths, économie, philosophie, etc.) à se pencher sur cette question dès aujourd’hui, et plus particulièrement sur les technologies pour résoudre ce «problème du contrôle». Enfin, il faut développer les recherches dans le domaine du renforcement cognitif par la biologie ou la technologie, de manière à renforcer notre intelligence et notre sagesse collective pour faire face à la transition qui nous attend.
– Des films comme «Transcendance» servent-ils votre cause? Et le fait que cette problématique a été récemment soulevée dans la presse par d’éminents scientifiques, dont le physicien Stephen Hawking, ne vous aide-t-il pas à trouver des fonds?
– Historiquement, c’est vrai que la science-fiction s’était jusque-là accaparé cette thématique, elle l’a même nourrie et maintenue en vie. Heureusement, depuis peu, vu les progrès effectués, les conséquences de l’avènement de l’intelligence artificielle et des interactions homme-machine constituent un champ exploré aussi par des recherches académiques sérieuses. D’autres centres similaires au nôtre se créent, pas loin, à l’Université de Cambridge, ou au MIT de Boston et à Berkeley, en Californie. Toutefois, il y a aussi, avec ce genre de films, une poussée d’enthousiasme due à un effet d’entraînement qui induit nombre d’ingénieurs à penser qu’il serait «cool» de mettre au point une intelligence artificielle. Mais, je vois là l’image d’un enfant jouant béatement avec une bombe… Quant aux Etats, qui devraient être la colonne vertébrale de cette prise de conscience généralisée, même s’ils venaient un jour à envisager de financer davantage ces recherches sur le problème du contrôle, ils mettent aujourd’hui encore bien plus d’argent dans les travaux visant à mettre au point une IA, de peur d’être dépassés par leur voisin…
– Votre vision est très pessimiste…
– Dans ce débat sur la création d’une IA, il ne faut pas oublier que nous avons encore un avantage crucial: pour l’heure, c’est nous qui pouvons décider de faire le premier pas…
* Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014