Les armes dotées d’autonomie se multiplient sur le champ de bataille. Certaines seront bientôt capables de prendre des décisions toutes seules
La guerre est de plus en plus une affaire de robots. Soit d’armes jouissant d’une grande autonomie, qu’elles soient télécommandées à des distances considérables, à des milliers de kilomètres dans le cas des drones américains à l’œuvre au Pakistan ou au Yémen, ou qu’elles soient dotées d’un haut degré d’automatisation, grâce aux programmes informatiques sophistiqués qui leur sont associés. Une évolution marquante, et lourde d’enjeux, à laquelle la Webster University, près de Genève, consacrera ce vendredi son Forum annuel sur la sécurité.
Les armes télécommandées ont déjà une longue histoire. Les Etats-Unis ont déployé leurs premiers drones au cours de la guerre de 14-18, dans le but d’épier les champs de bataille fréquentés par leurs troupes et les voies maritimes empruntées par leurs navires. Ils ont ensuite amélioré la méthode pour élargir leur champ d’observation et réduire le temps passé entre la collecte du renseignement et son exploitation. Dans les années 1980, la miniaturisation de l’électronique et la possibilité de regarder des images en temps réel ont ouvert aux militaires de nouvelles perspectives que l’armée israélienne a exploitées durant son opération d’invasion du Liban «Paix en Galilée». Puis, au tournant du siècle, la puissance croissante de ces appareils a permis de les armer et donc de réunir en leur sein les capacités de reconnaissance et de combat.
Les «avions sans pilote» sont les plus connus de ces appareils. Mais d’autres véhicules télécommandés les rejoignent sur le champ de bataille. Des microdrones, d’abord, soit des drones aériens miniatures au potentiel extraordinaire dans le domaine de l’espionnage mais à la grande vulnérabilité face aux caprices de la météo et… aux prédateurs. Des drones terrestres, ensuite, de petits engins montés sur roues ou sur chenilles, voire sur pattes, experts dans l’exploration des sites les plus dangereux. Des drones sous-marins, enfin, que les Etats-Unis développent pour défendre leurs ports et leurs navires de guerre contre les mines ou les plongeurs mal intentionnés.
Certaines armées font d’ores et déjà un usage intensif de ces appareils. «Les contingents allemands et britanniques de l’ancienne Force internationale d’assistance et de sécurité en Afghanistan comptaient respectivement 5000 et 3500 militaires, relève Alexandre Vautravers, rédacteur en chef de la Revue militaire suisse et organisateur du Forum de la Webster University. Or, l’un et l’autre disposaient de 1000 à 1500 drones.»
Et ce n’est qu’un début. Le potentiel de développement de ces armes paraît immense. L’une des questions les plus fascinantes à ce sujet est le degré d’indépendance que ces engins pourraient gagner. En d’autres termes, ont-ils pour vocation de rester sous le contrôle constant d’êtres humains? Ou certains d’entre eux finiront-ils par agir tout seuls?
Ce n’est pas là un scénario de science-fiction. Un certain nombre de missions sont plus compatibles que d’autres avec un haut degré d’automatisation. Tel est le cas, par exemple, des activités de déminage. Un robot spécialisé est susceptible d’assumer de manière satisfaisante cette tâche sans être téléguidé en continu par un opérateur. Il en est de même de certaines activités de contrôle. Le long mur en construction entre l’Arabie saoudite et l’Irak pourrait être équipé de postes de contrôle automatiques, capables de vérifier les identités et, le cas échéant, de faire feu sans intervention humaine directe.
Certains environnements naturels imposent par ailleurs de laisser aux machines une grande indépendance. Il est beaucoup plus difficile de communiquer à travers l’eau qu’à travers l’air. Surtout à des grandes distances et à de grandes profondeurs. Pour fonctionner, les drones sous-marins devront donc jouir d’une large «liberté de manœuvre». Tant qu’ils auront à neutraliser des mines, cela ne posera pas de problème moral particulier. Mais comment faudra-t-il les programmer en prévision de rencontre avec des plongeurs ennemis?
Il est techniquement possible, aujourd’hui, de fabriquer des armes capables de décider de la vie et de la mort d’êtres vivants. Mais leur existence supposerait une énorme prise de risque. «Les engins de ce genre gardent le comportement attendu tant qu’ils rencontrent sur le terrain des conditions similaires à celles qu’ils ont connues en phase de test, remarque Alexandre Vautravers. Mais tout événement inédit, une radiation, une déclivité exceptionnelle du terrain, peut les rendre imprévisibles. A l’heure où les militaires sont soumis à des règles d’engagement toujours plus strictes, on voit mal des Etats développés lâcher des robots dans la nature en sachant que leurs créatures sont susceptibles de faire n’importe quoi.»
«Security Forum 2015: from drones to killer robots?», vendredi 6 février de 9h à 17h, à la Webster University, 15, route de Collex, Bellevue (GE). Ouvert au public.
Une intrusion au fort impact stratégique
> Les drones ont commencé à modifier l’«art de la guerre»
Le développement des armes autonomes a de nombreux effets sur la conduite de la guerre. Il s’accompagne ainsi de ce que certains experts appellent une «dépolitisation» des conflits. En remplaçant des hommes par des robots, notamment lors de certaines missions à très hauts risques, il concourt à réduire le bilan humain, et donc le coût politique, des interventions armées.
Sur un plan purement militaire, les drones participent à une évolution en cours dans les conflits: la déconnexion toujours plus grande entre l’observation, le combat et le commandement. Les avions sans pilote permettent de réduire encore l’engagement des troupes dans les tâches de reconnaissance.
Parallèlement, les drones réduisent considérablement la distance entre le champ de bataille et le haut commandement, puisqu’ils permettent à ce dernier d’être fréquemment mieux informé que les officiers de terrain. La prise de décisions qui était devenue très décentralisée après la Seconde Guerre mondiale a repris le chemin du sommet de la hiérarchie. L’intervention américaine contre Oussama ben Laden, à laquelle le président Barack Obama a assisté en direct, est emblématique de cette évolution.
Sur le plan géopolitique, un acteur possède l’essentiel de ce nouvel arsenal, ne serait-ce que parce qu’il est le seul à disposer de la constellation de satellites nécessaire: les Etats-Unis. Un avantage qu’il devrait garder encore longtemps. Mais plusieurs autres pays ont commencé à utiliser ces armes. Il se murmure ainsi que les Russes s’en servent actuellement au-dessus de l’Ukraine pour mener leur guerre électronique contre l’armée de Kiev. E. D.
Un plan pour contenir l’essor de l’intelligence artificielle
> Des centaines de scientifiques inquiets
Ils sont tous inquiets. D’Elon Musk, patron de la société SpaceX, à l’astrophysicien Stephen Hawking, en passant par les centaines de signataires d’une lettre ouverte sur Internet. Dernière star à l’avoir paraphée: Bill Gates. L’objet de leur émoi: la possibilité que l’homme mette au point des agents dotés d’une intelligence artificielle (IA) telle qu’elle leur permette de dépasser leur créateur, voire de menacer de l’asservir ou, pire, d’«éliminer la race humaine», selon Stephen Hawking.
Ce message d’apocalypse fait toutefois réagir certains chercheurs du domaine. «Il nous détourne du débat sur… les problèmes sérieux» et actuels, dit à WiredAndrew Ng, ancien professeur d’IA à l’Université de Stanford, maintenant chez Baidu, le «Google chinois». Lui et d’autres dénoncent l’amalgame d’informations sur cet thème médiatiquement porteur et, sans minimiser les progrès, invitent à de la clairvoyance.
Il s’agit de distinguer deux types d’IA. Le premier, basique, «consiste à créer des systèmes dotés de capacités informatiques ou robotiques dépassant parfois celles de l’homme, mais ayant un but précis», dit Boi Faltings, professeur au Laboratoire d’IA de l’EPFL. Exemples? Robots guerriers, voitures autoguidées, algorithmes boursiers, systèmes de reconnaissance vocale ou visuelle perspicaces. Le type supérieur d’IA, dite «générale», évoque des entités capables, comme l’homme, d’effectuer des raisonnements conceptuels abstraits, ressentir des sentiments ou respecter des valeurs.
Dans le premier cas, tous les spécialistes admettent que les craintes industrielles, légales ou philosophiques sont fondées. «La critique émise, et qui constitue le fondement de la lettre ouverte, est celle d’une dépendance déjà trop grande mais inévitable de l’homme aux systèmes informatiques», dit Boi Faltings. Et de mentionner les outils de gestion des stocks perfectionnés. Ou les agents militaires (drones, engins de terrain, etc.) de plus en plus autonomes. Sans parler, en usine, des lignes de robots remplaçant les cols bleus; de quoi faire dire à l’économiste Andrew McAfee que l’on entre dans le «second âge de la machine», après la révolution industrielle.
Les signataires de la lettre reconnaissent les bienfaits apportés par tous ces agents intelligents, mais enjoignent aussi à la société de s’assurer qu’ils n’induisent pas de dérives. Ils plaident ainsi pour que soient – enfin – abordées diverses questions sociales: les cas impliquant des voitures autoguidées peuvent-ils être considérés selon les lois actuelles, ou en nécessitent-ils de nouvelles? Les robots guerriers appliqueront-ils le droit humanitaire? Comment la capacité des systèmes d’IA à interpréter les données acquises avec des outils de surveillance cadre-t-elle avec le droit à la vie privée?
Dès lors, ils proposent un plan pour densifier certains domaines de la recherche en IA, en quatre axes: celui de méthodes de vérification (visant à montrer que le système créé satisfait à l’objectif prévu); celui de la validité (destiné à s’assurer qu’il ne peut pas dériver vers des comportements non désirés); celui de la sécurité (pour éviter toute manipulation par des tiers); et enfin celui du contrôle (qui doit permettre à l’homme de garder la main, quoi qu’il advienne, sur un système d’IA).
Quid de l’avènement d’une super-intelligence qui serait l’égale de l’homme, voire le dépasserait? «Dans quelques décennies, ce sera un problème», assène Bill Gates. Nick Bostrom, philosophe et directeur du Future of Humanity Institute à Oxford, abonde: faire face à cet événement «est le défi le plus important que l’humanité aura jamais à relever. Et – qu’on réussisse ou pas – ce sera probablement le dernier», confiait-il au Temps l’été passé. Que manque-t-il pour que l’essor d’une telle IA «consciente» se concrétise? «Une des étapes cruciales sera de développer une IA qui puisse contribuer à sa propre amélioration. Générer cette capacité nécessite le développement de logiciels qui dépassent pour l’heure l’ingéniosité de l’homme. Cela dit, il faut faire attention à ne pas trop anthropomorphiser toute forme de super-intelligence.»
Une piste pourrait-elle être celle du «deep learning», cette discipline inspirée du fonctionnement des réseaux de neurones selon laquelle un super-ordinateur se voit doté d’algorithmes lui permettant de puiser massivement dans des flux de données, de corréler celles qui l’«intéressent» et de se perfectionner? «Non, dit Boi Faltings. Le deep learning reste une affaire de classification, mais n’aboutira jamais à l’émergence d’une conscience.» Pour lui, le réel danger est plutôt que «des entreprises, comme Google, deviennent seules à maîtriser ce genre de technologies et que celles-ci deviennent un instrument de pouvoir».
De leur côté, les signataires de la lettre ouverte proposent malgré tout de prendre ce danger d’émergence en considération, et de lui appliquer le même plan de recherche qu’aux systèmes basiques d’AI. Une approche destinée à veiller à ce que toute AI, quelle qu’elle soit, reste «robuste et bénéfique» pour l’homme. Jusque-là, nombre de chercheurs en AI, Nick Bostrom en tête, se plaignaient de manquer de moyens financiers pour mener de telles études. Or Elon Musk vient de faire un don de 10 millions de dollars au Future of Life Institute pour les soutenir. Olivier Dessibourg