Actualite, Technologie

Robots tueurs, la part du fantasme, le point sur la réalité


Les systèmes autonomes capables d’identifier une cible humaine et de tirer semblent encore relever de la science-fiction. Pourtant, de nombreuses associations militent pour leur interdiction dès aujourd’hui.

Des slaughterbots, des drones qui tiennent dans une main et sont capables de voler, inaperçus, seuls ou en essaim, jusqu’à une personne identifiée pour la tuer. Sans qu’un humain n’intervienne, car l’Humain a des doutes, peut refuser un ordre ou rater sa cible.

Dans une vidéo devenue virale fin 2017, on voit des étudiants engagés politiquement se faire identifier et abattre par un essaim de mini-drones autonomes. Une séquence fictionnelle, évidemment, au réalisme terrifiant.

Produite par des associations, elle avait pour but d’alerter le grand public sur les dangers à venir des robots tueurs.

Techniquement, cette catégorie d’armes est appelée « SALA » (Systèmes d’armes létaux autonomes), soit des systèmes capables de choisir seuls une cible humaine et de tirer. Une perspective qui suscite aujourd’hui l’effroi dans l’opinion publique : 59% des Français se déclarent opposés aux robots tueurs, d’après un sondage commandé à Ipsos par la coalition d’ONG Campaing to Stop Killer Robots et rendu public en début d’année.

Un débat passionnel

Des personnalités comme Elon Musk, Demis Hassibis (de DeepMind), Noam Chomsky, Bill Gates, Steve Wozniak, Yann LeCun ou feu Stephen Hawking ont appelé à leur interdiction dans des pétitions. Une position partagée par 28 Etats comme l’Autriche, le Brésil ou le Chili. Et des poids lourds de l’armement comme Thalès commencent même à s’engager à ne pas produire de robots tueurs.  Mais de nombreux experts en sécurité se montrent agacés par les passions que suscite ce débat, alimentant, selon eux, tous les fantasmes. « J’ai envie de dire que tout le monde est contre les robots tueurs, en fait. Car le but premier des systèmes autonomes n’est pas de tuer des humains », affirme Thierry Berthier, chercheur en cyberdéfense et cybersécurité à l’Université de Limoges. « La question est plutôt de savoir jusqu’où on veut aller dans le processus d’automatisation de l’armement qui est en cours. Est-ce que le robot-sentinelle qui surveille déjà la frontière nord-coréenne avec une mitrailleuse tirera demain tout seul ? Est-ce que les navires autonomes qui font du renseignement iront en plus jusqu’à décider de torpiller l’ennemi ? », s’interroge-t-il. En clair, le processus d’automatisation de toutes les armées est en marche. On s’oriente vers des systèmes multimissions et multifonctions auxquels on pourrait rajouter la capacité de prendre la décision de tuer.

« C’est pourtant une réalité technologique », nous affirme Tony Fortin, chargé d’études à l’Observatoire des armements. « Au niveau matériel, il est déjà possible de fabriquer soi-même des robots tueurs. Les composants sont librement disponibles dans le commerce, ce qui laisse redouter que des terroristes s’en emparent », avertit-il. La tentative d’attentat sur Nicolas Maduro l’été dernier au Venezuela a prouvé qu’il était possible de charger d’explosifs de simples drones civils DJI.

Des armes autonomes pour 2030

Au-delà du bricolage, de très sérieuses sociétés d’armement commencent aussi à plancher sur des systèmes plus sophistiqués, capables de fonctionner en totale autonomie, en s’appuyant notamment sur les progrès de l’intelligence artificielle.

C’est le cas de la société israélienne General Robotics, qui commercialise le robot tactique Dogo, surmonté d’un Glock 29 de calibre 9 mm. Il offre la possibilité de prendre le contrôle pour tirer… ou de le laisser faire. Citons encore Kalashnikov, qui affirme vouloir développer une nouvelle catégorie de produits embarquant une IA capable de prendre seule la décision de tuer. C’est en tous cas ce qu’a déclaré l’un de ses porte-parole à l’agence de presse russe Tass en 2017.

Les Etats-Unis, Israël, la Chine et la Russie sont les plus pays les plus avancés dans ces technologies émergentes… et comptent parmi les pays opposés à l’interdiction des robots tueurs. Il est probable qu’ils parviennent à en déployer d’ici 2030, d’après Tony Fortin. Mais avant cela, ils devront surmonter deux limites technologiques. « Dans l’optique d’utiliser des armes autonomes sur une longue durée, il y a le problème de l’autonomie, qui n’est pas résolu. Mais aussi les capacités des intelligences artificielles à s’adapter à leur environnement et à l’aléatoire pour prendre leurs décisions », fait-il observer.

Un nouveau concept d’arme robotique évoqué par Kalashnikov en 2018 : un énorme robot bipède. Kalashnikov – Un nouveau concept d’arme robotique évoqué par Kalashnikov en 2018 : un énorme robot bipède.

Une interdiction est-elle possible ?

Les SALA posent de nombreux problèmes éthiques et juridiques, leur utilisation allant à l’encontre des principes des droits de la personne et des traités internationaux, où l’humain reste l’enjeu central. Une machine n’est pas douée de compassion et ignore le prix d’une vie. Est-il raisonnable dans ce cas de la laisser prendre la décision de tuer ? Et qui sera responsable de ses actes ? Ces systèmes soulèvent aussi des questions de sécurité. Des attaques informatiques visant à détourner et manipuler des robots tueurs ne sont-elles pas à redouter ?

Pour Aymeric Elluin, responsable de plaidoyer Armes et Justice internationale à Amnesty International, la seule solution pour éviter qu’il ne soit un jour trop tard, c’est l’interdiction dès aujourd’hui de ces dispositifs. Et tant pis si toutes les tentatives de négociations menées à l’ONU ou dans le cadre de la convention pour l’armement sur certaines armes classiques à Genève ont échoué jusqu’à présent. « Tous les pays n’ont pas signé contre les mines antipersonnelles. Mais leur interdiction a constitué un outil de pression et a stigmatisé les pays qui s’en affranchissent, contribuant à faire reculer leur usage ».

« Ce n’est pas parce que les robots tueurs n’existent pas encore qu’il ne faut pas les interdire », renchérit Bénédicte Jeannerod, directrice du bureau français de Human Rights Watch. « On a bien réussi à interdire les armes à laser aveuglantes avant leur mise sur le marché, par exemple ».

01net.com

Commentaires

commentaires