IA : bientôt la guerre des machines
Des armées de robots aux mains de l’intelligence artificielle pourront-elles bientôt faire la guerre de façon autonome, sans intervention humaine ? Ce mardi à 22h30 sur Arte, le documentaire «Robots tueurs, des armes aux mains de l’IA» tire le signal d’alarme.
On les appelle les «SALA» (Systèmes d’Armes Létaux Autonomes). Drones kamikazes, char d’assaut capable de partir seul au combat, soldat mécanique : ces machines infernales intègrent une intelligence artificielle suffisamment élaborée pour chercher des cibles, les sélectionner et les attaquer sans intervention humaine. Pour les experts, plus de doute, les robots tueurs sont en train de créer la troisième révolution de la guerre, après la poudre à canon et l’arme nucléaire.
Contrôle humain ?
Et cela fait froid dans le dos ! Vladimir Poutine ne déclarait-il pas en 2017 que «celui qui deviendra leader dans le domaine de l’IA sera le maître du monde». La même année, le fantasque Elon Musk, patron de Tesla, signait une lettre ouverte dans laquelle il revendiquait une réglementation garantissant que de telles armes feront toujours l’objet d’un contrôle humain significatif.
Erreur de programme et piratage
Une opinion partagée par les spécialistes en robotique. «Il n’est pas acceptable qu’une machine décide de tuer des humains. Pour l’intelligence artificielle, les cibles, qu’elles soient des personnes ou des choses, ne sont que des données à traiter, des alignements de 0 et de 1. Le monde ressemblera à un immense jeu vidéo. Sans parler des risques de piratage, et de la possibilité que de tels systèmes d’armes tombent entre les mains de groupes terroristes», préviennent-ils. «Et qui sera responsable de l’erreur des «SALA» dans le cas où ils rencontreraient des situations pour lesquelles ils n’ont pas été programmés ? Si un drone bombarde de manière autonome des civils, qui sera puni ? Le programmateur, le fabriquant, le commandant ou la machine elle-même ?»
Pertes humaines
Ces mêmes experts redoutent aussi que pour certains gouvernements et entreprises, ces armements ultrasophistiqués et intelligents représentent la solution militaire du futur. «Avec les robots tueurs : aucune perte humaine à déplorer sur le champ de bataille, supériorité stratégique sur l’adversaire moins bien équipé et nouvelle économie dont le potentiel est évalué à plusieurs dizaines de milliards de dollars.» «Si la communauté internationale ne réagit pas rapidement, on risque d’être dans une situation de fait accompli, sans qu’aucun cadre normatif ne fixe de ligne rouge», avertit l’ONG Stop Killer Robots. Le sujet est discuté à l’ONU depuis bientôt dix ans mais l’avancée des débats est bloquée par le veto de nations hautement militarisées comme les USA et la Russie.
Risque terroriste
Des responsables militaires se veulent pourtant rassurants. «Aucune armée n’accepterait de ne pas avoir de contrôle sur une machine de guerre qu’elle enverrait sur un champ de bataille, au point d’être forcée de la détruire pour la stopper.» Mais ils préconisent de rester dans la course aux armements autonomes – forcément pilotés par de l’intelligence artificielle -, pour ne pas se voir dépassés par les pays qui les développent de manière soutenue. Ou ne pas être à la hauteur face à des agressions terroristes utilisant ce type de technologies.
Terminator en vrai
Selon les spécialistes du domaine, la Chine, les États-Unis et la Russie sont entrés dans une compétition intense sur la programmation d’IA militaire. Israël, l’Inde, le Japon, la Corée du Sud, la France, l’Australie, le Royaume-Uni – et d’autres nations encore qui ne se manifestent pas – explorent actuellement les potentiels de telles technologies. Le déploiement des robots et autres drones de combat autonomes est donc en cours. Le «Terminator» incarné par Arnold Schwarzenegger dans le film de James Cameron n’est plus un phantasme technologique et s’il n’est pas encore aussi abouti que dans la fiction de 1984, il s’en rapproche fortement.
Cet article est paru dans le Télépro du 25/1/2024
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici