Course entre grandes puissances

Budgets et développements énormes

Chargement du lecteur...

Chargement du lecteur...

Les réseaux de neurones au service de la sélection de cibles à éliminer

s'est réuni du 9 au 13 avril 2018 à Genève en Suisse — pour la cinquième année consécutive — avec encore et toujours l'idée de réunir le maximum d'États pour discuter de l'interdiction de ces technologies meurtrières aux conséquences encore inconnues mais de plus en plus préoccupantes. La Russie a immédiatement fait savoir qu'elle refusait par avance "toute interdiction, moratoire ou régulation sur les armes autonomes". Le groupe d'experts avait dû reporter sa réunion de 6 mois, en août dernier, faute de moyens financiers…Au delà du barrage russe, le groupe d'experts ne semble pas parvenir à se mettre parfaitement d'accord sur la définition exacte d'une "arme mortelle autonome" et a visiblement longuement tergiversé sur les problématiques liées à l'intelligence artificielle (IA) : la crainte de freiner le développement de cette technologie en interdisant les systèmes d'armement autonomes occupe visiblement les esprits. La réunion a tout de même accouché d'un communiqué signé par 26 États appelant à bannir les armes "entièrement autonomes" tout en réaffirmant l'importance du contrôle humain. Pour autant, la capacité de cette interdiction à entrer en actes concrets semble plus qu'incertaine, pour ne pas dire nulle… Il y a deux ans, le forum mondial de Davos avait déjà posé la question de cette "rupture dans l'art de la guerre" encore peu médiatisée à l'époque :Selon les spécialistes du domaine, la Chine, les États-Unis et la Russie — les 3 nations les plus dépensières dans les domaines de la recherche et du développement de technologies d'armement — sont entrées dans une compétition intense sur la programmation d'IA militaires. Israël, l'Inde, le Japon, la Corée du Sud, la France, l'Australie, le Royaume-Uni — et certainement d'autres encore qui ne se manifestent pas — explorent actuellement les potentiels de telles technologies. La grande course aux robots et autres drones de combat autonomes est donc en cours et les réunions du groupe d'experts de l'ONU, avec ses communiqués, semblent un peu vaines face à la réalité : des "robots tueurs autonomes" existent déjà et les grandes puissances comptent bien en faire usage à court terme. Malgré le danger que représentent ces tueurs de métal capables de choisir eux-mêmes des cibles et de les détruire — qui est présent dans tous les esprits — rien ne semble donc pouvoir empêcher leur émergence : Vladimir Poutine n'a-t-il pas déjà expliqué que "celui qui deviendra leader dans le domaine de l'IA sera le maître du monde" ?Le Département de recherche militaire américain (Darpa) a un budget de 15 milliards d'euros pour le seul développement des robots militaires. Selon le New York Times, ce département a déjà testé des drones autonomes pouvant décider quelle cible attaquer "sans aucune aide humaine". Côté russe, un robot humanoïde a été dévoilé en 2016, censé aider les cosmonautes sur la station spatiale internationale, mais cette vidéo le montrant en train de tirer sur des cibles avec deux armes à feu semble plutôt indiquer que Fedor (Final Experimental Demonstration Object Research) n'a pas vocation à se cantonner seulement à de la maintenance dans l'espace :Le char-robot autonome russe Nerehta, quant à lui, s'il ne paye pas de mine — et s'il semble moins inquiétant que le "Fedor-Terminator" — n'en est pas moins une arme redoutable. Ce petit char d'assaut de 2,5 mètres de long, bourré de technologie, est censé partir au combat entièrement seul, sans aucune aide humaine comme cette autre vidéo le démontre :Les avancées très rapides de l'IA sont au cœur du développement de la robotique militaire et les leaders du domaine tels Google ne s'y sont pas trompés en proposant leurs services au Pentagone, ce qui a provoqué une levée de boucliers parmi les employés ne voulant pas participer à des programmes militaires… de drones militaires (Article L'Obs — ""). Ce scandale a fait reculer le géant californien qui a déclaré stopper ce partenariat gênant en terme d'image. Mais les entreprises d'armement, elles, ne sont pas aussi regardantes sur l'éthique, comme dans le cas de… Kalashnikov, en Russie.

L'agence de presse russe TASS rapportait en juillet 2017 que l'entreprise russe Kalashnikov entamerait en 2018 la production en série de nouveaux modules de combats utilisant la technologie NeuroNet. NeuroNet est une technologie logicielle d'apprentissage automatique — basée sur des algorithmes de réseaux de neurones artificiels — permettant "d'identifier des cibles, de s'améliorer par l'expérience et de décider par 'lui même' des tirs à effectuer". Kalashnikov — célèbre pour ses fusils semi-automatiques et ses millions de morts depuis des décennies — fait la publicité de son nouveau module de combat à réseau de neurones avec des dessins enfantins, sur son site :

Ces nouvelles armes entièrement autonomes — que le groupe d'experts de l'ONU "appelle à bannir" — font malheureusement partie intégrante de la nouvelle doctrine militaire russe, énoncée en 2015, et qui doit "exclure l’homme de la zone de confrontation immédiate". L’armée russe a d'aileurs déclaré vouloir robotiser plus du tiers de ses armements pour 2025. La transformation d'une partie des matériels militaires de la Russie a déjà commencé, avec par exemple le développement de chars de combat "dronisés" à "équipage déporté". Le site spécialisé www.strategic-bureau.com se fait l'écho de ce nouveau système : "Le cœur du système électronique du drone est sa centrale inertielle qui lui permet de suivre les déplacements du char d’une manière autonome (…) Outre sa mission principale d’observation et de détection grâce aux moyens optroniques, le drone sera capable de désigner les objectifs et de guider les armes de précision."



Face à cette volonté de rendre autonomes des armements militaires en Russie, en Chine et aux États-Unis, certains pays, pourtant en pointe dans les technologies militaires, se sont malgré tout positionnés contre les armes 100% autonomes. C'est le cas du Royaume-Uni qui possède pourtant l'un des programmes de drones militaires les plus avancés et qui, dans un communiqué du gouvernement, a affirmé le 30 septembre 2017 : "La politique du Royaume-Uni est que le fonctionnement des armes sera toujours placé sous contrôle, comme une garantie absolue de la surveillance, de l’autorité et de la responsabilité humaine. Le Royaume-Uni ne possède pas de systèmes d’armes entièrement autonomes et n’a pas l’intention d’en développer".



Face à l'émergence possible d'une "guerre des machines", l'île qui a engendré Shakespeare semble plus sage dans ses positions que la plupart des grandes puissances. Mais qui parmi ses concurrents sérieux sur le champ militaire moderne est prêt à abandonner les promesses des machines autonomes ?