Traduction/ synthèse – Source : wired.com – En août dernier, plusieurs dizaines de drones terrestres et aériens ont été engagés à 40 miles au sud de Seattle. Leur mission : trouver des terroristes soupçonnés de se cacher dans plusieurs bâtiments.
Tant de robots ont été impliqués dans l’opération qu’aucun opérateur humain ne pouvait les contrôler tous. On leur a donc donné l’instruction de trouver et d’éliminer les combattants ennemis au besoin de manière autonome.
La mission était un exercice organisé par l’agence DARPA (« Defense Advanced Research Projects Agency »), une division de recherche du Pentagone : les robots n’étaient armés que de leur émetteurs radio, conçus pour simuler des interactions avec d’autres robots, amis ou ennemis.
Plusieurs exercices de ce type ont eu lieu l’été dernier afin de tester comment l’intelligence artificielle (IA) pourrait s’appliquer à l’automatisation de contrôle et de décision, notamment dans des scénarios qui sont trop complexes et rapides pour que les humains puissent prendre toutes les décisions en temps voulu. Les démonstrations reflètent également un changement dans la pensée du Pentagone sur les armes autonomes. Le général John Murray, du « US Army Futures Command », a déclaré à une audience de l’Académie militaire américaine le mois dernier que l’utilisation d’essaims de drones forceront les planificateurs militaires, les décideurs politiques et la société à se demander si une personne devrait prendre toutes les décisions concernant l’utilisation de force létale dans ces nouveaux systèmes autonomes. Murray a demandé : « Est-il possible pour un être humain de choisir ceux qui doivent être engagés » et ensuite prendre 100 décisions individuelles ? « Est-il même nécessaire d’avoir un humain dans la boucle ? », at-il ajouté.
Les drones terrestre, chacun de la taille d’un grand sac à dos, ont reçu un objectif général, puis ont utilisé des algorithmes d’IA pour élaborer des missions subalternes. Certains d’entre eux ont créer des cordons autour de bâtiments tandis que d’autres ont effectué des missions d’appui et de couverture. Quelques-uns ont été détruits par des explosifs simulés ; certains ont identifié des balises représentant les combattants ennemis et ont choisi d’attaquer.
Paul Scharre, un expert au Center for New American Security et auteur de “Army of None: Autonomous Weapons and the Future of War”, dit qu’il est temps d’avoir une discussion plus approfondie sur la technologie des armes autonomes. « La discussion sur « les humains dans la boucle » devrait être plus sophistiquée et aller au-dela de savoir si ils doivent etre inclus ou non », dit-il. « Si un humain prend la décision d’engager un essaim de drones ennemis, l’homme a-t-il besoin de sélectionner individuellement chaque cible ? »
lien URL >>> https://www.wired.com/story/pentagon-inches-toward-letting-ai-control-weapons/
Photo © Getty image telle que publiée dans wired.com