Publicités

Bientôt sur un champ de bataille : des robots qui peuvent tuer

Bientôt sur un champ de bataille : des robots qui peuvent tuer

Les guerres de demain seront plus rapides, plus high-tech et moins humaines que jamais, explique The Atlantic. Bienvenue dans une nouvelle ère de guerre à la machine.

L‘île Wallops – une terre marécageuse et isolée le long de la côte est de la Virginie, près d’un célèbre refuge national pour chevaux – est surtout connue comme site de lancement pour les fusées gouvernementales et privées. Mais c’est aussi un endroit parfait et silencieux pour tester une technologie d’armement révolutionnaire.

Si un bateau de pêche avait traversé la région en octobre dernier, l’équipage aurait pu apercevoir une demi-douzaine de canots pneumatiques d’environ 10 mètres de long qui sillonnaient les hauts-fonds et ne guère s’en soucier. Mais si les membres de l’équipage avaient regardé de plus près, ils auraient vu qu’il n’y avait personne à bord : Les manettes des gaz montaient et descendaient comme si elles étaient contrôlées par des fantômes. Les bateaux utilisaient des équipements de haute technologie pour détecter leur environnement, communiquer entre eux et se positionner automatiquement pour que, en théorie, les mitrailleuses de calibre 50 qui peuvent être attachées à leurs étraves puissent tirer un flux régulier de balles pour protéger les troupes débarquant sur une plage.

L’effort secret – qui faisait partie d’un programme du Corps des Marines appelé Sea Mob – visait à démontrer que les navires équipés d’une technologie de pointe pouvaient bientôt entreprendre des attaques mortelles sans une main humaine directe à la barre. Ce fut un succès : des sources familières du test l’ont décrit comme un jalon important dans le développement d’une nouvelle vague de systèmes d’armes artificiellement intelligents qui seront bientôt disponibles sur le champ de bataille.

L’armement mortel et largement autonome n’est pas entièrement nouveau : une poignée de ces systèmes sont déployés depuis des décennies, mais seulement dans des rôles défensifs limités, comme celui d’abattre des missiles qui se jettent sur les navires. Mais avec le développement des systèmes infusés par l’IA, l’armée est maintenant sur le point de mettre en service des machines capables de passer à l’offensive, de choisir des cibles et de prendre des mesures mortelles sans intervention humaine directe.

Jusqu’à présent, les autorités militaires américaines n’ont pas encore donné le plein contrôle des machines, et elles disent qu’il n’y a pas de plans fermes pour le faire. Beaucoup d’officiers, qui ont appris pendant des années l’importance de contrôler le champ de bataille, restent profondément sceptiques quant à l’idée de confier une telle autorité à un robot. Les critiques, tant à l’intérieur qu’à l’extérieur de l’armée, s’inquiètent de ne pas pouvoir prédire ou comprendre les décisions prises par des machines artificiellement intelligentes, d’instructions mal écrites ou piratées, et de machines qui s’éloignent des paramètres créés par leurs inventeurs. Certains affirment également que le fait de permettre aux armes de décider de tuer viole les normes éthiques et juridiques régissant l’usage de la force sur le champ de bataille depuis les horreurs de la Seconde Guerre mondiale.

Mais si les inconvénients de l’utilisation de machines de guerre artificiellement intelligentes sont évidents, les avantages le sont aussi. Les humains mettent généralement environ un quart de seconde à réagir à quelque chose que l’on voit, c’est-à-dire qu’un batteur décide s’il doit s’élancer sur un terrain de baseball. Mais maintenant, les machines que nous avons créées nous ont surpassés, du moins en vitesse de traitement. Plus tôt cette année, par exemple, des chercheurs de l’Université technologique de Nanyang, à Singapour, ont concentré un réseau informatique sur un ensemble de données de 1,2 million d’images ; l’ordinateur a ensuite essayé d’identifier tous les objets représentés en seulement 90 secondes, ou 0,000075 seconde par image.

Le résultat n’était pas parfait, ni même proche : à cette vitesse incroyable, le système n’identifiait correctement les objets que 58 % du temps, un taux qui serait catastrophique sur un champ de bataille. Néanmoins, le fait que les machines peuvent agir et réagir beaucoup plus rapidement que nous, devient de plus en plus pertinent à mesure que le rythme de la guerre s’accélère. Au cours de la prochaine décennie, les missiles voleront près de la Terre à une vitesse d’un mille par seconde, trop rapide pour que les humains puissent prendre eux-mêmes des décisions défensives cruciales. Les drones attaqueront en essaims autogérés, et les ordinateurs spécialisés s’attaqueront les uns les autres à la vitesse de la lumière. Les humains peuvent créer des armes et leur donner des instructions initiales, mais après cela, de nombreux responsables militaires prédisent qu’ils ne feront qu’entraver le processus.

« Le problème, c’est que quand on fait face à la guerre à la vitesse de la machine, à quel point l’humain est-il un obstacle ? » Robert Work, qui a servi en tant que fonctionnaire n°2 du Pentagone dans les deux administrations Obama et Trump, a déclaré dans une interview. « Il n’y a pas moyen qu’un humain puisse suivre, donc on doit déléguer aux machines. »

Toutes les branches de l’armée américaine cherchent actuellement des moyens d’y parvenir, afin d’exploiter les progrès gigantesques de la reconnaissance des images et du traitement des données dans le but de créer un type de guerre plus rapide, plus précise et moins humaine (ce qui paraît presque étrange à dire).

La Marine expérimente actuellement un navire de 135 tonnes, le Sea Hunter, qui pourrait patrouiller les océans sans équipage à la recherche de sous-marins qu’il pourrait un jour attaquer directement. Lors d’un essai, le navire a déjà parcouru les 2 500 milles qui séparent Hawaï de la Californie, tout seul, mais sans armes.

Pendant ce temps, l’Armée de terre met au point un nouveau système pour ses chars d’assaut qui permet de choisir intelligemment les cibles et de pointer une arme sur elles. Elle met également au point un système de missiles, appelé missile sol-air interarmées (JAGM), qui a la capacité de choisir des véhicules pour attaquer sans l’avis de l’homme ; en mars, le Pentagone a demandé de l’argent au Congrès pour acheter 1 051 JAGM, pour un coût de 367,3 millions $.

Et l’armée de l’air travaille sur une version sans pilote de son avion de combat F-16 dans le cadre de son programme provocateur « SkyBorg« , qui pourrait un jour apporter des armements importants dans une bataille gérée par ordinateur.

Jusqu’à présent, les militaires qui cherchaient à provoquer une explosion sur un site éloigné devaient décider quand et où frapper ; utiliser un avion, un missile, un bateau ou un char pour transporter une bombe vers la cible ; diriger la bombe ; et appuyer sur le bouton  » go « . Mais les drones et les systèmes comme Sea Mob retirent l’humain du transport, et les algorithmes informatiques apprennent à cibler. La principale question qui demeure est de savoir si les commandants militaires laisseront les robots décider de tuer, en particulier aux moments où les liens de communication ont été perturbés, ce qui est probablement le cas en temps de guerre.

Jusqu’à présent, de nouveaux systèmes d’armes sont en cours de conception de sorte que les humains doivent encore approuver le déclenchement de leur violence meurtrière, mais seules des modifications mineures seraient nécessaires pour leur permettre d’agir sans intervention humaine. Les règles du Pentagone, mises en place sous l’administration Obama, n’interdisent pas de donner aux ordinateurs le pouvoir de prendre des décisions mortelles ; elles n’exigent qu’un examen plus attentif des plans par les hauts fonctionnaires. C’est ainsi que les responsables du service militaire ont commencé le travail épineux et existentiel de discuter comment, quand et dans quelles circonstances ils vont laisser les machines décider de tuer.

Les États-Unis ne sont pas le seul pays sur cette voie. Dès les années 1990, Israël a construit un drone infusé d’IA appelé HARPY, qui plane au-dessus d’une zone et attaque indépendamment les systèmes radar ; le pays l’a depuis vendu à la Chine et à d’autres. Au début des années 2000, la Grande-Bretagne a mis au point le missile Brimstone – qui peut trouver des véhicules sur le champ de bataille et se coordonner avec d’autres missiles pour diviser ceux qui se trouvent dans une zone définie et les frapper dans quel ordre – même si elle ne lui a guère permis d’exercer toute cette autorité.

Et le président russe Vladimir Poutine s’est vanté en 2018 du déploiement d’un sous-marin drone qui, selon lui, était équipé de  » munitions nucléaires « , suggérant un certain degré de contrôle robotique sur l’arme la plus meurtrière de l’humanité, sans toutefois dire combien le drone aurait d’autonomie. L’année précédente, M. Poutine avait déclaré que le recours à l’intelligence artificielle «  offrait des possibilités colossales, mais aussi des menaces difficiles à prévoir « . Il a néanmoins ajouté que la nation qui mènera le développement de l’IA  » deviendra le chef du monde « .

La Chine n’a pas fait des déclarations aussi grandioses, mais le président Xi Jinping a perturbé les responsables américains en affirmant en 2017 que son pays sera le leader mondial de l’intelligence artificielle d’ici 2030. Le pays semble surtout améliorer sa surveillance nationale grâce à la reconnaissance faciale et à d’autres technologies d’identification, bien que les experts américains disent que la technologie pourrait être rapidement utilisée à des fins militaires.

La crainte que les États-Unis ne soient dépassés par un rival, à savoir la Chine ou la Russie, a déjà déclenché une « guerre froide technologique » (expression contestable), comme l’a appelé le général à la retraite David Petraeus dans une interview accordée à CNBC au sujet des défis auxquels le secrétaire à la Défense Mark Esper est actuellement confronté. Jusqu’à cette année, le Pentagone n’avait jamais dit combien coûtaient ses travaux d’intelligence artificielle, bien que le Service de recherche du Congrès ait estimé que le ministère de la Défense avait dépensé plus de 600 millions de dollars en travaux d’intelligence artificielle non classifiés en 2016 et plus de 800 millions en 2017.

En mars, le Pentagone a déclaré qu’il voulait que le Congrès réserve plus – 927 millions de dollars – pour l’année à venir afin de faire progresser ses programmes d’intelligence artificielle. De ce montant, 209 millions de dollars iront au nouveau bureau du Pentagone pour l’IA, le Joint Artificial Intelligence Center (JAIC), créé en juin 2018 pour superviser tous les travaux d’IA qui coûtent plus de 15 millions de dollars. La plupart des travaux du JAIC sont classifiés, et les responsables n’ont ouvertement parlé que des projets d’IA du ministère de la Défense qui se concentrent sur les secours en cas de catastrophe.

Mais la société de conseil Govini a estimé dans son Federal Scorecard de 2019 qu’environ un quart des dépenses du Pentagone au cours des cinq dernières années ont été consacrées à la recherche fondamentale, le reste étant réparti entre le développement de logiciels permettant de trier les données que le Pentagone possède déjà et la création de meilleurs capteurs pour alimenter les algorithmes informatiques, étapes clés sur la voie du combat par machine.

Le Pentagone a peu parlé de ces efforts, mais des documents publics et des entretiens avec de hauts responsables et des sources confidentielles montrent clairement que les militaires jettent les bases d’une reprise de plus en plus importante des opérations militaires par AI, même si la technologie n’est pas tout à fait prête à prendre le commandement complet.

Le travail autonome de la marine a été inspiré en partie par un défi sur Mars.

Les scientifiques planétaires qui ont aidé à envoyer les rovers Spirit et Opportunity sur Mars en 2003 savaient qu’après l’atterrissage de l’engin à la fin de leur voyage de 286 millions de milles, il serait impossible de communiquer rapidement et de façon urgente : Une simple instruction envoyée de la Terre pour empêcher l’un d’eux de tomber sur un rocher arriverait 10 minutes après la chute. Les scientifiques ont donc dû mettre au point des capteurs et des ordinateurs qui permettraient aux rovers de contourner seuls les éléments dangereux du terrain martien. L’effort a été un énorme succès : Conçus à l’origine pour ne durer que 90 jours et parcourir un demi-mille chacun, les rovers ont parcouru des kilomètres de la surface de la planète, sur une période de six ans dans le cas de Spirit (dont un seul a été passé dans le sable), et 14 dans celui d’Opportunity.

Cette réalisation a attiré l’attention des scientifiques des bureaux du Naval Surface Warfare Center à Bethesda, Maryland, qui ont demandé à une équipe qui a aidé à concevoir les capteurs des rovers pour aider la Marine à créer de meilleurs navires autonomes. Mais pendant que les rovers de Mars traversaient un terrain rocailleux, vallonné et immobile, les navires autonomes de la Marine naviguaient dans des eaux en mouvement, où ils devaient survivre aux vagues, aux autres bateaux, à la vie marine et à des conditions météorologiques très variables. Il fallait pour cela maîtriser et améliorer les capacités d’identification des capteurs.

Une grande partie du travail a été effectuée par Michael Wolf, qui s’est joint au Jet Propulsion Laboratory (JPL) de la NASA immédiatement après avoir obtenu son doctorat du California Institute of Technology. La Marine a refusé de le rendre disponible, lui ou d’autres responsables du JPL, pour une entrevue. Mais lui et ses collègues ont publié les premiers documents de recherche dans lesquels ils ont nommé leur solution Savant : Analyse et suivi visuels autonomes en surface.

Lorsque la Marine l’a testé pour la première fois, en 2009, selon l’un des journaux et les photos officielles, Savant ressemblait au sommet d’un phare, avec six caméras disposées en cercle à l’intérieur d’un boîtier étanche autour du mât du navire. Leurs images ont été introduites dans un système informatique qui permettait la comparaison avec une bibliothèque de données de scènes marines, y compris un nombre croissant de navires.

Le système JPL a été conçu pour devenir plus intelligent à mesure qu’il fonctionnait, en utilisant l’auto-apprentissage continu qui est au cœur de chaque développement majeur de l’IA de la dernière moitié de la décennie. Le premier essai du système naval n’a utilisé qu’un seul navire. En 2014, Wolf avait non seulement intégré une meilleure reconnaissance d’image, mais il avait aussi aidé à écrire des algorithmes qui permettaient à plusieurs bateaux de travailler en coopération contre des ennemis potentiels, selon la Marine.

Il est essentiel que tous les navires partagent les données recueillies par leurs capteurs, ce qui crée une vision commune et permet à chacun d’entre eux de décider ce qu’il doit faire. Ensemble, ils fonctionnent comme un groupement tactique intelligent ou une escouade de marines. Chaque navire fait ce qu’il pense être le mieux pour lui-même, mais fait aussi partie d’un ballet orchestré visant à essaimer et à vaincre un éventail de cibles potentielles.

D’où le nom de la Marine pour le programme : Swarmboats. Au départ, l’ambition était uniquement défensive : trouver un moyen d’empêcher un attentat comme celui perpétré contre l’USS Cole en 2000, au cours duquel deux kamikazes ont enfoncé un petit bateau rempli d’explosifs sur le côté du navire militaire pendant qu’il faisait le plein dans le port yéménite d’Aden. Dix-sept marins ont été tués, 39 autres blessés et le destroyer a été mis hors service pour plus d’un an de réparations.

Lors d’un essai en 2014 sur la rivière James, près de Newport News, en Virginie, le programme a fait ses preuves lorsque cinq bateaux ont envahi d’autres qu’ils jugeaient hostiles. Ce test a eu lieu juste au moment où un groupe d’enthousiastes de l’IA au Pentagone a commencé une poussée majeure en faveur d’une adoption plus répandue de cette technologie. Le système JPL a attiré l’attention d’un petit bureau secret de l’agence, le Strategic Capabilities Office (SCO). S’acquittant de son mandat d’accélérer l’adoption des technologies de pointe par les militaires, l’OSC a accéléré le travail et l’a orienté vers des applications offensives potentielles.

C’est en partie pour cette raison que le système JPL de contrôle autonome n’a pas seulement été appliqué au programme Sea Mob du Marine Corps, mais qu’il est maintenant développé pour les drones volants par l’Office of Naval Research, et pour les véhicules terrestres par le Tank Automotive Research, Development and Engineering Center de l’armée américaine, selon deux sources fiables.

SCO a été dirigé pendant une demi-décennie après sa création en 2012 par Will Roper, un mathématicien et physicien qui était auparavant l’architecte en chef d’une douzaine de systèmes d’armes à la Missile Defense Agency. En 2017, il disait : « Pour moi, l’apprentissage machine, qui est une variante de l’IA, sera le plus important facteur de sécurité nationale de la prochaine décennie. »

M. Roper, qui dirige maintenant l’ensemble des achats d’armes de la Force aérienne, a déclaré aux journalistes de cette année que, même si la Force aérienne s’efforce depuis longtemps de protéger ses pilotes contre l’obsolescence des avions intelligents sans pilote,  » de jeunes pilotes viennent dans la Force aérienne qui sont très enthousiastes à l’idée, qui ne la considèrent pas comme concurrente du pilote humain « .

Jusqu’à présent, Roper a dit aux journalistes qu’il n’a pas les programmes d’IA qu’il veut « mettre entre les mains des soldats ». Mais cela va bientôt changer, et la technologie va  » évoluer si vite que nos politiques auront du mal à la rattraper « .

L’IA est, dit-il, « la technologie qui m’a donné le plus d’espoir et de crainte au cours des cinq dernières années dans l’accomplissement de ce travail ». La crainte, comme l’a expliqué M. Roper, est que d’autres pays trouvent des moyens de tirer parti de l’IA avant les États-Unis. Le pays qui intègre d’abord l’intelligence artificielle dans son arsenal pourrait avoir, a dit M. Roper,  » un avantage pour toujours « .

Fei-fei li enseignait l’informatique à l’Université de l’Illinois à Urbana-Champaign il y a un peu plus d’une décennie lorsqu’elle a commencé à réfléchir à la manière d’améliorer les algorithmes de reconnaissance d’images. Le défi était d’une certaine façon étonnamment simple : Les ordinateurs devaient devenir plus intelligents et, pour ce faire, ils devaient s’entraîner. Mais ils ne pourraient pas bien s’entraîner s’ils n’avaient pas accès à un grand nombre d’images dont ils pourraient s’inspirer.

En 2007, Li a donc commencé à travailler sur ce qui allait devenir ImageNet, une bibliothèque de 3,2 millions d’images marquées par des humains afin de former des algorithmes d’IA. ImageNet a servi en quelque sorte de Rosetta Stone pour la recherche actuellement canalisée vers le développement d’armes futuristes. En 2009, Li et son équipe de quatre autres chercheurs de Princeton ont rendu public l’ensemble des données, et l’année suivante, des équipes du monde entier ont commencé à courir pour construire le meilleur algorithme qui pouvait donner un sens à toutes ces images.

Chaque année, les algorithmes s’amélioraient un peu. Bientôt, certaines équipes ont commencé à intégrer des réseaux neuronaux, un modèle informatique destiné à imiter la structure du cerveau humain avec des couches de clusters de traitement de données imitant des neurones. En 2015, deux d’entre eux – une équipe de Microsoft et une de Google – ont fait état de résultats remarquables : ils avaient créé des algorithmes, disaient-ils, qui pouvaient faire mieux que les humains. Alors que les humains étiquetaient les images incorrectement 5,1 % du temps, les algorithmes de Google et de Microsoft ont atteint des taux d’erreur inférieurs à 5 %.

Li, qui avait alors déménagé à l’Université de Stanford, pensait que cette réalisation était un point de repère intéressant, mais se méfiait des gros titre déclarant la suprématie de l’informatique. Le projet ImageNet a montré que  » pour cette tâche particulière, avec cet ensemble de données particulier, des algorithmes très puissants avec un apprentissage approfondi ont très bien fonctionné « , a dit Li dans une interview. « Mais en tant que chercheur qui étudie ça depuis 20 ans, ce n’était pas un moment de « Oh, mon Dieu, les machines battent les humains. »

La vision humaine est extrêmement complexe, a-t-elle expliqué, et comprend des capacités telles que la lecture des mouvements du visage et d’autres indices subtils. Le concours ImageNet n’a pas créé d’algorithmes informatiques qui permettraient de voir le monde avec toutes ses gradations. Mais cela a aidé à faire progresser l’apprentissage machine. « C’est très semblable à dire que l’on utilise une boîte de Pétri pour étudier la pénicilline et qu’elle finit par devenir un antibiotique général pour les humains « , dit-elle. « ImageNet était cette boîte de Pétri de bactéries. Le travail, heureusement pour nous, a conduit à un grand progrès dans les algorithmes d’apprentissage profond. »

Un doctorant en IA nommé Matt Zeiler, par exemple, a atteint le meilleur taux de taggage ImageNet en 2013, puis a utilisé le système d’IA qu’il avait développé pour lancer une société appelée Clarafai. Clarafai est maintenant l’une des sociétés de technologie travaillant avec le Pentagone sur le projet Maven, qui utilise l’IA pour fouiller dans les images de satellites et de drones et identifier et suivre les objets qui pourraient être ciblés par des armes.

Les chercheurs en reconnaissance d’images n’ont pas résolu tous les problèmes. Un groupe de neuf scientifiques de quatre universités américaines ont travaillé ensemble à un test en 2018 pour voir si le collage de petits autocollants en noir et blanc sur les panneaux d’arrêt pouvait tromper les systèmes avancés de reconnaissance d’images. Dans 85 % des cas, les algorithmes ont déterminé que les panneaux d’arrêt légèrement modifiés n’étaient pas des panneaux d’arrêt du tout. Les chercheurs appellent ce type d’incapacité à s’adapter aux conditions « fragilité » de l’IA, et c’est l’un des principaux problèmes auxquels ce domaine est confronté. Pensez, par exemple, à ce que signifie l’incapacité de reconnaître les panneaux d’arrêt pour les voitures sans conducteur.

Mais la nouvelle de la percutante réussite de Google et de Microsoft avec ImageNet en 2015 a contribué à convaincre les responsables du Pentagone que « les machines pouvaient être meilleures que les humains pour la détection d’objets », a rappelé Robert Work, qui était alors secrétaire adjoint à la Défense, une compétence cruciale qui pouvait définir ce qui est automatiquement tué et ce qui est automatiquement épargné.

« Pour le ministère de la Défense, c’était un jour important, a-t-il dit.

Le phalanx est un canon naval à six canons qui tire 75 balles par seconde à partir des ponts des navires de taille moyenne et des gros navires de la Marine, et qui s’agite avant de tirer. Il apporte de nombreuses petites corrections au fur et à mesure qu’il commence à suivre les menaces à deux milles à la ronde, y compris les missiles et les avions. Il garde aussi la trace de ses propres balles, pour vérifier qu’elles se dirigent vers la cible. Il fait tout cela sans intervention humaine.

L’un de ses radars, contenu dans un grand dôme qui fait ressembler l’ensemble du système à un silo à grains dont le canon dépasse sur le côté, cherche constamment de nouvelles cibles ; lorsque le mouvement d’une cible correspond à un modèle contenu dans une bibliothèque de menaces potentielles, le canon ouvre le feu. Le deuxième radar, placé plus bas dans le dôme de la Phalange, garde la trace de toutes les balles pour que le système puisse faire des ajustements pendant le déchargement.

Le Phalanx n’est pas une nouveauté. Il est à bord des navires de la Marine depuis une trentaine d’années et a été vendu à une vingtaine d’alliés américains. Cette longue histoire est l’une des raisons pour lesquelles des officiers de marine comme le Contre-amiral David Hahn sont à l’aise de laisser les machines prendre des décisions mortelles dans un conflit. Hahn a une longue histoire dans le domaine de l’intelligence artificielle : Après avoir obtenu son diplôme de l’Académie navale, Hahn a été affecté à l’USS Casimir Pulaski, un navire de 130 m qui utilisait des ordinateurs pour contrôler son réacteur nucléaire. « Votre rôle, en tant qu’humain, est de superviser ces[systèmes] et ensuite, quand vous devez agir, d’intervenir « , m’a dit Hahn. Mais « souvent vous n’êtes pas assez rapide, donc vous dépendez de la machine pour agir afin d’arrêter la réaction en chaîne et garder la plante en sécurité pour que les humains puissent aller la récupérer ».

Hahn dirige maintenant l’Office of Naval Research (ONR), qui dispose d’un budget de 1,7 milliard de dollars et supervise les efforts de la Marine pour introduire l’intelligence artificielle dans davantage de ses systèmes. « Nous avons toutes ces conversations aujourd’hui sur le fait que c’est nouveau ou différent « , a dit M. Hahn. « Non, c’est juste une forme différente. C’est peut-être plus rapide, c’est peut-être un ensemble de données plus complet, c’est peut-être plus grand, mais les principes fondamentaux sont les mêmes. »

Son bureau a été l’un des premiers investisseurs du programme Sea Mob, mais ni lui ni le Marine Corps n’ont voulu en parler ou discuter du test d’octobre 2018. Une source familière avec le programme a dit qu’il y a progrès de l’identification des navires à la capacité de prendre des décisions quant à savoir s’ils sont amicaux ou menaçants, en fonction de leur comportement dans l’eau. Pour ce faire, il faut suivre leurs déplacements et les comparer à de nouvelles données plus complexes sur les menaces, qui sont encore en cours de collecte. Le logiciel permettant de suivre les mouvements d’un navire qui approche et de les comparer aux menaces potentielles est déjà en place.

D’autres programmes d’autonomie navale s’articulent autour de navires beaucoup plus grands, comme le Sea Hunter de 40m, lancé pour la première fois en 2016. La façon dont la Marine pourrait armer le Sea Hunter n’est pas encore claire, mais la guerre anti-sous-marine à partir de la surface de l’océan nécessite généralement un sonar – soit monté sur le navire, soit traîné sous la surface – plus des torpilles.

Une des raisons pour lesquelles l’autonomie est si importante, c’est que les commandants craignent que les brouillages radio et les cyberattaques ne fassent perdre le contact aux navires à l’avenir. Si cela se produit, les systèmes d’armement d’un navire robotique devront être capables d’agir seuls, sinon ils seront inutiles.

Robert Brizzolara, qui gère le programme Sea Hunter, dit qu’une grande partie du travail de préparation du système sur le champ de bataille est terminée et qu’il sera remis au Commandement des systèmes maritimes de la Marine l’année prochaine afin que les ingénieurs puissent déterminer comment le navire pourrait être armé et utilisé au combat. Toutefois, les essais se poursuivront afin de convaincre les commandants qu’il peut être un partenaire fiable en cas de conflit.

« Les marins et leurs commandants vont devoir avoir confiance que les systèmes autonomes vont faire ce qu’il faut au bon moment « , a dit Brizzolara à The Atlantic. Pour créer cette confiance, Brizzolara prévoit d’aller voir les commandants avec « un ensemble de preuves que nous pouvons présenter pour les convaincre » ou pour guider de nouveaux tests.

La Marine ne s’intéresse pas seulement aux systèmes indépendants qui peuvent fonctionner sur le dessus de la mer ; elle fait aussi des expériences avec de petits sous-marins autonomes et sans pilote qui peuvent chercher des mines marines non explosées et déployer des bombes destinées à les faire exploser, sauvant ainsi des navires plus gros et plus coûteux qui transportent des humains pour d’autres tâches. C’est une arène fertile pour l’autonomie, car les risques de pertes accidentelles sous l’eau sont minces.

Hahn a décrit ces engins de contre-mesure, la version la plus utilisée étant le MK18, comme une passerelle vers une utilisation navale plus large des systèmes sous-marins sans équipage. « Cela vous mène-t-il à la guerre anti-sous-marine ? Non, mais cela vous permet d’accéder à ce domaine un peu plus loin « , dit-il. « Et puis vous pouvez comprendre à quoi ressemblent les défis si vous essayez d’appliquer ça [à un vaisseau autonome] au lieu d’un objet qui se déplace dans l’eau et que des humains le guident. »

En février, Boeing a obtenu un contrat de 43 millions de dollars pour la construction de quatre sous-marins autonomes d’ici 2022. Ils mesureront chacun 15 m de long et pourront parcourir 7 500 milles sous l’eau. Une fois construits, la Marine prévoit d’expérimenter comment les navires pourraient être utilisés pour attaquer à la fois les sous-marins et les navires de surface, selon les documents de la Marine. Interrogé sur le programme, Boeing a adressé toutes les questions au Naval Sea Systems Command, et un porte-parole du commandement a refusé de fournir des détails, affirmant seulement que les bateaux « seraient soumis à une intégration rigoureuse et à un plan de test ».

L’intérêt du Pentagone pour l’armement autonome est dû en partie aux progrès de l’informatique et de l’ingénierie, mais c’est aussi en grande partie l’œuvre de Robert Work, qui a passé 27 ans dans les Marines avant de devenir secrétaire adjoint à la Défense. Il a passé beaucoup de temps, en uniforme et à l’extérieur, à étudier l’histoire et la stratégie militaires. Même aujourd’hui, après avoir servi deux fois dans des emplois civils au Pentagone, il a toujours l’air d’un officier, avec des lunettes d’aviateur à lentille transparente et un enthousiasme pour les batailles historiques qui démontrent des technologies ou tactiques clés.

Alors que Work était au Center for a New American Security, un groupe de réflexion de Washington, en 2013, lui et ses collègues ont été surpris par les résultats de certaines simulations classifiées du Pentagone de conflits théoriques avec la Chine ou la Russie. Après la guerre froide, ce genre d’exercice s’est généralement terminé par une victoire décisive des États-Unis ou par un Armageddon nucléaire. Mais les nouvelles simulations ont mis en évidence que l’avantage technologique des États-Unis commençait à s’évaporer, selon lui et d’autres. De nouvelles technologies perturbatrices avaient aplani le terrain de jeu, amenant parfois le « bleu [à se faire botter les fesses », dans le langage coloré d’un analyste de la RAND Corporation à Washington en mars dernier. Les États-Unis dépendent des gros porte-avions pour livrer leur puissance militaire dans les zones de conflit, en particulier dans le Pacifique, mais ces porte-avions, ainsi que les chasseurs et bombardiers coûteux qui les accompagnent, pourraient être rendus inutiles par une attaque de missiles hypersoniques, des essaims de bateaux peu coûteux ou des cyber-armes.

Les travaux ont conclu que les États-Unis devaient intensifier leur jeu, comme ils l’ont fait à deux autres moments au cours des cinquante dernières années, lorsque leur domination du champ de bataille a été remise en question. L’une d’entre elles a eu lieu au début de la guerre froide, lorsque le Pentagone s’est rendu compte qu’il ne pouvait pas défendre adéquatement l’Europe contre une invasion terrestre soviétique et a réagi avec de petites armes nucléaires destinées à freiner une avance des forces soviétiques. Le deuxième, dans les années 1970, a compris qu’il fallait des bombes guidées et des missiles pour donner aux commandants militaires des options autres que celle de bombarder des zones entières sur le champ de bataille à l’aide de tapis.

Au début de 2014, Work a commencé à publier des rapports soulignant la nécessité de disposer d’armes de pointe, flexibles, rapides et peu coûteuses qui pourraient rendre les forces américaines plus agiles et moins dépendantes des porte-avions et autres matériels vulnérables. Puis, en février de la même année, le président Barack Obama le nomme au poste de secrétaire adjoint à la Défense. Quelques mois plus tard, M. Work a officiellement lancé son initiative technologique.

« Dans les laboratoires et les usines du monde entier…. de vastes quantités de temps, d’argent et de main-d’œuvre sont consacrées au développement de la prochaine vague de technologies militaires perturbatrices « , a déclaré M. Work le 5 août 2014 à l’Université de la Défense nationale. « Pour maintenir notre supériorité technologique alors que nous passons d’un régime de combat à un autre, nous devons nous préparer dès maintenant. »

Le travail ne mentionnait pas l’intelligence artificielle dans son discours, et sa description initiale des technologies était vaste, axée sur l’idée d’agilité et de flexibilité plutôt que sur un type spécifique d’arme militaire. Mais une fois que Work et d’autres ont identifié les types de technologies qu’ils pensaient pouvoir faire pencher la balance du pouvoir en faveur des États-Unis, à savoir la cyberguerre, l’intelligence artificielle et l’hypersensibilité, ils ont commencé à transférer des fonds et de la main-d’œuvre pour rendre ces technologies prêts au combat.

D’autres pays ont vu les États-Unis réclamer de nouvelles technologies et ont décidé qu’ils devaient trouver leurs propres options militaires novatrices. En 2016, la Chine a dévoilé le Junweikejiwei, sa nouvelle agence de recherche et de développement militaire inspirée de la Defense Advanced Research Projects Agency (DARPA) des États-Unis. De même, la Russie possède l’Institut des sciences et de la technologie de Skolkovo à l’extérieur de Moscou, que des sources de renseignement de défense décrivent comme un autre clone du DARPA. Skolkovo a été fondée à l’origine en partenariat avec le Massachusetts Institute of Technology, mais l’université s’est retirée de l’arrangement au début de 2019 après que le milliardaire russe qui a financé le projet, Viktor Vekselberg, a été sanctionné par les États-Unis pour ses liens présumés avec la Russie qui s’est ingéré dans les élections en 2016.

Les travaux ont toujours cherché à calibrer les attentes quant aux résultats de son effort technologique, en montrant clairement que les machines pouvaient redonner à l’Amérique son avantage militaire, mais qu’elles ne feraient pas en sorte que les guerres se déroulent précisément selon les plans les mieux conçus par les humains.

« Il y aura des moments où les machines feront l’erreur », a dit Work lors d’une récente interview. « Nous ne cherchons pas la machine omnisciente qui n’a jamais tort. Ce que nous recherchons, ce sont des machines qui ont été testées à un point tel que nous avons confiance que l’IA fera ce pour quoi elle a été conçue, et nous espérons être en mesure d’expliquer pourquoi elle a pris cette décision. »

Malgré tout, Work soutient que l’IA a la possibilité de sauver des vies grâce à la précision que les ordinateurs peuvent exploiter. « L’IA rendra les armes plus discriminantes et meilleures, moins susceptibles de violer les lois de la guerre, moins susceptibles de tuer des civils, moins susceptibles de causer des dommages collatéraux « , a-t-il dit.

Work, comme tous les fonctionnaires actuels et anciens qui ont discuté avec moi de l’avenir de l’IA dans le domaine des armes, a dit qu’il ne connaissait personne dans l’armée qui essaie maintenant de soustraire complètement les êtres humains à la prise de décision mortelle. Aucun système offensif de ce genre n’a été soumis au processus d’examen spécialisé créé par une directive du Pentagone de l’ère Obama, bien que les procédures aient suscité beaucoup d’attention interne, selon les fonctionnaires actuels et anciens du ministère de la Défense.

Le travail dit aussi que le concept de machines qui choisissent entièrement leurs propres cibles ou qui vont terriblement mal, comme dans les films de Terminator, est peu probable parce que les technologies offensives en cours de développement n’ont que des applications limitées. Ils « n’attaqueront que ce que nous avons dit » qu’ils ont pu, a dit Work.

Les idées du travail ont été bien accueillies par le général de l’armée de l’air Paul Selva, qui a pris sa retraite en tant que vice-président des chefs d’état-major interarmées en juillet et qui a été un partisan important des innovations liées à l’IA. Mais Selva a parlé sans ambages de l’énigme « Terminator« , la question de savoir comment s’attaquer à l’arrivée de machines capables de décider de tuer par leurs propres moyens.

S’adressant à un think tank de Washington en 2016, il a clairement indiqué que la question n’était pas hypothétique :  » Dans le monde de l’autonomie, alors que nous regardons ce que nos concurrents pourraient faire dans ce même espace, la notion d’un système entièrement robotisé qui peut prendre la décision d’infliger ou non des blessures à un adversaire est ici « , a-t-il dit. « Ce n’est pas terriblement raffiné, ce n’est pas terriblement bon, mais c’est ici. »

Il a expliqué en juin à la Brookings Institution que l’on peut dire aux machines de détecter la présence de cibles en suivant les instructions spécifiques d’un programmeur. Dans un tel cas, les machines reconnaissent les caractéristiques d’identification uniques d’une ou de plusieurs cibles – leur  » signature  » – et on peut leur dire de détoner lorsqu’elles identifient clairement une cible. « C’est le code que nous écrivons… Les signatures sont connues, donc les conséquences sont connues. »

Avec l’intelligence artificielle, dit Selva à Brookings, les machines peuvent recevoir des instructions moins directes pour « aller apprendre la signature ». Ensuite, on peut leur dire : « Une fois que vous avez appris la signature, identifiez la cible. » Dans ces cas, les machines n’exécutent pas seulement des instructions écrites par d’autres, elles agissent sur des signaux qu’elles ont créés elles-mêmes, après avoir appris de leur expérience, la leur ou celle des autres.

Selva a dit que jusqu’à présent, l’armée s’est abstenue de transférer les décisions de tuer directement à des machines intelligentes. Mais il a recommandé un vaste « débat national », dans lequel les implications de laisser les machines choisir qui et quand tuer peuvent être mesurées.

Des systèmes comme Sea Mob n’en sont pas encore là, mais ils jettent les bases des décisions de vie ou de mort que doivent prendre les machines. Dans l’image sombre des films de Terminator, un système militaire artificiellement intelligent appelé SkyNet décide d’anéantir l’humanité. L’un des entrepreneurs travaillant sur Sea Mob a terminé ses présentations sur le programme en faisant référence aux films : La dernière diapositive PowerPoint de la présentation se lit comme suit :  » Nous construisons SkyNet « , la moitié en plaisantant. Mais « notre travail est de nous assurer que les robots ne nous tuent pas. »

Via The Atlantic

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :