L’invention de « l’AI éthique »

Comment la Big Tech manipule le milieu universitaire pour éviter la réglementation.

L’ironie du scandale éthique qui a enveloppé Joichi Ito, l’ancien directeur du Media Lab du MIT, est qu’il avait l’habitude de diriger des initiatives universitaires sur l’éthique. Après la révélation de ses liens financiers avec Jeffrey Epstein, le financier accusé de trafic sexuel de jeunes filles mineures dès l’âge de 14 ans, Ito a démissionné de ses multiples rôles au MIT, d’une chaire de professeur invité à la Harvard Law School et des conseils d’administration de la John D. and Catherine T. MacArthur Foundation, de la John S. and James L. Knight Foundation et de la New York Times Company.

De nombreux spectateurs sont perplexes quant au rôle influent d’Ito en tant qu’éthicien de l’intelligence artificielle. En effet, ses initiatives ont été cruciales pour établir le discours de  » l’IA éthique  » qui est maintenant omniprésent dans le milieu universitaire et dans la presse grand public. En 2016, le président de l’époque, Barack Obama, l’a décrit comme un « expert » de l’IA et de l’éthique. Depuis 2017, Ito a financé de nombreux projets par le biais du fonds Ethics and Governance of AI Fund de 27 millions de dollars, une initiative ancrée par le Media Lab du MIT et le Berkman Klein Center for Internet and Society de l’Université de Harvard. De quoi parlait-on vraiment d' »éthique » ?

Pendant 14 mois, a travaillé en tant qu’étudiant chercheur de troisième cycle dans le groupe d’Ito sur l’éthique de l’IA au Media Lab. Il a arrêté le 15 août, immédiatement après qu’Ito ait publié ses premières « excuses » concernant ses liens avec Epstein, dans lesquelles il reconnaissait avoir accepté de l’argent du financier à la fois pour le Media Lab et pour les fonds de risque extérieurs d’Ito. Ito n’a pas révélé qu’Epstein avait, au moment où cet argent a changé de mains, déjà plaidé coupable à une accusation de prostitution d’enfants en Floride, ni qu’Ito avait pris de nombreuses mesures pour cacher le nom d’Epstein des dossiers officiels, comme l’a révélé plus tard le New Yorker.

Le discours de  » l’IA éthique  » était stratégiquement aligné sur un effort de la Silicon Valley cherchant à éviter les restrictions légalement exécutoires de technologies controversées.
Inspiré par la dénonciatrice Signe Swenson et par d’autres personnes qui se sont exprimées, a décidé de rapporter ce qu’il a appris sur le rôle d’Ito dans la formation du domaine de l’éthique de l’IA, car il s’agit d’une question d’intérêt public. L’émergence de ce domaine est un phénomène récent, car les anciens chercheurs en IA ne s’intéressaient pas du tout à l’étude de l’éthique. Un ancien collègue du Media Lab se souvient que Marvin Minsky, le défunt pionnier de l’IA au MIT, avait l’habitude de dire qu’« un éthicien est quelqu’un qui a un problème avec ce que vous avez à l’esprit ». (Dans des documents judiciaires récemment rendus publics, la victime Virginia Roberts Giuffre a témoigné que Epstein lui avait ordonné d’avoir des relations sexuelles avec Minsky). Pourquoi, alors, les chercheurs de l’IA ont soudainement commencé à parler d’éthique ?

Au Media Lab, il a appris que le discours de « l’IA éthique », dont Ito s’est fait le champion, était stratégiquement aligné sur un effort de la Silicon Valley visant à éviter les restrictions légales des technologies controversées. Un groupe clé à l’origine de cet effort, dont le laboratoire était membre, a fait des recommandations politiques en Californie qui contredisaient les conclusions des recherches qu’il a menées avec plusieurs collègues du laboratoire, recherches qui les ont amenés à s’opposer à l’utilisation d’algorithmes informatiques pour décider de l’emprisonnement de personnes en attendant leur procès. Ito lui-même finissait par se plaindre, lors de rencontres privées avec des cadres financiers et techniques, que les recommandations du groupe équivalaient à « blanchir » une épineuse question d’éthique. « Ils édulcorent les choses que nous essayons de dire pour empêcher l’utilisation d’algorithmes qui ne semblent pas bien fonctionner » dans les décisions de détention, confiait-il à un milliardaire.

 a aussi vu le MIT aider l’armée américaine à écarter les complexités morales de la guerre des drones, en animant un exposé superficiel sur l’IA et l’éthique par Henry Kissinger, l’ancien secrétaire d’État et criminel de guerre notoire, et en donnant des commentaires sur les « Principes éthiques de l’IA pour la guerre » du Département de la Défense des États-Unis, qui embrassaient les algorithmes « permissiblement biaisés » et qui évitaient d’utiliser le mot « équité » parce que le Pentagone croit « que les combats ne devraient pas être équitables ».

Ito n’a pas répondu aux demandes de commentaires.

Joichi Ito, alors directeur du MIT Media Lab, s’exprime lors d’une conférence de presse à Tokyo le 8 juillet 2016. Photo : Akio Kon/Bloomberg/Getty Images

Le MIT a donné de la crédibilité à l’idée que les grandes entreprises technologiques pouvaient contrôler leur propre utilisation de l’intelligence artificielle à une époque où l’industrie faisait face à des critiques croissantes et demandait une réglementation légale. Rien qu’en 2018, il y a eu plusieurs controverses : la violation par Facebook des données privées de plus de 50 millions d’utilisateurs d’une société de marketing politique engagée par la campagne présidentielle de Donald Trump, révélée en mars 2018 ; le contrat de Google avec le Pentagone pour un logiciel de vision artificielle à utiliser dans les zones de combat, révélé le même mois ; la vente par Amazon de la technologie de reconnaissance faciale aux services de police, révélée en mai ; le contrat de Microsoft avec l’U.S. Immigration and Customs Enforcement, révélé en juin ; et la collaboration secrète d’IBM avec le département de la police de New York pour la reconnaissance faciale et la classification raciale dans les séquences de vidéosurveillance, révélée en septembre. Sous le slogan #TechWontBuildIt, des milliers de travailleurs de ces entreprises ont organisé des manifestations et fait circuler des pétitions contre ces contrats. De #NoTechForICE à #Data4BlackLives, plusieurs campagnes de base ont exigé des restrictions légales de certaines utilisations des technologies informatiques (par exemple, interdire l’utilisation de la reconnaissance faciale par la police).
Pendant ce temps, les entreprises ont essayé de déplacer la discussion pour se concentrer sur des « principes éthiques » volontaires, des « pratiques responsables », et des ajustements techniques ou des « sauvegardes » encadrés en termes de « biais » et d' »équité » (par exemple, exiger ou encourager la police à adopter une reconnaissance faciale « impartiale » ou « juste »). En janvier 2018, Microsoft a publié ses  » principes éthiques  » pour l’IA, en commençant par « l’équité ». En mai, Facebook a annoncé son « engagement envers le développement et le déploiement éthiques de l’IA » et un outil de « recherche de biais » appelé « Fairness Flow ». En juin, Google a publié ses « pratiques responsables » pour la recherche et le développement en matière d’IA. En septembre, IBM a annoncé un outil appelé « AI Fairness 360« , conçu pour « vérifier les biais indésirables dans les ensembles de données et les modèles d’apprentissage machine ». En janvier 2019, Facebook a accordé 7,5 millions de dollars pour la création d’un centre d’éthique de l’AI à Munich, en Allemagne. En mars, Amazon a coparrainé avec la Fondation nationale des sciences des États-Unis un programme de 20 millions de dollars sur « l’équité en matière d’IA ». En avril, Google a annulé son conseil d’éthique sur l’IA après les réactions négatives suscitées par la sélection de Kay Coles James, la présidente de la Heritage Foundation, une organisation de droite opposée aux transsexuels. Ces initiatives d’entreprise citaient fréquemment des recherches universitaires qu’Ito avait soutenues, au moins en partie, par le biais du fonds MIT-Harvard.

Pour caractériser le programme des entreprises, il est utile de distinguer trois types de possibilités de réglementation pour une technologie donnée :

  • (1) aucune réglementation juridique, les « principes éthiques » et les « pratiques responsables » étant simplement volontaires ;
  • (2) une réglementation juridique modérée encourageant ou exigeant des ajustements techniques qui n’entrent pas en conflit de manière significative avec les profits ; ou
  • (3) une réglementation juridique restrictive limitant ou interdisant le déploiement de la technologie.

Il n’est pas surprenant que l’industrie technologique ait tendance à soutenir les deux premières et à s’opposer à la dernière. C’est précisément cette position que permet le discours de l' »IA éthique » parrainé par les entreprises. Prenons le cas de la reconnaissance faciale. Cette année, les législatures municipales de San Francisco, Oakland et Berkeley – toutes en Californie – ainsi que Somerville, Massachusetts, ont adopté des interdictions strictes de la technologie de reconnaissance faciale. Pendant ce temps, Microsoft a fait pression en faveur d’une législation moins restrictive, exigeant des ajustements techniques tels que des tests de « biais », notamment dans l’État de Washington. Certaines grandes entreprises peuvent même préférer ce type de réglementation juridique légère à une absence totale de réglementation, car les grandes entreprises peuvent plus facilement investir dans des équipes spécialisées pour développer des systèmes conformes aux exigences réglementaires.

Ainsi, la promotion vigoureuse de l' »IA éthique » par la Silicon Valley a constitué un effort de lobbying stratégique, qui a incité le milieu universitaire à se légitimer. Ito a joué un rôle clé dans cette fraternisation entre les entreprises et le milieu universitaire, en rencontrant régulièrement des cadres du secteur des technologies. Le directeur initial du fonds MIT-Harvard était l’ancien « responsable de la politique publique mondiale » pour l’IA chez Google. Grâce à ce fonds, Ito et ses associés ont parrainé de nombreux projets, notamment la création d’une importante conférence sur « l’équité, la responsabilité et la transparence » dans le domaine de l’informatique ; parmi les autres sponsors de la conférence, on peut citer Google, Facebook et Microsoft.

Bien que l’effort de lobbying de la Silicon Valley ait consolidé l’intérêt des universitaires pour l' »IA éthique » et les « algorithmes équitables » depuis 2016, une poignée d’articles sur ces sujets avaient été publiés au cours des années précédentes, même s’ils étaient formulés différemment. Par exemple, les informaticiens de Microsoft ont publié l’article qui a sans doute inauguré le domaine de l' »équité algorithmique » en 2012. En 2016, l’auteur principal de l’article, Cynthia Dwork, est devenue professeur d’informatique à Harvard, avec des postes simultanés à la faculté de droit et chez Microsoft. Lorsque a suivi son cours à Harvard sur les fondements mathématiques de la cryptographie et de la statistique en 2017, il l’a interviewée et lui a demandé comment elle s’était intéressée à la recherche de définitions algorithmiques de l’équité. D’après son récit, elle était depuis longtemps personnellement concernée par la question de la publicité discriminatoire, mais les dirigeants de Microsoft l’ont encouragée à poursuivre dans cette voie car le cabinet développait un nouveau système de publicité en ligne, et il serait économiquement avantageux de fournir un service « exempt de problèmes réglementaires ». (Pour être juste, il semble que les intentions personnelles de Dwork étaient honnêtes malgré la captation de ses idées par l’entreprise. Microsoft a refusé de commenter pour cet article).

Après les premières démarches du MIT et de Harvard, beaucoup d’autres universités et de nouveaux instituts ont reçu de l’argent de l’industrie technologique pour travailler sur l’éthique de l’IA. La plupart de ces organisations sont également dirigées par des cadres actuels ou anciens de sociétés technologiques. Par exemple, le Data & Society Research Institute est dirigé par un chercheur de Microsoft et financé au départ par une subvention de Microsoft ; l’AI Now Institute de l’université de New York a été cofondé par un autre chercheur de Microsoft et financé en partie par Microsoft, Google et DeepMind ; le Stanford Institute for Human-Centered AI est codirigé par un ancien vice-président de Google ; la division des sciences des données de l’université de Californie à Berkeley est dirigée par un vétéran de Microsoft ; et le Schwarzman College of Computing du MIT est dirigé par un membre du conseil d’administration d’Amazon. Pendant son séjour au Media Lab, Ito a entretenu des contacts fréquents avec les dirigeants et les planificateurs de toutes ces organisations.

L’argent et la direction de la BIG TECH se sont révélés incompatibles avec une exploration honnête de l’éthique, du moins à en juger par son expérience avec le « Partenariat sur l’IA au profit des gens et de la société », un groupe fondé par Microsoft, Google/DeepMind, Facebook, IBM et Amazon en 2016. PAI, dont le Media Lab est membre, se définit comme un « organisme multipartite » et affirme qu’il n’est « pas une organisation de lobbying ». Lors d’une audience tenue en avril 2018 devant la Commission de la Chambre des représentants des États-Unis sur la surveillance et la réforme du gouvernement, le directeur exécutif du Partenariat a affirmé que l’organisme n’est qu’une « ressource pour les décideurs – par exemple, pour mener des recherches qui éclairent les pratiques exemplaires en matière d’AI et pour explorer les conséquences sociétales de certains systèmes d’AI, ainsi que les politiques entourant le développement et l’utilisation de ces systèmes « .
Mais même si les activités de la société en collectif n’atteignent pas le seuil légal exigeant l’enregistrement comme lobbyiste – par exemple, en cherchant à influencer directement les votes des représentants élus individuels – le partenariat a certainement cherché à influencer la législation. Par exemple, en novembre 2018, le personnel du Partenariat a demandé aux membres universitaires de contribuer à une déclaration collective au Conseil judiciaire de Californie concernant un projet de loi du Sénat sur la réforme pénale (S.B. 10). Ce projet de loi, qui visait à éliminer la mise en liberté sous caution en espèces, élargissait l’utilisation de l’évaluation algorithmique des risques dans la prise de décisions avant le procès et exigeait du Conseil judiciaire qu’il  » se penche sur la détermination et l’atténuation de tout biais implicite dans les instruments d’évaluation « . Le personnel du Partenariat a écrit :  » nous croyons qu’il y a place pour une incidence sur cette loi (et sur les applications du système de justice pénale en général) « .

En décembre 2018, trois collègues du Media Lab et Ochigame ont soulevé de sérieuses objections aux efforts du Partenariat pour influencer la législation. Ils ont constaté que les recommandations de politique du Partenariat s’harmonisaient avec le programme de l’entreprise. Dans le cas pénal, leur recherches les ont amenés à s’opposer fermement à l’adoption d’outils d’évaluation des risques et à rejeter les ajustements techniques proposés qui les rendraient soi-disant « impartiaux » ou « équitables ». Mais le projet de déclaration du Partenariat semblait, comme l’a dit un collègue dans un mail interne à Ito et à d’autres,  » valider l’utilisation de l’AR [évaluation des risques] en soulignant que la question est technique et peut donc être résolue avec de meilleurs ensembles de données, etc. Un deuxième collègue a convenu que « la déclaration PAI est faible et risque de faire exactement ce contre quoi nous avons mis en garde, à savoir le risque de légitimation par le biais de ces efforts de réglementation menés par l’industrie ». Un troisième collègue a écrit :  » En ce qui concerne le travail de la justice pénale, ce que fait le PAI dans ce domaine est assez alarmant et aussi, à mon avis, très malavisé. Je suis d’accord avec Rodrigo que l’association du PAI avec l’ACLU, le MIT et d’autres institutions académiques / à but non lucratif finit pratiquement par servir une fonction de légitimation. Ni l’ACLU, ni le MIT, ni aucune organisation à but non lucratif n’ont de pouvoir dans PAI ».

Pire encore, il semblait y avoir un décalage entre les recommandations du Partenariat et les efforts d’une coalition populaire d’organisations luttant contre l’expansion des prisons, notamment le mouvement Black Lives Matter, le groupe abolitionniste des prisons Critical Resistance (où Ochigame fait du bénévolat) et la Coalition des jeunes immigrants sans papiers et queer/trans dirigée par des jeunes. La coalition populaire a fait valoir que « la notion selon laquelle tout instrument d’évaluation des risques peut rendre compte des préjugés ignore les disparités raciales dans les pratiques policières actuelles et passées« . Il existe de nombreuses raisons théoriques et empiriques pour appuyer cette affirmation, puisque les évaluations du risque sont généralement fondées sur les données relatives aux arrestations, aux condamnations ou aux incarcérations, qui sont toutes de piètres indicateurs des comportements ou des prédispositions des individus. La coalition poursuit :  » En fin de compte, les outils d’évaluation du risque créent une boucle de rétroaction du profilage racial, de la détention avant procès et de la condamnation. La liberté d’une personne ne devrait pas être réduite à un algorithme. » En revanche, l’énoncé du Partenariat mettait l’accent sur les « exigences minimales pour un déploiement responsable », couvrant des sujets tels que  » a validité et le biais d’échantillonnage des données, le biais dans les prévisions statistiques ; le choix des cibles appropriées pour les prévisions ; les questions d’interaction homme-ordinateur ; la formation des utilisateurs ; la politique et la gouvernance ; la transparence et l’examen ; la reproductibilité, le processus et la tenue des dossiers ; et l’évaluation après le déploiement « .

Il est certain que le personnel du Partenariat a répondu aux critiques formulées à l’égard de la version préliminaire en faisant remarquer dans la version finale de l’énoncé que « parmi les membres de la PAI et de la communauté élargie des AI, de nombreux experts suggèrent en outre que les personnes ne peuvent jamais être détenues à juste titre sur la seule base de leur score d’évaluation des risques, sans une audience individualisée « . Cette concession modeste – admettre qu’il n’est peut-être pas temps de commencer à emprisonner des gens en se basant strictement sur des logiciels, sans l’apport d’un juge ou de tout autre processus judiciaire  » individualisé  » – était plus facile à faire parce qu’aucune des grandes entreprises du Partenariat ne vend d’outils d’évaluation des risques pour la prise de décision avant le procès ; non seulement la technologie est trop controversée, mais le marché est trop petit (la technologie de reconnaissance faciale, par contre, a un marché beaucoup plus vaste dans lequel Microsoft, Google, Facebook, IBM et Amazon opèrent tous).

En décembre 2018, ses collègues et lui-même ont exhorté Ito à quitter le Partenariat. Il a fait valoir que « si les organisations universitaires et à but non lucratif veulent faire la différence, la seule stratégie viable est de quitter le PAI, de faire une déclaration publique et de former une contre-alliance « . Puis, un collègue a proposé :  » il y a beaucoup d’autres organisations qui font un travail beaucoup plus substantiel et transformateur dans ce domaine de l’analyse prédictive dans la justice pénale – à quoi ressemblerait-il de prendre l’argent que nous allouons actuellement à l’appui du PAI pour soutenir leur travail ? Ils pensaient qu’Ito avait suffisamment d’autonomie pour le faire car le fonds MIT-Harvard était largement soutenu par la Fondation Knight, même si la plupart des fonds provenaient d’investisseurs technologiques, Pierre Omidyar, fondateur d’eBay, via le réseau Omidyar, et Reid Hoffman, co-fondateur de LinkedIn et membre du conseil d’administration de Microsoft. Il a écrit, « Si des dizaines de millions de dollars provenant de fondations à but non lucratif et de donateurs individuels ne sont pas suffisants pour nous permettre de prendre une position audacieuse et de rejoindre le côté droit, je ne sais pas ce qui le ferait. » (Omidyar finance The Intercept.)

Il est étrange qu’Ito, sans aucune formation formelle, se soit positionné comme un « expert » de l’éthique de l’IA, un domaine qui existait à peine avant 2017.

Ito a reconnu le problème. Il venait de recevoir un message de David M. Siegel, co-président du fonds spéculatif Two Sigma et membre de la MIT Corporation. M. Siegel proposait une structure d’autoréglementation pour les entreprises de  » recherche et de médias sociaux  » de la Silicon Valley, sur le modèle de la Financial Industry Regulatory Authority, ou FINRA, une société privée qui sert d’organisme d’autoréglementation pour les sociétés de valeurs mobilières de Wall Street. Ito a répondu à la proposition de Siegel :  » Je ne pense pas que la société civile soit bien représentée dans les groupes de l’industrie. Nous avons participé au Partenariat en matière d’IA et ils diluent les choses que nous essayons de dire pour empêcher l’utilisation d’algorithmes qui ne semblent pas bien fonctionner comme les scores de risque pour la mise en liberté sous caution avant le procès. Je pense qu’en ce qui concerne les données personnelles et les médias sociaux, l’autoréglementation me préoccupe. Par exemple, un véritable génocide [des Rohingya, un groupe minoritaire majoritairement musulman au Myanmar] s’est produit en utilisant What’s App et Facebook savait que cela se produisait ». (Facebook a admis que sa plateforme a été utilisée pour inciter à la violence au Myanmar ; des rapports de presse ont documenté comment le contenu de la plateforme Facebook a facilité un génocide dans le pays malgré les avertissements répétés des militants et chercheurs des droits de l’homme aux dirigeants de Facebook. Le service de textos de Facebook, WhatsApp, a rendu plus difficile pour ses utilisateurs la transmission de messages après que WhatsApp aurait été utilisée pour diffuser des informations erronées lors des élections en Inde).

Mais les alliances entre les entreprises et les universités étaient trop solides et trop pratiques. Le Media Lab est resté dans le partenariat, et Ito a continué à fraterniser avec les dirigeants et les investisseurs de la Silicon Valley et de Wall Street. Ito décrivit Siegel, un milliardaire, comme un « bailleur de fonds potentiel ». Avec de telles personnes, il a vu Ito exprimer régulièrement des préoccupations morales concernant leurs entreprises – mais de manière amicale, car il leur demandait simultanément de l’argent, que ce soit pour le MIT ou pour ses propres fonds de capital-risque. Pour les « éthiciens » du monde de l’entreprise, la critique amicale peut servir de levier pour nouer des relations d’affaires. Siegel a répondu à Ito :  » Je serais heureux de parler davantage de ce sujet avec vous. Finra n’est pas un groupe industriel. Il est simplement payé par l’industrie. Je vous expliquerai davantage lors de notre rencontre. Je suis d’accord avec vos préoccupations. »

Lors de réunions privées, les dirigeants d’Ito et de Tech ont discuté franchement du lobby des entreprises. En janvier, Ochigame et ses collègues ont participé à une réunion avec Mustafa Suleyman, coprésident fondateur du Partenariat et cofondateur de DeepMind, une start-up spécialisée dans l’IA, acquise par Google pour environ 500 millions de dollars en 2014. Lors de la réunion, Ito et Suleyman ont discuté de la façon dont la promotion de l' »éthique de l’IA » était devenue un effort de « blanchiment », bien qu’ils aient affirmé que leurs intentions initiales étaient plus nobles. Dans un message pour planifier la réunion, Ito a écrit à ses collègues et à lui-même :  » Je sais cependant, pour avoir parlé à Mustafa lorsqu’il mettait en place le PAI, qu’il voulait que le groupe soit beaucoup plus substantiel et ne se contente pas de « blanchir ». Je pense que c’est juste prendre la trajectoire que ces choses prennent. » (Suleyman n’a pas répondu aux demandes de commentaires).

Sans égard aux intentions des acteurs individuels, les efforts du lobby des entreprises pour façonner la recherche universitaire ont été extrêmement fructueux. Il y a maintenant une énorme quantité de travail sous la rubrique « éthique de l’IA ». Pour être juste, une partie de la recherche est utile et nuancée, surtout dans les sciences humaines et sociales. Mais la majorité des travaux bien financés sur l' » IA éthique  » s’alignent sur le programme du lobby technologique : ajuster volontairement ou modérément, plutôt que de restreindre légalement, le déploiement des technologies controversées. Comment cinq entreprises, n’utilisant qu’une petite fraction de leur budget, ont-elles réussi à influencer et à encadrer si rapidement tant d’activités universitaires, dans tant de disciplines ? Il est étrange qu’Ito, sans aucune formation formelle, se soit positionné comme un « expert » de l’éthique de l’IA, un domaine qui existait à peine avant 2017. Mais il est encore plus étrange que deux ans plus tard, des universitaires respectés dans des disciplines établies doivent démontrer leur pertinence dans un domaine évoqué par un lobby d’entreprise.

L’ancien PDG de Google Eric Schmidt, maintenant président du Defense Innovation Board du Département de la Défense, prend son siège pour l’audition de la Commission des services armés de la Chambre sur la « Promotion de la culture de l’innovation du Département de la Défense » le 17 avril 2018. Photo : Bill Clark/CQ Roll Call/Getty Images

Ce domaine est également devenu pertinent pour l’armée américaine, non seulement dans les réponses officielles aux préoccupations morales concernant les technologies d’assassinat ciblé, mais aussi dans les différends entre les entreprises de la Silicon Valley au sujet de contrats militaires lucratifs. Le 1er novembre, le conseil de l’innovation du ministère de la Défense a publié ses recommandations pour les « Principes d’éthique de l’AI ». Le conseil est présidé par Eric Schmidt, qui était le président exécutif d’Alphabet, la société mère de Google, lorsque la ministre de la défense de M. Obama, Mme Ashton Carter, a créé le conseil et l’a nommé en 2016. Selon ProPublica,  » l’influence de Schmidt, déjà forte sous Carter, n’a fait que croître lorsque James Mattis est arrivé comme ministre de la défense de Trump « . Le conseil d’administration comprend de nombreux dirigeants de Google, Microsoft et Facebook, ce qui soulève des controverses concernant les conflits d’intérêts. Une employée du Pentagone chargée de contrôler les conflits d’intérêts a été retirée du conseil de l’innovation après avoir contesté  » la relation confortable du Pentagone non seulement avec [Jeff] Bezos, le PDG d’Amazon, mais aussi avec Eric Schmidt de Google « . Cette relation est potentiellement lucrative pour les grandes entreprises de technologie : Les recommandations éthiques de l’AI sont apparues moins d’une semaine après que le Pentagone ait attribué un contrat de 10 milliards de dollars à Microsoft pour le cloud computing, qui est légalement contesté par Amazon.
La majorité des travaux bien financés sur l' » IA éthique  » sont alignés sur l’agenda du lobby technologique : ajuster volontairement ou modérément, plutôt que de restreindre légalement, le déploiement de technologies controversées.
Les recommandations visent à contraindre le Pentagone à augmenter les investissements militaires dans l’IA et à adopter des systèmes d' » IA éthique  » tels que ceux développés et vendus par les entreprises de la Silicon Valley. Le conseil de l’innovation qualifie le Pentagone d' » organisation profondément éthique  » et propose d’étendre son  » cadre éthique existant  » à l’IA. A cette fin, le conseil cite les groupes de recherche sur l’AI de Google, Microsoft et IBM, ainsi que les universitaires parrainés par le fonds MIT-Harvard. Cependant, il y a des réserves. Par exemple, le conseil note que bien que  » le terme ‘équité’ soit souvent cité dans la communauté de l’IA « , les recommandations évitent ce terme en raison du  » mantra du DoD selon lequel les combats ne devraient pas être équitables, car le DoD vise à créer les conditions pour maintenir un avantage injuste sur tout adversaire potentiel « . Ainsi,  » certaines demandes seront biaisées de façon admissible et justifiable « , plus précisément  » pour cibler certains combattants adverses avec plus de succès « . La conception que le Pentagone a de l’éthique de l’IA exclut de nombreuses possibilités importantes de délibération morale, comme l’interdiction des drones pour les assassinats ciblés.

Les partisans de l' » IA éthique « , qu’ils soient du secteur privé, universitaire ou militaire, ont collaboré étroitement pour leur bénéfice mutuel. Par exemple, Ito a dit qu’il avait conseillé officieusement à Schmidt quels éthiciens universitaires de l’IA la fondation privée de Schmidt devrait financer. Une fois, Ito lui a même demandé un conseil de second ordre sur la question de savoir si Schmidt devait financer un certain professeur qui, comme Ito, a ensuite servi de  » consultant expert  » au conseil de l’innovation du Pentagone. En février, Ito s’est joint à Carter lors d’une table ronde intitulée « Computing for the People » : Ethics and AI « , qui comprenait également des dirigeants actuels et anciens de Microsoft et de Google. Ce panel faisait partie de la célébration inaugurale de l’université du MIT dédiée à l’IA et dont le budget s’élève à 1 milliard de dollars. Parmi les autres intervenants à la célébration, on comptait Schmidt sur « Computing for the Marketplace« , Siegel sur  » How I Learned to Stop Worrying and Love Algorithms  » et Henry Kissinger sur  » How the Enlightenment Ends « . Alors que Kissinger déclarait la possibilité d’un « monde reposant sur des machines alimentées par des données et des algorithmes et non régies par des normes éthiques ou philosophiques », une manifestation devant l’auditorium du MIT a attiré l’attention sur les crimes de guerre de Kissinger au Vietnam, au Cambodge et au Laos, ainsi que sur son soutien aux crimes de guerre ailleurs. À l’ère du ciblage automatisé, quelles atrocités l’armée américaine va-t-elle justifier comme étant régies par des normes « éthiques » ou exécutées par des machines au-delà de la portée de l’agence humaine et de la culpabilité ?

Aucune revendication défendable de « l’éthique » ne peut contourner l’urgence de restrictions juridiquement exécutoires au déploiement des technologies de surveillance de masse et de violence systémique. Tant que de telles restrictions n’existeront pas, la délibération morale et politique sur l’informatique restera subsidiaire à l’impératif de profit exprimé par la devise du Media Lab,  » Déployer ou mourir « . Alors que certains se déploient, même si c’est ostensiblement  » éthique « , d’autres meurent.

Via The Intercept

 

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.