Arrêtez de parler d’éthique de l’IA. Il est temps de parler de pouvoir

Cette interview repérée par Sentiers de Kate Crawford  par Karen Hao pour Techreview, partant de l’intelligence artificielle et de l’éthique, Kate Crawford passe aux données, au travail qui les a produites, à la construction des appareils et des infrastructures, aux ressources (et encore une fois, au travail), et enfin au pouvoir et à sa concentration entre des mains extraordinairement peu nombreuses. Voici quelques extraits :

Nous devons reconnaître l’impact politique et physique de l’IA sur la planète, déclare l’universitaire Kate Crawford dans son nouveau livre.

Au début du 20e siècle, un cheval allemand a pris l’Europe d’assaut. Hans l’Astucieux, comme on l’appelait, semblait pouvoir réaliser toutes sortes de tours auparavant réservés aux humains. Il pouvait additionner et soustraire des nombres, lire l’heure et un calendrier, et même épeler des mots et des phrases, le tout en donnant la réponse d’un coup de sabot. « A » correspondait à un coup, « B » à deux, 2+3 à cinq. Il fait sensation dans le monde entier et prouve, selon beaucoup, que l’on peut apprendre aux animaux à raisonner aussi bien que les humains.

Le problème est que Hans l’Astucieux ne faisait pas vraiment ces choses. Comme les enquêteurs l’ont découvert par la suite, le cheval avait appris à donner la bonne réponse en observant les changements de posture, de respiration et d’expression faciale de son interlocuteur. Si le questionneur se tenait trop loin, Hans perdait ses capacités. Son intelligence n’était qu’une illusion.

Cette histoire sert de mise en garde aux chercheurs en IA lorsqu’ils évaluent les capacités de leurs algorithmes. Un système n’est pas toujours aussi intelligent qu’il le semble. Prenez soin de le mesurer correctement.

Mais dans son nouveau livre, Atlas of AI, Kate Crawford, spécialiste de l’IA, renverse cette morale. Le problème, écrit-elle, réside dans la façon dont les gens définissent les réalisations de Hans : « Hans accomplissait déjà des exploits remarquables en matière de communication inter-espèces, de performance publique et de patience considérable, mais ces exploits n’étaient pas reconnus comme de l’intelligence. »

C’est ainsi que commence l’exploration par Crawford de l’histoire de l’intelligence artificielle et de son impact sur notre monde physique. Chaque chapitre cherche à élargir notre compréhension de la technologie en révélant à quel point nous l’avons perçue et définie de manière étroite.

 

Pour ce faire, Crawford nous fait voyager dans le monde entier, des mines où sont extraits les éléments de terres rares utilisés dans la fabrication des ordinateurs aux centres de traitement des commandes d’Amazon où les corps humains ont été mécanisés dans la quête incessante de croissance et de profit de l’entreprise. Dans le premier chapitre, elle raconte avoir conduit une camionnette du cœur de la Silicon Valley jusqu’à une minuscule communauté minière de la Clayton Valley, dans le Nevada. Elle y enquête sur les pratiques environnementales destructrices nécessaires pour obtenir le lithium qui alimente les ordinateurs du monde entier. C’est une illustration percutante de la proximité de ces deux endroits dans l’espace physique, mais aussi de la distance qui les sépare en termes de richesse.

En fondant son analyse sur de telles investigations physiques, Crawford se débarrasse de l’euphémisme selon lequel l’intelligence artificielle n’est qu’un logiciel efficace fonctionnant dans « le cloud ». Ses descriptions vivantes et rapprochées de la terre et du travail sur lesquels l’IA est construite, ainsi que les histoires profondément problématiques qui les sous-tendent, rendent impossible de continuer à parler de cette technologie de manière purement abstraite.

Au chapitre 4, par exemple, Crawford nous emmène dans un autre voyage, dans le temps plutôt que dans l’espace. Pour expliquer l’histoire de l’obsession du domaine pour la classification, elle visite le Penn Museum de Philadelphie, où elle contemple des rangées et des rangées de crânes humains.

(…)

Je voulais faire quelque chose de très différent : comprendre réellement comment l’intelligence artificielle est fabriquée au sens large. Cela signifie qu’il faut examiner les ressources naturelles qui la font fonctionner, l’énergie qu’elle consomme, le travail caché tout au long de la chaîne d’approvisionnement et les vastes quantités de données qui sont extraites de chaque plateforme et appareil que nous utilisons chaque jour.

Ces comptes ne sont probablement que des parodies et ne font pas partie d’une sinistre stratégie d’entreprise, mais ils illustrent le genre de chose qui pourrait arriver un jour.

En faisant cela, je voulais vraiment ouvrir cette compréhension de l’IA comme n’étant ni artificielle ni intelligente. C’est le contraire d’artificiel. Elle provient des parties les plus matérielles de la croûte terrestre, du travail des corps humains et de tous les artefacts que nous produisons, disons et photographions chaque jour. Elle n’est pas non plus intelligente. Je pense qu’il y a ce grand péché originel dans le domaine, où les gens ont supposé que les ordinateurs sont en quelque sorte comme des cerveaux humains et que si nous les formons comme des enfants, ils deviendront lentement des êtres surnaturels.

C’est quelque chose qui, à mon avis, est vraiment problématique – que nous ayons acheté cette idée d’intelligence alors qu’en réalité, nous ne sommes que des formes d’analyse statistique à l’échelle qui ont autant de problèmes que les données qui leur sont fournies.

(…)

Nous avons réalisé que, pour comprendre cela, il faut comprendre d’où viennent les composants. Où les puces ont-elles été produites ? Où sont les mines ? Où sont-elles fondues ? Où sont les chemins de la logistique et de la chaîne d’approvisionnement ?

Enfin, comment suivre la fin de vie de ces appareils ? Comment savoir où se trouvent les décharges de déchets électroniques dans des endroits comme la Malaisie, le Ghana et le Pakistan ? Nous nous sommes retrouvés avec ce projet de recherche de deux ans, qui a pris beaucoup de temps, pour retracer réellement ces chaînes d’approvisionnement en matériaux, du berceau à la tombe.

Lorsque l’on commence à examiner les systèmes d’IA à cette échelle et sur un horizon temporel plus long, on s’éloigne de ces notions très étroites d' »équité » et d' »éthique » de l’IA pour dire que ces systèmes produisent des changements géomorphologiques profonds et durables sur notre planète et qu’ils augmentent les formes d’inégalité du travail que nous connaissons déjà dans le monde.

J’ai donc compris que je devais passer de l’analyse d’un seul appareil, l’Amazon Echo, à l’application de ce type d’analyse à l’ensemble du secteur. C’était pour moi la grande tâche, et c’est pourquoi il a fallu cinq ans pour écrire Atlas of AI. Il y a un tel besoin de voir ce que ces systèmes nous coûtent réellement, parce que nous faisons si rarement le travail de comprendre leurs véritables implications planétaires.

L’autre chose que je dirais qui a été une véritable source d’inspiration est le nombre croissant de chercheurs qui posent ces questions plus importantes sur le travail, les données et les inégalités. Je pense ici à Ruha Benjamin, Safiya Noble, Mar Hicks, Julie Cohen, Meredith Broussard, Simone Brown – la liste est longue. Je vois cela comme une contribution à cet ensemble de connaissances en apportant des perspectives qui relient l’environnement, les droits du travail et la protection des données.

(…)

J’espère qu’il sera beaucoup plus difficile d’avoir ces conversations en cul-de-sac où des termes comme « éthique » et « IA pour le bien » ont été si complètement dénaturés de toute signification réelle. J’espère que cela permettra de tirer le rideau et de dire : regardons qui actionne les leviers de ces systèmes. Cela signifie qu’il faut cesser de se concentrer sur des choses comme les principes éthiques pour parler du pouvoir.

(…)

S’il y a eu un véritable piège dans le secteur de la technologie au cours de la dernière décennie, c’est que la théorie du changement a toujours été centrée sur l’ingénierie. Ça a toujours été : « S’il y a un problème, il y a une solution technique pour le résoudre. » Et ce n’est que récemment que nous commençons à voir que cela s’élargit à « Oh, eh bien, s’il y a un problème, alors la réglementation peut le résoudre. Les décideurs politiques ont un rôle à jouer. »

Mais je pense que nous devons élargir ce concept encore plus. Nous devons également dire : Où sont les groupes de la société civile, où sont les militants, où sont les défenseurs qui s’occupent des questions de justice climatique, de droits du travail, de protection des données ? Comment les inclure dans ces discussions ? Comment inclure les communautés affectées ?

En d’autres termes, comment en faire une conversation démocratique beaucoup plus profonde sur la façon dont ces systèmes influencent déjà la vie de milliards de personnes de manière essentiellement non responsable, en dehors de toute réglementation et de tout contrôle démocratique ?

En ce sens, ce livre essaie de décentrer la technologie et de commencer à poser des questions plus importantes : Dans quel genre de monde voulons-nous vivre ?

(…)

Je veux voir les groupes qui ont fait le travail difficile d’aborder des questions telles que la justice climatique et les droits du travail se rassembler, et réaliser que ces fronts auparavant très séparés pour le changement social et la justice raciale ont vraiment des préoccupations communes et un terrain commun sur lequel coordonner et organiser.

Parce que nous sommes face à un horizon temporel très court. Nous avons affaire à une planète qui est déjà soumise à de fortes pressions. Nous assistons à une profonde concentration du pouvoir dans un nombre extraordinairement réduit de mains. Il faut remonter aux débuts des chemins de fer pour trouver une autre industrie aussi concentrée, et aujourd’hui, on peut même dire que la technologie l’a dépassée.

Nous devons donc trouver des moyens de pluraliser nos sociétés et de mettre en place de plus grandes formes de responsabilité démocratique. Et c’est un problème d’action collective. Ce n’est pas un problème de choix individuel. Ce n’est pas comme si nous choisissions la marque de technologie la plus éthique sur l’étagère. Il s’agit de trouver des moyens de travailler ensemble sur ces défis à l’échelle planétaire.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.