Le plus grand obstacle à une IA humaine et éthique : le capitalisme lui-même

L’argent parle plus fort que tout, explique Fastcompany.

Au cours des dernières années, un chœur croissant d’universitaires, de militants et de technologues a dénoncé les façons dont la technologie de l’intelligence artificielle pouvait engendrer des préjugés, exacerber les inégalités et violer les droits civils.

Mais alors que ces voix se font entendre, elles s’opposent encore aux systèmes de pouvoir qui valorisent le profit et au statu quo qui veut que l’intelligence artificielle soit construite de manière à ne pas nuire aux personnes marginalisées et à la société dans son ensemble.

Lors d’une table ronde organisée dans le cadre du festival de l’innovation 2020 de Fast Company, des experts en IA éthique ont expliqué à quoi ils se heurtent pour tenter de changer la façon dont les grandes entreprises et institutions pensent à la construction et au déploiement de l’IA.

Pour Timnit Gebru, responsable technique de l’équipe d’intelligence artificielle éthique de Google, l’un des défis à relever est de travailler contre les structures d’incitation inhérentes au capitalisme. Pour les entreprises cotées en bourse comme Google, l’augmentation constante des profits est le bien le plus précieux. « Vous ne pouvez pas mettre en place un système où la seule motivation est de faire plus d’argent et ensuite supposer que les gens vont être magiquement éthiques », a-t-elle déclaré.

Lorsqu’il s’agit de reconnaître la technologie d’IA la plus controversée à l’heure actuelle, Mme Gebru explique qu’il a fallu un mouvement mondial de protestation contre les brutalités policières pour que la multitude de grandes entreprises, dont Amazon, IBM et Microsoft, qui ont mis au point cette technologie, reconsidèrent ce qu’elles déployaient. Malgré cela, Amazon n’a accepté qu’un moratoire d’un an sur la vente de sa technologie à la police. (En revanche, Google a décidé de ne pas vendre d’algorithmes de reconnaissance faciale dès 2018, et le PDG Sundar Pichai a indiqué qu’il soutenait la législation européenne visant à interdire temporairement cette technologie).

Mme Gebru préconise de changer la façon dont l’IA est construite en exerçant une « pression de toutes parts », y compris de la part de défenseurs internes comme elle, d’autres travailleurs du secteur des technologies, de militants extérieurs, de gens ordinaires, de journalistes, de régulateurs et même d’actionnaires.

« En interne, vous pouvez plaider pour au moins quelque chose de moins controversé, c’est-à-dire une meilleure documentation », a déclaré Mme Gebru. « Cela signifie que vous devez simplement mieux tester votre système, le rendre plus robuste. Même si vous demandez que plus de ressources soient déployées, pourquoi le faire si vous pensez que ce que les gens ont fait jusqu’à présent a bien fonctionné ?

Un autre défi est la quantité d’argent disponible pour les personnes qui construisent des systèmes d’IA. Même si les grandes entreprises ne vendent pas de systèmes de reconnaissance faciale à la police pour éviter un désastre en matière de relations publiques, des entreprises plus petites, comme la controversé Clearview AI, interviendront pour combler le vide. Lorsque l’argent est en jeu, il devient plus difficile de prendre des décisions dans l’intérêt de la société plutôt que de gonfler les résultats d’une entreprise.

« La réalité est qu’il y a beaucoup d’argent facile à gagner dans l’IA », a déclaré Olga Russakovsky, professeur assistant d’informatique à l’université de Princeton, qui se concentre sur la vision par ordinateur. « Je pense qu’il y a beaucoup de préoccupations très légitimes qui sont soulevées, et je suis très reconnaissante que ces préoccupations commencent à être au premier plan, au centre de ces conversations. Mais il y a de l’argent facile et c’est le cas depuis au moins 10 ans. Je pense qu’il est difficile de résister à cela… et d’avoir ensuite certaines de ces conversations plus profondes et plus difficiles ».

Ces conversations plus dures se concentrent sur les façons insidieuses dont les préjugés alimentent les ensembles de données que les scientifiques utilisent pour former les systèmes automatisés et sur la façon dont ces systèmes sont déployés pour punir les pauvres et les marginaux.

« La surveillance des visages en est un exemple », explique M. Gebru. « Si ça ne marche pas bien, c’est toujours mauvais. Si elle fonctionne parfaitement bien, elle est toujours mauvaise, selon la façon dont elle est utilisée ».

Un autre point important est le fait que les personnes qui construisent l’IA en ce moment sont en grande partie des blancs et des hommes. Pour s’attaquer au problème de savoir qui construit ces systèmes, Gebru a cofondé Black in AI, une organisation internationale qui vise à accroître la représentation des Noirs sur le terrain par le biais d’ateliers, de programmes de mentorat, de communautés en ligne et d’actions de sensibilisation.

De même, Russokovsky et Fei-Fei Li, professeur Séquoia au département d’informatique de l’université de Stanford et codirecteur de l’institut d’AI centré sur l’homme de Stanford, ont fondé une organisation appelée AI4All, qui gère des camps d’été de lycée axés sur l’AI et destinés aux femmes et aux personnes issues de milieux sous-représentés. Au cours de l’été dernier, AI4All a organisé 16 camps d’été différents.

« Mon rêve personnel est de voir ce programme AI4All toucher tous les états américains et créer réellement la prochaine génération d’une manière continue, plus diversifiée, plus inclusive, qui pourrait changer le paysage humain de l’IA et la manière dont cette technologie est déployée », a déclaré M. Li.

Alors même que de plus en plus de chercheurs et de scientifiques parlent des dangers de développer cette puissante technologie sans garde-fous, il est incroyablement difficile de faire pression pour un changement structurel. Mais cela n’a pas empêché ces femmes d’essayer.

« Très bientôt, il n’y aura plus seulement des compagnies d’IA contre des compagnies sans IA », a déclaré Mme Li. « L’IA est tellement répandue. que presque toutes les industries vont l’utiliser. Donc chaque industrie, chaque entreprise doit y réfléchir et agir maintenant ».

Via Fastcompany.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.