Ne demandez pas si l’intelligence artificielle est bonne ou juste, mais comment elle déplace le pouvoir

Un excellent article sur le recadrage de la conversation sur l’éthique autour de l’IA, pourquoi l’utilisation de « juste » et « transparent » n’est pas interprétée de manière fiable, comment ces discussions ont (jusqu’à présent) conduit le domaine de l’IA à croire qu’elle est neutre, et pourtant elle « ne remarque pas les données biaisées et construit des systèmes qui sanctifient le statu quo et font avancer les intérêts des puissants ». Plus généralement, Kalluri souhaite que les discussions s’articulent autour de la question de savoir comment/quand/si l’IA change de pouvoir et qu’elle intègre dans son développement toute communauté qui perdrait son pouvoir ou subirait une attention plus ciblée par le biais de ces outils.

Les chercheurs doivent écouter, amplifier, citer et collaborer avec les communautés qui ont supporté le poids de la surveillance : souvent des femmes, des personnes noires, autochtones, LGBT+, pauvres ou handicapées. […]

Le groupe s’inspire de l’observation de la spécialiste féministe noire Angela Davis selon laquelle « radical signifie simplement « saisir les choses à la racine«  », et que le problème de fond est que le pouvoir est réparti de manière inégale. […]

Les chercheurs en IA se concentrent essentiellement sur la fourniture d’informations très précises aux décideurs. Il est remarquable que peu de recherches se concentrent sur le service aux personnes concernées. Ce qu’il faut, ce sont des moyens pour ces personnes d’enquêter sur l’IA, de la contester, de l’influencer ou même de la démanteler. […]

À mon avis, les personnes qui travaillent dans le domaine de l’IA doivent élever ceux qui ont été exclus de la formation, et pour ce faire, elles devront restreindre leurs relations avec les institutions puissantes qui bénéficient de la surveillance des personnes. Les chercheurs doivent écouter, amplifier, citer et collaborer avec les communautés qui ont supporté le poids de la surveillance : souvent des femmes, des personnes noires, indigènes, LGBT+, pauvres ou handicapées. Les conférences et les institutions de recherche devraient céder des créneaux horaires, des espaces, des financements et des rôles de direction importants aux membres de ces communautés. En outre, des discussions sur la manière dont la recherche déplace le pouvoir devraient être exigées et évaluées dans les demandes de subventions et les publications.

À travers la lentille de la puissance, il est possible de voir pourquoi les systèmes d’IA précis, généralisables et efficaces ne sont pas bons pour tout le monde. Entre les mains d’entreprises qui exploitent ou de services de police oppressifs, un système de reconnaissance faciale plus précis est néfaste.

Lire l’article entier sur Nature et celui-ci de Medium

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.