L’éthique est trop subjective pour guider l’utilisation de l’IA, soutiennent certains juristes, rapporte TechReview.

Au cours des six dernières années, le service de police de la ville de New York a compilé une énorme base de données contenant les noms et les détails personnels d’au moins 17 500 personnes qu’il croit impliquées dans des gangs criminels. Cet effort a déjà été critiqué par des militants des droits civiques qui affirment qu’il est inexact et discriminatoire sur le plan racial.

« Imaginez maintenant qu’on associe la technologie de reconnaissance faciale au développement d’une base de données qui présume théoriquement que vous faites partie d’un gang « , a déclaré Sherrilyn Ifill, présidente et conseillère juridique du Fonds de défense juridique de la NAACP, mardi dernier au symposium AI Now à New York.

Les avocats, les militants et les chercheurs insistent sur la nécessité de l’éthique et de la responsabilité dans la conception et la mise en œuvre des systèmes d’IA. Mais ceci ignore souvent quelques questions délicates : qui peut définir cette éthique et qui doit la faire respecter ?

Non seulement la reconnaissance faciale est imparfaite, mais des études ont montré que les logiciels de pointe sont moins précis pour les personnes à la peau foncée et les femmes. Selon l’estimation de l’Ifill, la base de données de la police se situe entre 95 et 99 % pour les Afro-Américains, les Latino-Américains et les Asiatiques. « Nous parlons de créer une classe de personnes (…) qui sont marquées d’une sorte d’étiquette criminelle « , a dit M. Ifill.

Entre-temps, les services de police des États-Unis, du Royaume-Uni et de la Chine ont commencé à adopter la reconnaissance faciale comme outil pour trouver les criminels connus. En juin, la police du sud du Pays de Galles a publié une déclaration justifiant son utilisation de la technologie en raison du « bienfait public » qu’elle procure.

En fait, la technologie met souvent en lumière les différentes normes éthiques des gens, qu’il s’agisse de censurer le discours haineux ou d’utiliser des outils d’évaluation des risques pour améliorer la sécurité publique.

Pour tenter de mettre en évidence les divergences de principes entre les gens, les chercheurs du MIT ont créé une plateforme appelée la Machine morale pour recueillir l’opinion humaine sur les décisions morales qui devraient être prises par les automobilistes au volant d’une voiture. Ils ont demandé à des millions de personnes du monde entier de peser le pour et le contre d’un « problème de chariot » classique en choisissant qui une voiture devrait essayer de prioriser en cas d’accident. Les résultats montrent d’énormes variations d’une culture à l’autre.

L’établissement de normes éthiques ne change pas nécessairement le comportement. En juin, par exemple, après que Google a accepté d’interrompre son travail sur le projet Maven avec le Pentagone, il a établi un nouvel ensemble de principes éthiques pour guider sa participation aux futurs projets d’IA. Seulement quelques mois plus tard, de nombreux employés de Google estiment que ces principes ont été mis de côté avec une offre pour un contrat de 10 milliards de dollars du ministère de la Défense. Une étude récente de la North Carolina State University a également révélé que demander aux ingénieurs en logiciel de lire un code d’éthique ne change rien à leur comportement.

Philip Alston, juriste international à la faculté de droit de l’Université de New York, propose une solution à la nature ambiguë et irresponsable de l’éthique : recadrer les conséquences de l’IA en termes de droits humains. « Les droits de l’homme sont dans la Constitution « , a déclaré M. Alston lors de la même conférence. « Elles figurent dans la déclaration des droits ; elles ont été interprétées par les tribunaux, a-t-il dit. Si un système d’IA prive les gens de leurs droits fondamentaux, il ne devrait pas être acceptable, a-t-il dit.

Alston n’est pas le seul à avoir trouvé cette solution. Moins d’une semaine avant le symposium, le Data & Society Research Institute a publié une proposition visant à utiliser les droits humains internationaux pour régir l’IA. Le rapport contient des recommandations à l’intention des entreprises de technologie pour qu’elles collaborent avec les groupes de défense des droits civils et les chercheurs et qu’elles effectuent des études d’impact sur les droits de la personne concernant le cycle de vie de leurs systèmes d’IA.

« Jusqu’à ce que nous commencions à inclure les droits de l’homme dans la discussion sur l’IA « , a ajouté Alston,  » il n’y a pas de point d’ancrage dur.

Publicités

3 commentaires »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.