Les chercheurs aident l’intelligence artificielle à comprendre l’équité

Même les humains ont du mal à se mettre d’accord sur ce qui est juste. Apprendre à l’intelligence artificielle à comprendre l’équité va être un projet très difficile [Matt Davenport, TechXplore]. C’est pourtant ce que Pang-Ning Tan, professeur d’informatique et d’ingénierie à l’université de l’État du Michigan, et Abdol-Hossein Esfahanian, directeur du département de Tan et expert en théorie appliquée des graphes, ont entrepris de faire.

Une définition classique consisterait à examiner l’équité du point de vue d’un individu, c’est-à-dire à déterminer si une personne considère un résultat particulier comme juste ou injuste. C’est un début raisonnable, mais cela ouvre la porte à des définitions conflictuelles, voire contradictoires, a déclaré M. Tan. Ce qui est juste pour une personne peut être injuste pour une autre.

M. Tan et son équipe de recherche empruntent donc des idées aux sciences sociales pour élaborer une définition qui tienne compte des points de vue de groupes de personnes.

« Nous essayons de sensibiliser l’IA à l’équité et, pour ce faire, il faut lui dire ce qui est équitable. Mais comment concevoir une mesure de l’équité qui soit acceptable pour tous », a déclaré M. Tan. « Nous cherchons à savoir comment une décision affecte non seulement les individus, mais aussi leurs communautés et leurs cercles sociaux. »

(…)

Prenons cet exemple simple : Trois amis ayant des scores de crédit identiques demandent des prêts d’une même somme d’argent à la même banque. Si la banque approuve ou refuse tout le monde, les amis percevront cela comme plus juste que si une seule personne est approuvée ou refusée. Cela pourrait indiquer que la banque a utilisé des facteurs étrangers que les amis pourraient juger injustes.

L’équipe de M. Tan élabore un moyen de noter ou de quantifier l’équité de différents résultats afin que les algorithmes d’IA puissent identifier les options les plus équitables.

Bien sûr, le monde réel est beaucoup plus complexe que cet exemple, et M. Tan est le premier à admettre que définir l’équité pour l’IA est plus facile à dire qu’à faire. Mais il est aidé, notamment par le directeur de son département à la MSU, Abdol-Hossein Esfahanian.

(…)

« Les algorithmes sont créés par des personnes et ces dernières ont généralement des préjugés, qui s’infiltrent donc dans les algorithmes », a-t-il déclaré. « Nous voulons que l’équité soit présente partout et nous voulons mieux comprendre comment l’évaluer. »

L’équipe progresse sur ce front. En novembre dernier, ils ont présenté leurs travaux lors d’une réunion en ligne organisée par la NSF et Amazon, ainsi que lors d’une conférence internationale virtuelle organisée par l’Institute of Electrical and Electronics Engineers.

Tan et Esfahanian ont tous deux déclaré que la communauté – et les bailleurs de fonds – sont enthousiasmés par les progrès des Spartiates. Mais les deux chercheurs reconnaissent également qu’ils ne font que commencer.

« Il s’agit en grande partie d’une recherche en cours. Il y a beaucoup de questions et de défis. Comment définir l’équité ? Comment aider les gens à faire confiance à ces systèmes que nous utilisons tous les jours ? a déclaré M. Tan. « Notre travail de chercheur consiste à trouver des solutions à ces problèmes. »

C’est un défi de taille, et j’espère qu’ils réussiront. Alors que l’IA se fraye un chemin dans chaque partie de nos vies et prend des décisions allant de qui reçoit des soins de santé à ce que devraient être vos primes d’assurance en passant par qui devrait obtenir un prêt, lui apprendre à prendre des décisions équitables est essentiel pour renforcer la confiance du public dans ces systèmes.

Via Texplore

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.