Voici ce que le jeu pour enfants « Téléphone » a enseigné à Microsoft sur les préjugés de l’IA

Microsoft illustre les biais involontaires à l’aide de scénarios familiers d’enfance. Le résultat? Un guide pour reconnaître et, espérons-le, réduire l’exclusion de l’IA.

L’intelligence artificielle peut-elle être raciste? Supposons que vous êtes un étudiant afro-américain dans une école qui utilise un logiciel de reconnaissance faciale. L’école l’utilise pour accéder aux devoirs et devoirs en ligne. Mais le logiciel a un problème. Ses fabricants n’ont utilisé que des sujets d’essai à peau claire pour former ses algorithmes. Votre peau est plus foncée, et le logiciel a du mal à vous reconnaître. Parfois, vous êtes en retard en classe ou vous ne pouvez pas faire vos devoirs à temps. Les notes en souffrent. Il en résulte une discrimination fondée uniquement sur la couleur de la peau.

Ce n’est pas un exemple réel, mais des erreurs similaires d’IA sont déjà devenues tristement célèbres dans l’industrie de la technologie et dans les médias sociaux. L’industrie est enthousiasmée par l’IA pour de bonnes raisons – les grandes données et l’apprentissage de la machine suscitent des expériences puissantes qui étaient inimaginables il y a quelques années à peine. Mais pour que l’IA puisse remplir sa promesse, les systèmes doivent être dignes de confiance. Plus les gens ont confiance, plus ils interagissent avec les systèmes, et les systèmes utilisent plus de données pour obtenir de meilleurs résultats. Mais la confiance prend beaucoup de temps à se forger, et les préjugés peuvent la détruire instantanément, causant de réels dommages aux grandes communautés.

RECONNAISSANCE DE L’EXCLUSION EN AI
La partialité dans l’IA se produira si elle n’est pas construite dès le départ en pensant à l’inclusion. L’étape la plus critique dans la création d’une IA inclusive est de reconnaître où et comment les biais infectent le système.

Le premier principe de conception inclusive est de reconnaître l’exclusion. Le guide que nous dévoilons ici répartit le biais de l’IA en différentes catégories afin que les créateurs de produits puissent identifier les problèmes dès le début, anticiper les problèmes futurs et prendre de meilleures décisions en cours de route. Il permet aux équipes de voir clairement où leurs systèmes peuvent mal tourner, ce qui leur permet d’identifier les biais et de construire des expériences qui tiennent la promesse de l’IA pour tout le monde.

CINQ MOYENS D’IDENTIFIER LES BIAIS
Le travail a été mené avec des leaders d’opinion universitaires et de l’industrie pour déterminer cinq façons d’identifier les biais. Ensuite, ont été utilisées des situations de l’enfance – comme le jeu « Téléphone » ou la tenue vestimentaire – comme métaphores pour illustrer le comportement dans chaque catégorie. Pourquoi? Nous pouvons tous nous rapporter à des épisodes de biais d’enfance, et cela s’inscrit dans une belle métaphore: l’IA en est à ses débuts et, comme les enfants, la façon dont elle grandit reflète la façon dont nous l’élevons et la nourrissons.

Chaque catégorie de biais inclut une métaphore de l’enfance qui l’illustre, sa définition, un exemple de produit et un test de stress. Voici comment les préjugés se dissipent:

Un jeune enfant définit le monde uniquement sur la petite quantité qu’il peut voir. Finalement, l’enfant apprend que la plus grande partie du monde se trouve au-delà du petit ensemble d’informations qui est dans son champ de vision. C’est là la racine du biais des ensembles de données: l’intelligence basée sur des informations trop petites ou trop homogènes.

Définition: Lorsque les données utilisées pour la formation des modèles d’apprentissage machine ne représentent pas la diversité de la clientèle. Les ensembles de données à grande échelle constituent le fondement de l’IA. En même temps, les ensembles de données ont souvent été réduits à des généralisations qui ne tiennent pas compte de la diversité des utilisateurs et qui les sous-représentent.

Exemple de produit: Technologies de vision industrielle – telles que les caméras Web pour suivre les mouvements de l’utilisateur – qui ne fonctionnent bien que pour de petits sous-ensembles d’utilisateurs basés sur la race (principalement blanc), car les données de formation initiale excluaient d’autres races et teintes de peau.

Stress test: Si vous utilisez un ensemble de données d’entraînement, cet échantillon comprend-il tout le monde dans votre base de clients? Et si ce n’est pas le cas, avez-vous testé vos résultats avec des personnes qui ne faisaient pas partie de votre échantillon? Qu’en est-il des membres de vos équipes d’IA – sont-ils inclusifs, diversifiés et sensibles aux préjugés?

ASSOCIATIONS DES BIAIS

Imaginez des enfants qui aiment jouer au « docteur », les garçons veulent les rôles de médecin et supposent que les filles joueront le rôle d’infirmières. Les filles doivent faire valoir leurs arguments pour renverser les hypothèses. « Les filles peuvent être docteurs aussi! »

Définition: Quand les données utilisées pour former un modèle renforcent et multiplient un biais culturel. Lors de la formation des algorithmes d’IA, les biais humains peuvent faire leur chemin vers l’apprentissage automatique. La perpétuation de ces préjugés dans les interactions futures peut mener à des expériences inéquitables pour les clients.

Exemple de produit: Outils de traduction linguistique qui font des suppositions sexospécifiques (p. ex. les pilotes sont des hommes et les hôtesses sont des femmes).

Stress test: Vos résultats font-ils des associations qui perpétuent les stéréotypes de genre ou d’ethnicité? Que pouvez-vous faire pour briser les associations indésirables et injustes? Votre ensemble de données est-il déjà classifié et étiqueté?

BIAIS D’AUTOMATISATION

Imaginez une fille qui se fait maquiller. Elle aime le sport, aime le naturel et déteste tout ce qui est artificiel. L’esthéticienne a des idées différentes sur la beauté, applique des tonnes de maquillage et une coiffure sophistiquée. Les résultats rendent l’esthéticienne heureuse, mais horrifient la fille.

Définition: Lorsque les décisions automatisées l’emportent sur les considérations sociales et culturelles. Les programmes prédictifs peuvent automatiser des objectifs qui vont à l’encontre de la diversité humaine. Les algorithmes ne sont pas responsables envers les humains, mais prennent des décisions ayant un impact humain. Les concepteurs et les praticiens de l’IA doivent tenir compte des objectifs des personnes touchées par les systèmes qu’ils construisent.

Exemple de produit: Les filtres photo d’embellissement renforcent une notion européenne de beauté sur les images du visage, comme l’éclaircissement du teint.

Stress test: Est-ce que des clients réels et divers seraient d’accord avec les conclusions de votre algorithme? Votre système d’IA est-il en train de prendre le pas sur les décisions humaines et favorise-t-il la prise de décision automatisée? Comment s’assurer qu’il y a un point de vue humain dans la boucle?

BIAS D’INTERACTION

La première personne d’un groupe chuchote une phrase à la personne suivante, qui la chuchote ensuite à la personne suivante – et ainsi de suite jusqu’ à ce que la dernière personne dise ce qu’elle a entendu. Il s’agit de voir comment l’information change naturellement à travers tant de transferts. Mais disons qu’un gamin change délibérément d’avis pour créer un résultat plus ridicule. C’est peut-être plus drôle, mais l’esprit de voir ce qui se passe naturellement est brisé.

Définition: Quand les humains manipulent l’IA et créent des résultats biaisés. Les bots d’aujourd’hui peuvent faire des blagues et faire croire aux gens qu’ils sont humains la plupart du temps. Mais de nombreuses tentatives d’humanisation de l’intelligence artificielle ont involontairement altéré des programmes informatiques avec un biais humain toxique. Le biais d’interaction apparaît lorsque les robots apprennent de façon dynamique sans protection contre la toxicité.

Exemple de produit: Les humains introduisent délibérément un langage raciste ou sexiste dans un chat pour l’entraîner à dire des choses offensantes.

Stress test: Avez-vous des contrôles en place pour identifier les intentions malveillantes envers votre système? Qu’est-ce que votre système d’IA apprend des gens? Avez-vous conçu pour l’interaction et l’apprentissage en temps réel? Qu’est-ce que cela signifie pour les clients?

BIAS DE CONFIRMATION

Pensez au gamin qui reçoit un dinosaure en jouet pour cadeau de ses un an. D’autres membres de la famille voient le dinosaure et lui donnent plus de dinosaures. Dans plusieurs années, les amis et la famille supposent que le gamin est un fanatique des dinosaures, et vont continuer à offrir plus de dinosaures jusqu’à ce qu’il ait une énorme collection.

Définition: Lorsque la personnalisation simplifiée à outrance fait des suppositions biaisées pour un groupe ou un individu. Le biais de confirmation interprète l’information d’une manière qui confirme les idées préconçues. Les algorithmes d’IA servent un contenu qui correspond à ce que d’autres personnes ont déjà choisi. Cela exclut les résultats des personnes qui ont fait des choix moins populaires. Un penseur ou un chercheur qui ne reçoit de l’information que des gens qui pensent comme lui ne verra jamais les points de vue contradictoires et n’aura pas l’occasion de voir des solutions alternatives et des idées diverses.

Exemple de produit: les sites d’achat qui affichent des recommandations pour des choses que le client a déjà acheté.

Stress test: Votre algorithme s’appuie-t-il sur les préférences populaires et ne les renforce-t-il pas uniquement? Votre système d’IA est-il capable d’évoluer dynamiquement au fur et à mesure que vos clients évoluent dans le temps? Votre système d’IA aide-t-il vos clients à avoir une vision plus diversifiée et inclusive du monde?

UTILISATION DE CETT AMORCE
En tant que concepteurs et créateurs d’expériences d’intelligence artificielle, il faut réfléchir à la façon dont l’intelligence artificielle évolue et comment elle affecte les personnes réelles. Cet abécédaire est le début d’un long chemin pour créer des expériences qui serviront tout le monde de la même façon.

Si nous appliquons ces idées à l’exemple initial du jeune Afro-Américain mal interprété par le logiciel de reconnaissance faciale, nous pouvons qualifier cela de biais d’ensemble de données: le logiciel a été formé avec des données trop étroites. En reconnaissant et en comprenant ces préjugés dès le départ, nous pouvons tester le système par rapport à d’autres considérations humaines et construire des expériences plus inclusives. Notre logiciel de reconnaissance faciale pourrait-il être sujet à des données délibérément erronées? Quels autres biais pourraient affecter l’expérience?

La plupart des personnes qui travaillent dans le domaine de l’IA ont des preuves anecdotiques de ce genre de situations. Des résultats gênants et offensants, attribuables à des préjugés involontaires que nous voulons tous identifier et éviter. Le but ici est de vous aider à reconnaître le biais sous-jacent qui mène à ces situations. Commencez par ces catégories et testez votre expérience en gardant à l’esprit ces types de biais, afin de vous concentrer sur la fourniture du potentiel de l’IA à tous vos clients.

 

Pour en savoir plus sur le design inclusif chez Microsoft, cliquez ici.

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s