La scientifique de la Data qui injecte de l’éthique dans l’intelligence artificielle

Rumman Chowdhury n’est rien si ce n’est une rêveuse. Elle croit qu’il n’ y a aucune raison que les outils de l’intelligence artificielle soient détenus par une élite de la Silicon Valley – ce qui la place dans une mission personnelle de « démocratisation » de l’intelligence artificielle. « Les gens me demanderont: « Êtes-vous d’accord avec Elon Musk ou Mark Zuckerberg? Et ma réponse est toujours: Nous nous dirigeons dans la direction que nous choisissons nous-mêmes », dit Chowdhury.

Elle cite l’exemple de la communauté open source comme exemple des effets positifs de mettre la technologie entre les mains des gens. L’open source signifie essentiellement que les outils de programmation sont libres et « ouverts » à tout le monde, et chacun construit sur du code déjà écrit. « Le même processus devrait se traduire par l’IA », soutient Chowdhury. Si nous commençons dès aujourd’hui à construire l’IA pour éduquer les gens, pour lever les barrières à l’entrée, pour rendre le processus d’embauche moins raciste, c’est l’avenir que nous aurons « , dit-elle. « C’est à nous de décider. »

VOUS REGARDEZ SIRI ET CORTANA, CE SONT DES FEMMES, NON ? MAIS ELLES SONT DES ASSISTANTES, PAS AVOCATE OU COMPTABLE.
ALEXANDRA WHITTINGTON, DIRECTEUR PRINCIPAL, FAST FUTUR

C’est ce que pense Chowdhury, 37 ans. Armée de deux diplômes de premier cycle du Massachusetts Institute of Technology, d’une maîtrise en statistique de l’Université Columbia et d’un doctorat en sciences politiques de l’Université de Californie à San Diego, elle travaille comme responsable mondiale de l’intelligence artificielle chez Accenture (elle a rejoint l’entreprise en janvier après avoir travaillé dans le domaine de la science des données chez Metis and Quotient). Grand titre, grande vision, qu’elle divise en deux parties: »La première est de penser à ce à quoi ressemblera la main-d’œuvre entraînée par l’IA. Nous avons besoin d’un meilleur système pour retenir les employés, les former et combler les lacunes en matière de talents que nous aurons « , dit-elle. La deuxième partie est ce que j’appelle les opérations responsables: comment mettre en œuvre des processus pour combattre les biais algorithmiques [influences incorporées dans les programmes informatiques par des humains] et s’assurer que les gens comprennent les données avec lesquelles ils travaillent. On est encore en train de commencer à comprendre. »

Chowdhury adore comprendre les choses. Elle est devenue une scientifique des données parce qu’elle savait qu’elle voulait comprendre l’humanité à travers les données. Ses travaux de maîtrise en sciences politiques et son passage à l’IA sont le résultat de cette même curiosité centrée sur l’humain: utiliser les données pour comprendre les préférences et les préjugés des gens et évaluer comment la technologie peut affecter l’humanité.

Aujourd’hui installée à San Francisco, Chowdhury est née dans le comté de Rockland, New York, d’immigrants bangladais. « J’ai grandi dans ce lieu magique où la race, l’origine ethnique et le sexe n’avaient pas d’importance et où tout le monde se souciait de savoir si vous étiez quelqu’un de bien et si vous faisiez votre travail « , dit-elle. Il y avait tellement de filles dans ses classes d’AP au lycée qu’il a été choqué, des années plus tard, de constater l’inégalité des sexes dans la Silicon Valley. Elle souligne les disparités salariales et la culture d’entreprise problématique, des sujets qui ont récemment fait la une des journaux.

L’autre objectif personnel de Chowdhury – rendre l’IA accessible à tous – est noble, mais si les ramifications de la technologie ne sont pas encore totalement connues, ne serait-ce pas aussi dangereux? Les scénarios de l’apocalypse – l’IA comme le monstre rapace dévorant tous nos emplois – présentés dans les médias ne sont peut-être pas dans notre avenir immédiat, mais Alexandra Whittington craint que les préjugés humains implicites ne se retrouvent dans l’IA du futur – un problème qui pourrait être exacerbé s’il n’est pas pris en compte à temps, avant qu’une démocratisation des outils ne se produise. Whittington est une directrice futuriste et visionnaire de Fast Future. Elle cite un exemple récent d’IA en droit où le  » robot-avocat  » s’appelait Ross, et l’assistante juridique avait un nom de femme, Cara. « Vous regardez Siri et Cortana, ce sont des femmes? » dit Whittington.

Consciente de ces défis, Chowdhury s’investit donc fortement dans l’éthique de l’IA et développe un cadre dans lequel les préjugés sont éliminés de l’équation, et les personnes qui traitent des recommandations en matière d’IA pour l’avenir – qu’il s’agisse de verdicts judiciaires ou de processus d’embauche – sont formées pour détecter tout problème qui survient. Nous devons concevoir ces solutions en pensant aux êtres humains « , dit-elle. « Je préférerais avoir un service d’incendie avant qu’il y ait un incendie. »

John Havens, directeur exécutif de l’initiative Global AI Ethics Initiative de l’IEEE, a été particulièrement impressionné par ce qu’il appelle la mentalité « human in the loop » de Chowdhury envers l’IA. Il est également utile qu’elle soit vraiment douée pour simplifier des termes et des idées complexes « , dit-il en riant. Son insistance à utiliser l’éthique ou une approche fondée sur les valeurs pour prendre des décisions en matière d’IA est une conviction partagée par Chowdhury.

Chowdhury applique également sa vision centrée sur l’être humain à l’extérieur du bureau: Avec une amie, elle a lancé l’Institut X, une école dans la région de la Baie où les réfugiés apprennent la science des données et les techniques de marketing pour trouver des emplois freelance par le biais de sites comme Upwork. Je crois sincèrement que la science des données, l’intelligence artificielle, toute cette technologie, en particulier l’éducation, a pour but de combler les lacunes et d’être un excellent égaliseur « , dit-elle.

1 commentaire sur “La scientifique de la Data qui injecte de l’éthique dans l’intelligence artificielle”

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.