Dans le cadre du nouveau projet visant à humaniser l’AI, Pair, Google a créé un guide sur ce qu’il appelle « l’apprentissage par la machine centrée sur l’homme »

Les règles de Google pour les concepteurs travaillant avec l’AI.

Comment veillons-nous à concevoir une intelligence artificielle qui prend en compte le comportement humain? Comment intégrer l’apprentissage par machine à un produit ou un service tout en veillant à ce qu’il ne perpétue pas les apriori, simplifie trop les nuances ou  bombarde tout le monde avec de fake news ? En gros, comment concevons-nous des algorithmes qui ne sont pas mauvais ?

La division de recherche de Google, Google Brain, dit que c’est une mission à relever. Lundi, la société a annoncé un nouveau programme de recherche appelé Pair people + AI Research Initiative (PAIR pour abréger) qui consiste à comprendre comment les humains interagissent avec l’apprentissage par machine. Dans le cadre de cet effort, la société a développé un ensemble de meilleures pratiques utilisées par ses équipes pour concevoir des expériences qui incluent l’apprentissage par machine.

Cela fait partie d’une philosophie que la communauté Google UX appelle « l’apprentissage par machine centrée sur l’homme », où les algorithmes d’apprentissage machine résolvent des problèmes tout en gardant à l’esprit les besoins et les comportements humains. Détaillé sur Medium par Josh Lovejoy et Jess Holbrook, deux concepteurs du groupe Research and Machine Intelligence de Google, ce sont les règles de Google pour la conception de l’apprentissage par machine tout en maintenant l’utilisateur et son humanité au centre. Voici quelques-unes des bases.

[Source Images: chombosan / iStock, Mike_Kiev / iStock]

L’APPRENTISSAGE PAR MACHINE NE RÉSOUT RIEN

Lovejoy et Holbrook l’écrivent : avant de se précipiter pour inclure l’apprentissage par machine dans votre produit ou service, n’oubliez pas que c’est toujours votre travail de concepteur pour identifier le problème et la meilleure façon de le résoudre. Faire la recherche qui ferait partie de votre processus de conception classique. Certains problèmes risquent de ne pas nécessiter d’apprentissage par machine, alors que d’autres pourraient être parfaitement adaptés. Le but est que l’algorithme ne sait pas si c’est le bon outil pour résoudre un problème. Ne lancez pas l’apprentissage de la machine à tout, surtout parce qu’il peut être plus coûteux à construire qu’un simple correctif.

Par exemple, Lovejoy et Holbrook indiquent la fonctionnalité de Gmail qui rappelle aux utilisateurs de joindre un fichier s’ils ont mentionné le mot « en pj » ou « joint » dans le corps du courrier électronique. Il n’y a pas d’apprentissage par machine impliqué là-dedans, alors que l’AI pourrait trouver plus de pièces jointes manquantes, il serait beaucoup plus compliqué et nécessiterait beaucoup de temps à élaborer.

Afin de s’assurer que l’apprentissage par machine est le bon outil pour le travail, le duo recommande de poser des questions comme celles-ci afin d’identifier ce que les utilisateurs attendent d’un produit alimenté par l’AI:

  • Décrivez la manière dont un « expert » théorique pourrait accomplir la tâche aujourd’hui.
  • Si votre expert humain devait effectuer cette tâche, à quoi pensez-vous pour améliorer la prochaine fois?
    Faites ceci pour les quatre phases de la matrice de confusion.

Si un humain devait accomplir cette tâche, quelles sont hypothèses que les utilisateurs voudraient faire?

À partir d’un groupe d’idées sur la façon de résoudre un problème, définissez les solutions qui auront le plus grand impact pour les utilisateurs et qui bénéficieront le plus de l’utilisation de l’apprentissage par machine. Les idées qui dépendent en grande partie de l’apprentissage par machine et créent le plus grand impact pour les utilisateurs sont les meilleures à aborder.

[Source Images: chombosan / iStock, Mike_Kiev / iStock]

PROTOTYPER AVEC LES VRAIS PERSONNES AU LIEU DE CREER UN VÉRITABLE ALGORITHME

Une option pour le prototypage du duo suggère d’utiliser les données réelles des participants (avec leur permission) dans votre système d’apprentissage de la machine, l’autre est de ne pas utiliser un système d’apprentissage par machine du tout. C’est ce qu’on appelle le test « Wizard of Oz ». Essentiellement, les participants croient qu’ils interagissent avec un système d’AI, mais il est effectivement contrôlé par un humain. C’était populaire en tant que méthode d’essai depuis 20 ans, écrivez Lovejoy et Holbrook, mais l’avènement de l’apprentissage par machine l’a ramené dans le courant dominant. « Ces interactions sont essentielles pour guider la conception car, lorsque les participants peuvent s’engager sérieusement avec ce qu’ils perçoivent comme une AI, ils auront naturellement tendance à former un modèle mental du système et à ajuster leur comportement selon ces modèles », écrivent-ils.

Comprendre comment les modèles mentaux des utilisateurs sont formés est la clé pour pouvoir concevoir des interactions. Vous pouvez également en apprendre davantage en utilisant les données des participants pour simuler une mauvaise réponse. Comment l’utilisateur réagit-il lorsque la machine échoue? Comment cela change-t-il leurs interactions futures?

[Source Images: chombosan / iStock, Mike_Kiev / iStock]

DESIGN AVEC L’ÉCHEC DU SYSTÈME À L’ESPRIT

Une machine qui a mal classé les données d’entrée peut sembler une petite erreur. Mais lorsque ces données d’entrée sont des êtres humains réels, être mal classées par un algorithme peut avoir des conséquences majeures. Par exemple, si un algorithme d’apprentissage de la machine décide si un utilisateur est un robot ou une personne réelle, cela importe beaucoup pour une personne qui est bloquée à tort comme un robot bloqué à tort. Donc, vous feriez mieux de vous assurer que vous pensez aux faux positifs.

Pour ce faire, Lovejoy et Holbrook recommandent d’utiliser ce qu’on appelle une « matrice de confusion », qui se décline sur une grille lorsque la réponse de l’algorithme est exacte, lorsque sa réponse est inexacte, lorsqu’elle renvoie un faux positif et quand elle retourne faux négatif. En fin de compte, cela signifie décider de ce qui est plus important: la précision (où il y a moins de mauvaises réponses, mais moins bonnes), ou le rappel (où toutes les bonnes réponses sont incluses, mais il en va peut-être d’autres fausses). Dans certains cas, il est plus important de prioriser la précision par rappel et vice versa, mais cela signifie comprendre ce qui est plus important pour votre utilisateur.

Prenez Google Photos, par exemple. Les concepteurs de Google ont décidé qu’il est important que, si vous tapez « terrain de jeu », chaque aire de jeux s’affiche, même s’il existe des photos qui ne correspondent pas. Mais en termes d’algorithme qui identifie les robots en ligne par rapport aux humains, peut-être est-ce plus important pour être précis, de sorte que vous ne risquez pas d’antagoniser les utilisateurs en les verrouillant hors de leurs comptes au motif que ce ne sont pas des gens.

[Source Images: chombosan / iStock, Mike_Kiev / iStock]

OBTENIR DES COMMENTAIRES, POUR TOUJOURS

Comment allez-vous savoir à quel point le système fonctionne bien si vous ne savez pas quand il fait des erreurs? Lovejoy et Holbrook écrivent que parfois les modèles d’apprentissage de la machine peuvent être imprévisibles, surtout si l’idée de l’utilisateur sur la façon dont une fonction particulière est supposée fonctionner diffère de celle du concepteur. Assurez-vous d’anticiper les méthodes de rétroaction à long terme et de les intégrer directement à votre plate-forme pour obtenir des commentaires quantitatifs et de vous poser avec les personnes qui l’utilisent également pour observer comment leurs attentes de la plate-forme changent. Dans un monde où les concepteurs ne comprennent pas toujours comment fonctionnent leurs services et produits alimentés par l’AI, la solution de Google est simple: obtenez ces données.

Bien sûr, alors que Google a présenté un ensemble de règles sur la conception de l’AI, le lancement de l’initiative PAIR est une preuve que même l’un des pionniers de l’apprentissage par machine ne comprend pas encore comment concevoir de manière responsable l’AI où les humains sont au centre. Bien que ce soit une étape prometteuse pour Google, de telles initiatives rappellent également les défis inhérents à cette technologie: les données biaisées, les hypothèses fausses, la méconnaissance de la vie privée et toutes leurs conséquences.

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s