Publicités

Pourquoi vous devriez vous inquiéter des machines qui lisent vos émotions ?

Pourquoi vous devriez vous inquiéter des machines qui lisent vos émotions ?

Les machines peuvent maintenant identifier la colère, la peur, le dégoût et la tristesse. La  » détection des émotions  » est passée d’un projet de recherche à une industrie de 20 milliards de dollars.

Un programme pourrait-il détecter des terroristes potentiels en lisant leurs expressions faciales et leur comportement ? C’est cette hypothèse que la Transportation Security Administration (TSA) des États-Unis a mise à l’épreuve en 2003, lorsqu’elle a commencé à mettre à l’essai un nouveau programme de surveillance appelé le programme Screening of Passengers by Observation Techniques, ou Spot, en bref.

Lors de l’élaboration du programme, ils ont consulté Paul Ekman, professeur émérite de psychologie à l’Université de Californie, à San Francisco. Des décennies auparavant, Ekman avait mis au point une méthode permettant d’identifier les expressions faciales les plus infimes et de les associer aux émotions correspondantes. Cette méthode a été utilisée pour former les « agents de détection des comportements » à la recherche de signes de tromperie sur les visages.

Mais lorsque le programme a été mis en œuvre en 2007, il était assailli de problèmes. Les agents renvoyaient des passagers pour interrogatoire plus ou moins au hasard, et le petit nombre d’arrestations qui ont eu lieu concernaient des accusations qui n’avaient rien à voir avec le terrorisme. Ce qui est encore plus inquiétant, c’est le fait que l’émission aurait servi à justifier le profilage racial.

Ekman a essayé de se distancier de Spot, prétendant que sa méthode était mal appliquée. Mais d’autres ont suggéré que l’échec du programme était dû à une théorie scientifique dépassée qui sous-tendait la méthode d’Ekman, à savoir que les émotions peuvent être déduites objectivement par une analyse du visage.

Ces dernières années, les entreprises technologiques ont commencé à utiliser la méthode d’Ekman pour former des algorithmes de détection des émotions à partir des expressions faciales. Certains développeurs affirment que les systèmes de détection automatique des émotions seront non seulement meilleurs que les humains pour découvrir les vraies émotions en analysant le visage, mais que ces algorithmes s’adapteront à nos sentiments les plus intimes, améliorant considérablement l’interaction avec nos appareils.

Mais beaucoup d’experts qui étudient la science de l’émotion craignent que ces algorithmes échouent une fois de plus, prenant des décisions à haut risque sur nos vies basées sur une science erronée.

La technologie de détection des émotions nécessite deux techniques : la vision par ordinateur, pour identifier avec précision les expressions faciales, et les algorithmes d’apprentissage machine pour analyser et interpréter le contenu émotionnel de ces caractéristiques faciales.

Généralement, la deuxième étape utilise une technique appelée apprentissage supervisé, un processus par lequel un algorithme est formé pour reconnaître les choses qu’il a vues auparavant. L’idée de base est que si vous montrez à l’algorithme des milliers et des milliers d’images de visages heureux avec l’étiquette « heureux » quand il voit une nouvelle image d’un visage heureux, il l’identifiera de nouveau comme « heureux ».

Une étudiante diplômée, Rana el Kaliouby, a été l’une des premières personnes à commencer à expérimenter cette approche. En 2001, après avoir déménagé d’Égypte à l’Université de Cambridge pour entreprendre un doctorat en informatique, elle a découvert qu’elle passait plus de temps avec son ordinateur qu’avec d’autres personnes. Elle s’est dit que si elle pouvait apprendre à l’ordinateur à reconnaître et à réagir à son état émotionnel, le temps passé loin de sa famille et de ses amis serait moins solitaire.

Kaliouby a consacré le reste de ses études doctorales à ce problème et a fini par mettre au point un appareil qui aide les enfants atteints du syndrome d’Asperger à lire et à réagir aux expressions faciales. Elle l’appelait « l’aide auditive émotionnelle ».

En 2006, Kaliouby a rejoint le laboratoire d’informatique affective du Massachusetts Institute of Technology, où elle a continué, avec la directrice du laboratoire, Rosalind Picard, à améliorer et perfectionner la technologie. Puis, en 2009, ils ont co-fondé une start-up appelée Affectiva, la première entreprise à commercialiser l’« intelligence émotionnelle artificielle ».

Au début, Affectiva a vendu sa technologie de détection des émotions comme produit d’étude de marché, offrant des réactions émotionnelles en temps réel aux publicités et aux produits. Ils ont décroché des clients tels que Mars, Kellogg’s et CBS. Picard a quitté Affectiva en 2013 et s’est lancé dans une autre entreprise de biométrie, mais l’entreprise a continué à croître, tout comme l’industrie qui l’entoure.

Amazon, Microsoft et IBM annoncent maintenant l' »analyse des émotions » comme l’un de leurs produits de reconnaissance faciale, et un certain nombre de petites entreprises, telles que Kairos et Eyeris, ont fait leur apparition, offrant des services similaires à Affectiva.

Au-delà des études de marché, la technologie de détection des émotions est maintenant utilisée pour surveiller et détecter les facultés affaiblies des conducteurs, tester l’expérience des utilisateurs de jeux vidéo et aider les professionnels médicaux à évaluer le bien-être des patients.

Kaliouby, qui a vu la détection des émotions passer d’un projet de recherche à une industrie de 20 milliards de dollars, est convaincu que cette croissance se poursuivra. Elle prédit un moment dans un avenir pas trop lointain où cette technologie sera omniprésente et intégrée dans tous nos dispositifs, capable de  » puiser dans nos réponses viscérales, subconscientes, moment par moment « .

Comme pour la plupart des applications d’apprentissage automatique, les progrès en matière de détection des émotions dépendent de l’accès à des données de meilleure qualité.

Selon le site Web d’Affectiva, ils disposent du plus grand dépôt de données sur les émotions au monde, avec plus de 7,5 millions de visages provenant de 87 pays, dont la plupart proviennent d’enregistrements de personnes qui regardent la télévision ou qui conduisent leur quotidien.

Ces vidéos sont triées par 35 étiqueteuses basées dans le bureau d’Affectiva au Caire, qui regardent les images et traduisent les expressions du visage en émotions correspondantes – si elles voient des sourcils baissés, des lèvres serrées et des yeux saillants, par exemple, elles attachent l’étiquette « colère ». Cet ensemble de données sur les émotions humaines est ensuite utilisé pour former l’algorithme d’Affectiva, qui apprend à associer les visages renfrognés à la colère, les visages souriants au bonheur, et ainsi de suite.

Cette méthode d’étiquetage, qui est considérée par beaucoup dans l’industrie de la détection des émotions comme l’étalon-or pour mesurer les émotions, est dérivée d’un système appelé Emotion Facial Action Coding System (Emfacs) que Paul Ekman et Wallace V Friesen ont développé dans les années 80.

Les racines scientifiques de ce système remontent aux années 1960, lorsque Ekman et deux de ses collègues ont émis l’hypothèse qu’il existe six émotions universelles – colère, dégoût, peur, bonheur, tristesse et surprise – qui sont profondément ancrées en nous et qui peuvent être détectées dans toutes les cultures en analysant les mouvements des muscles du visage.

Pour vérifier l’hypothèse, ils ont montré à divers groupes de la population du monde entier des photographies de visages, leur demandant d’identifier l’émotion qu’ils ont vue. Ils ont découvert qu’en dépit d’énormes différences culturelles, les humains apparieraient les mêmes expressions faciales avec les mêmes émotions. Un visage aux sourcils baissés, aux lèvres serrées et aux yeux globuleux signifiait « colère » pour un banquier aux Etats-Unis et un chasseur semi-nomade en Papouasie Nouvelle Guinée.

Au cours des deux décennies suivantes, Ekman s’est inspiré de ses découvertes pour mettre au point une méthode permettant d’identifier les traits du visage et de les relier aux émotions. La prémisse sous-jacente était que si une émotion universelle était déclenchée chez une personne, alors un mouvement facial associé apparaîtrait automatiquement sur le visage. Même si cette personne essayait de masquer ses émotions, le vrai sentiment instinctif s’échapperait et pourrait donc être perçu par quelqu’un qui sait ce qu’il faut chercher.

Tout au long de la seconde moitié du XXe siècle, cette théorie – appelée théorie classique des émotions – a fini par dominer la science des émotions. Ekman a rendu sa méthode de détection des émotions propriétaire et a commencé à la vendre comme programme de formation à la CIA, au FBI, au Customs and Border Protection et à la TSA. L’idée que les vraies émotions soient lisibles sur le visage s’est même infiltrée dans la culture populaire, formant la base du spectacle Lie to Me.

Pourtant, de nombreux scientifiques et psychologues qui étudient la nature de l’émotion ont remis en question la théorie classique et les méthodes de détection des émotions associées d’Ekman.

Ces dernières années, Lisa Feldman Barrett, professeure de psychologie à la Northeastern University, a présenté une critique particulièrement puissante et persistante.

Barrett a découvert la théorie classique pour la première fois alors qu’elle était étudiant diplômé. Elle avait besoin d’une méthode pour mesurer objectivement l’émotion et a découvert les méthodes d’Ekman. En examinant la documentation, elle a commencé à s’inquiéter du fait que la méthodologie de recherche sous-jacente était imparfaite – en particulier, elle pensait qu’en fournissant aux gens des étiquettes d’émotion présélectionnées pour qu’elles correspondent aux photographies, Ekman les avait involontairement « préparés » à donner certaines réponses.

Elle et un groupe de collègues ont testé l’hypothèse en relançant les tests d’Ekman sans fournir d’étiquettes, permettant aux sujets de décrire librement l’émotion dans l’image telle qu’ils la voyaient. La corrélation entre des expressions faciales spécifiques et des émotions spécifiques s’est effondrée.

Depuis, Barrett a développé sa propre théorie des émotions, qui est exposée dans son livre How Emotions Are Made: The Secret Life of the Brain. Elle soutient qu’il n’y a pas d’émotions universelles situées dans le cerveau qui sont déclenchées par des stimuli externes. Plutôt, chaque expérience d’émotion est construite à partir de parties plus basiques.

« Elles émergent comme une combinaison des propriétés physiques de votre corps, d’un cerveau flexible qui se connecte à n’importe quel environnement dans lequel il se développe, et de votre culture et de votre éducation, qui fournissent cet environnement, » écrit-elle. « Les émotions sont réelles, mais pas dans le sens objectif que les molécules ou les neurones sont réels. Ils sont réels dans le même sens que l’argent est réel, c’est-à-dire qu’il n’est guère une illusion, mais un produit de l’accord humain. »

Barrett explique qu’il n’est pas logique de parler d’établir un lien direct entre les expressions faciales et les émotions dans toutes les cultures et tous les contextes. Tandis qu’une personne peut grogner quand elle est en colère, une autre peut sourire poliment en complotant la chute de son ennemi. Pour cette raison, l’évaluation des émotions est mieux comprise comme une pratique dynamique qui implique des processus cognitifs automatiques, des interactions de personne à personne, des expériences incarnées et une compétence culturelle. « Ça fait beaucoup de travail, et ça l’est », dit-elle. « Les émotions sont compliquées. »

Kaliouby est d’accord – les émotions sont complexes, c’est pourquoi elle et son équipe d’Affectiva cherchent constamment à améliorer la richesse et la complexité de leurs données. En plus d’utiliser la vidéo au lieu de l’image fixe pour former leurs algorithmes, ils expérimentent la capture de données plus contextuelles, comme la voix, la démarche et les petits changements dans le visage qui se produisent au-delà de la perception humaine. Elle est convaincue que de meilleures données se traduiront par des résultats plus précis. Certaines études affirment même que les machines surpassent déjà les humains dans la détection des émotions.

Mais selon Barrett, il ne s’agit pas seulement de données, mais aussi de la façon dont les données sont étiquetées. Le processus d’étiquetage qu’Affectiva et d’autres entreprises de détection d’émotions utilisent pour former des algorithmes ne peut identifier que ce que Barrett appelle des « stéréotypes émotionnels« , qui sont comme des émojis, des symboles qui correspondent à un thème bien connu d’émotion dans notre culture.

Selon Meredith Whittaker, codirectrice de l’institut de recherche AI Now de l’Université de New York, la construction d’applications d’apprentissage machine basées sur la science dépassée d’Ekman n’est pas seulement une mauvaise pratique, elle se traduit par de réels dommages sociaux.

« Vous voyez déjà des entreprises de recrutement utiliser ces techniques pour déterminer si un candidat est un bon candidat ou non. On propose aussi des techniques expérimentales en milieu scolaire pour voir si un élève est engagé, s’il s’ennuie ou s’il est en colère en classe « , dit-elle. « Cette information pourrait être utilisée de façon à empêcher les gens d’obtenir un emploi ou à façonner la façon dont ils sont traités et évalués à l’école, et si l’analyse n’est pas extrêmement précise, c’est un préjudice matériel concret.

Kaliouby dit qu’elle est consciente des façons dont la détection des émotions peut être mal utilisée et qu’elle prend au sérieux l’éthique de son travail. « Il est essentiel d’avoir un dialogue avec le public sur la façon dont tout cela fonctionne et sur les endroits où il faut présenter une demande et ceux où il ne faut pas présenter une demande, a-t-elle dit au Guardian.

Ayant déjà porté le foulard dans le passé, Kaliouby est également très consciente de l’importance de créer des ensembles de données diversifiés. « Nous nous assurons que lorsque nous entraînons l’un ou l’autre de ces algorithmes, les données d’entraînement sont diverses « , dit-elle. « Nous avons besoin d’une représentation des Caucasiens, des Asiatiques, des peaux plus foncées, même des gens portant le hijab. »

C’est pourquoi Affectiva collecte des données dans 87 pays. A travers ce processus, ils ont remarqué que dans différents pays, l’expression émotionnelle semble prendre des intensités et des nuances différentes. Les Brésiliens, par exemple, utilisent des sourires larges et longs pour exprimer leur bonheur, dit Kaliouby, tandis qu’au Japon, il y a un sourire qui n’indique pas le bonheur, mais la politesse.

Affectiva a tenu compte de cette nuance culturelle en ajoutant une autre couche d’analyse au système, en compilant ce que Kaliouby appelle des  » repères ethniques « , ou des hypothèses codifiées sur la façon dont une émotion est exprimée dans différentes cultures ethniques.

Mais c’est précisément ce type de jugement algorithmique basé sur des marqueurs comme l’ethnicité qui préoccupe le plus Whittaker au sujet de la technologie de détection des émotions, suggérant un avenir de physionomie automatisée. En fait, il y a déjà des entreprises qui offrent des prédictions sur la probabilité qu’une personne devienne terroriste ou pédophile, ainsi que des chercheurs qui prétendent avoir des algorithmes permettant de détecter la sexualité uniquement au visage.

Plusieurs études ont également montré récemment que les technologies de reconnaissance faciale reproduisent des préjugés qui sont plus susceptibles de nuire aux communautés minoritaires. Un article publié en décembre de l’année dernière montre que la technologie de détection des émotions attribue plus d’émotions négatives aux visages des hommes noirs qu’à ceux des hommes blancs.

Kaliouby dit à ce propos que le système d’Affectiva avait un « classificateur d’ethnicité », mais qu’ils ne l’utilisent pas actuellement. Au lieu de cela, ils utilisent la géographie comme un moyen d’identifier l’origine d’une personne. Cela signifie qu’ils comparent les sourires brésiliens aux sourires brésiliens, et les sourires japonais aux sourires japonais.

« Et s’il y avait un Japonais au Brésil ? ». « Le système ne penserait-il pas qu’ils sont aussi brésiliens et que la nuance du sourire poli leur manque ? »

« A ce stade, » concède-t-elle, « la technologie n’est pas à 100% infaillible. »

The Guardian

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :