Publicités

L’algorithme d’Amazon lit une nouvelle émotion sur les visages : la peur

L’algorithme d’Amazon lit une nouvelle émotion sur les visages : la peur

Mais la technologie de détection des émotions en général est encore imparfaite : En plus des problèmes de précision et de biais, les scientifiques doutent que les expressions faciales soient vraiment un indicateur fiable des émotions.

Plus tôt cette semaine, Amazon a annoncé qu’elle avait amélioré la précision de son système d’apprentissage machine Rekognition, améliorant ainsi ses capacités de « détection des émotions« . En plus de détecter les émotions de bonheur, de tristesse, de colère, de surprise, de dégoût, de calme et de confusion, Amazon dit avoir « ajouté une nouvelle émotion : la peur« .

Techniquement, l’algorithme fonctionne en apprenant à quoi ressemblent habituellement les visages des gens lorsqu’ils expriment leur peur. Ensuite, lorsque vous lui montrez une nouvelle image, il peut vous dire avec une certaine probabilité si le visage de cette personne communique l’émotion de la peur, laissant l’humain décider ensuite de ce qu’il va faire de l’information. La description du produit par l’entreprise affirme que « Amazon Rekognition détecte les émotions telles que le bonheur, la tristesse ou la surprise, et les informations démographiques telles que le sexe sur les photos du visage ».

Alors qu’Amazon vend son produit Rekognition à des sociétés de publicité et de marketing, Amazon commercialise également le logiciel auprès des forces de police et des agences d’immigration, selon une enquête menée par l’ACLU.

« La reconnaissance faciale automatise et exacerbe déjà les abus, le profilage et la discrimination policiers « , a déclaré Evan Greer, directeur adjoint de Fight for the Future, un groupe de défense des droits numériques. « Amazon nous met maintenant sur la voie où des agents armés du gouvernement pourraient porter des jugements en une fraction de seconde sur la base du témoignage froid d’un algorithme erroné. Des personnes innocentes peuvent être détenues, déportées ou emprisonnées à tort parce qu’un ordinateur a décidé qu’elles avaient l’air effrayées lorsqu’elles étaient interrogées par les autorités. L’état de surveillance dystopique de nos cauchemars est en train d’être construit sur un simple site, par une société avide de profits et désireuse de s’adapter aux gouvernements du monde entier. »

 

Par le passé, des groupes de défense des droits civils, des experts en intelligence artificielle et même certains investisseurs d’Amazon ont demandé à l’entreprise de cesser de déployer avec précision sa technologie de reconnaissance faciale en raison de problèmes à l’échelle de l’industrie, particulièrement lorsqu’il s’agit de personnes à la peau foncée qui sont déjà plus susceptibles de subir de la discrimination dans le système judiciaire criminel. Alors que les gouvernements commencent à prendre conscience des implications de l’utilisation généralisée de la technologie défectueuse, des villes comme San Francisco, Oakland (Californie) et Somerville (Massachusetts) ont interdit l’utilisation de la technologie d’Amazon – comme bien d’autres endroits. La reconnaissance faciale est déjà utilisée dans les espaces publics, les aéroports et même dans les écoles.

Plus tôt cette semaine, l’ACLU a effectué un test de reconnaissance dans le cadre duquel l’organisme sans but lucratif a découvert que le service avait faussement jumelé 20 % des législateurs de l’État de la Californie à des photos d’agressions trouvées dans la base de données de l’État de 25 000 photos d’arrestation publique. Plus de la moitié des législateurs faussement identifiés étaient des personnes de couleur, ce qui démontre certains des problèmes de biais de l’algorithme. Pour le test, l’ACLU a utilisé les paramètres par défaut pour la reconnaissance. (Après la publication de cet article, Amazon a partagé la déclaration qu’elle a faite en réponse au test de l’ACLU, que Fast Company a publié cette semaine, disant que sa technologie de reconnaissance faciale peut être utilisée pour « une longue liste d’objectifs bénéfiques » lorsqu’elle est utilisée avec le seuil de confiance recommandé de 99 %.)

La capacité de tout algorithme à mesurer avec précision des émotions comme la colère et la peur à l’aide de traits faciaux est également contestée par les scientifiques. Un article publié en juillet dans la revue Psychological Science in the Public Interest passe en revue les preuves réelles selon lesquelles les émotions ne peuvent être détectées qu’en examinant les expressions faciales des gens, et conclut que ce n’est pas nécessairement le cas. L’article ne cite pas spécifiquement Amazon dans le contexte de la reconnaissance des émotions, bien qu’il fasse référence à la façon dont des entreprises technologiques comme Microsoft construisent des logiciels de détection des émotions.

« Les preuves scientifiques disponibles suggèrent que les gens sourient parfois lorsqu’ils sont heureux, froncent les sourcils lorsqu’ils sont tristes, grognent lorsqu’ils sont en colère, et ainsi de suite, comme le propose l’opinion commune, plus que ce à quoi on pourrait s’attendre par hasard », peut-on lire dans le résumé de l’article. « Pourtant, la façon dont les gens communiquent la colère, le dégoût, la peur, le bonheur, la tristesse et la surprise varie considérablement d’une culture, d’une situation et même d’une personne à l’autre dans une même situation. De plus, des configurations similaires de mouvements faciaux expriment de façon variable des cas de plus d’une catégorie d’émotions. »

« Les soi-disant expressions émotionnelles sont plus variables et dépendent du contexte qu’on ne le pensait à l’origine « , écrivent-ils.

Les auteurs préviennent également qu’il est prématuré d’utiliser l’expression faciale comme substitut de l’émotion : « De façon plus générale, les entreprises de technologie pourraient bien poser une question fondamentalement erronée « , écrivent les chercheurs, qui viennent de la Northeastern University et de CalTech. Les efforts pour simplement  » lire  » les états internes des gens à partir d’une analyse de leurs seuls mouvements faciaux, sans tenir compte des divers aspects du contexte, sont au mieux incomplets et au pire totalement non valides, peu importe la sophistication des algorithmes de calcul.

Quoi qu’il en soit, l’évaluation de la probabilité qu’une personne ait l’air effrayée d’après son visage dans les vidéos et les photos est maintenant la valeur par défaut pour les clients dans les régions où Amazon fournit des services SSFE. Amazon a refusé de commenter publiquement cette histoire.

Via Fascompany

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :