Une nouvelle IA peut deviner si vous êtes gay ou pas, directement à partir d’une photo

Cap ou pas cap ? D’emblée, on peut se demander pourquoi faire « deviner » cela par une IA : qu’est-ce que l’information de la sexualité (et non le genre) peut apporter et dans quelle circonstances ?

Un algorithme a déduit la sexualité des personnes sur un site de rencontre avec jusqu’ à 91% de précision, soulevant des questions éthiques délicates.

L’intelligence artificielle peut deviner avec précision si les gens sont gays ou hétérosexuels en se basant sur des photos de leurs visages, selon de nouvelles recherches qui suggèrent que les machines peuvent avoir un « gaydar » significativement meilleur que les humains.

L’étude  de l’Université Stanford – qui a révélé qu’un algorithme informatique permettait de faire correctement la distinction entre les hommes gays et hétérosexuels 81% du temps, et à 74% pour les femmes – a soulevé des questions sur les origines biologiques de l’orientation sexuelle, l’éthique de la technologie de détection faciale, et le potentiel pour ce type de logiciel de violer la vie privée des gens ou d’être abusé à des fins anti-LGBT.

L’intelligence machine testée dans la recherche, qui a été publiée dans le Journal of Personality and Social Psychology et rapportée pour la première fois dans The Economist, était basée sur un échantillon de plus de 35 000 images faciales que des hommes et des femmes ont publiquement affichées sur un site Web de rencontres américain. Les chercheurs, Michal Kosinski et Yilun Wang, ont extrait des éléments des images à l’aide de « réseaux neuronaux profonds », c’est-à-dire d’un système mathématique sophistiqué qui apprend à analyser les images visuelles à partir d’un ensemble de données volumineux.

La recherche a révélé que les hommes et les femmes gays avaient tendance à avoir des traits, des expressions et des styles de soins « atypiques », ce qui signifie essentiellement que les hommes gais semblaient plus féminins et vice versa. Les données ont également permis de dégager certaines tendances, notamment le fait que les hommes gays avaient les mâchoires plus étroites, le nez plus long et le front plus large que les hommes hétérosexuels, et que les femmes homosexuelles avaient des mâchoires plus grandes et un front plus petit que les femmes hétérosexuelles.

Les juges humains ont obtenu des résultats bien pires que l’algorithme, identifiant avec précision l’orientation seulement 61 % du temps pour les hommes et 54 % pour les femmes. Lorsque le logiciel a examiné cinq images par personne, il a été encore plus efficace – 91% du temps avec les hommes et 83% avec les femmes. En gros, cela signifie que « les visages contiennent beaucoup plus d’informations sur l’orientation sexuelle que le cerveau humain ne peut les percevoir et les interpréter », écrivent les auteurs.

Le document suggère que les résultats de l’étude appuient fortement la théorie selon laquelle l’orientation sexuelle découle de l’exposition à certaines hormones gay avant la naissance, ce qui signifie que les gens naissent gais et qu’être homosexuel n’est pas un choix. Le faible taux de réussite de la machine chez les femmes pourrait aussi appuyer l’idée que l’orientation sexuelle féminine est plus fluide.

Bien que les résultats de l’étude aient des limites claires en ce qui concerne le genre et la sexualité – les personnes de couleur n’ont pas été incluses dans l’étude, et il n’ y a pas eu de considération pour les personnes transgenres ou bisexuelles – les implications pour l’intelligence artificielle (AI) sont vastes et alarmantes. Avec des milliards d’images faciales de personnes stockées sur des sites de médias sociaux et dans des bases de données gouvernementales, les chercheurs ont suggéré que les données publiques pourraient être utilisées pour détecter l’orientation sexuelle des gens sans leur consentement.

Il est facile d’imaginer des conjoints qui utilisent la technologie sur des partenaires qu’ils soupçonnent d’être de l’autre bord ou des adolescents qui utilisent l’algorithme sur eux-mêmes ou sur leurs pairs. Plus effrayant encore, les gouvernements qui continuent à poursuivre les personnes LGBT pourraient hypothétiquement utiliser la technologie pour cibler les populations. Cela signifie que la création de ce type de logiciel et sa diffusion sont en soi controversées, étant donné qu’elles pourraient encourager les applications nuisibles.

Mais les auteurs ont fait valoir que la technologie existe déjà et qu’il est important de la mettre à jour afin que les gouvernements et les entreprises puissent prendre en compte de façon proactive les risques liés à la protection de la vie privée et le besoin de mesures de protection et de règlements.

« C’est certainement troublant. Comme tout nouvel outil, s’il tombe entre de mauvaises mains, il peut être utilisé à des fins malveillantes « , a déclaré Nick Rule, professeur agrégé de psychologie à l’Université de Toronto, qui a publié des recherches sur la science of gaydar. « Si tu peux commencer à profiler les gens en fonction de leur apparence, puis les identifier et leur faire des choses horribles, c’est vraiment mauvais. »

Rule a fait valoir qu’il était encore important de développer et de tester cette technologie: »Ce que les auteurs ont fait ici est de faire une déclaration très audacieuse sur la puissance que cela peut être. Maintenant, nous savons que nous avons besoin de protection. »

Kosinski n’était pas disponible pour une interview, selon un porte-parole de Stanford. Le professeur est connu pour son travail avec l’Université de Cambridge sur le profilage psychométrique, y compris l’utilisation des données Facebook pour tirer des conclusions sur la personnalité. La campagne de Donald Trump et les partisans de Brexit ont déployé des outils similaires pour cibler les électeurs, ce qui a soulevé des préoccupations au sujet de l’utilisation croissante des données personnelles dans les élections.

Dans l’étude de Stanford, les auteurs ont également noté que l’intelligence artificielle pourrait être utilisée pour explorer les liens entre les traits du visage et un éventail d’autres phénomènes, comme les opinions politiques, les conditions psychologiques ou la personnalité.

Ce type de recherche soulève également des préoccupations quant à la possibilité de scénarios comme le film de science-fiction Minority Report, dans lequel des personnes peuvent être arrêtées uniquement parce qu’on prévoit qu’elles commettront un crime.

L’intelligence artificielle peut tout vous dire sur n’importe qui avec suffisamment de données « , a déclaré Brian Brackeen, PDG de Kairos, une société de reconnaissance faciale. « La question est: en tant que société, voulons-nous savoir? »

M. Brackeen, qui a dit que les données de Stanford sur l’orientation sexuelle étaient « étonnamment exactes », a déclaré qu’il faut mettre davantage l’accent sur la protection de la vie privée et les outils pour prévenir l’utilisation abusive de l’apprentissage par ordinateur à mesure qu’il se répand et progresse.

Rule spéculait sur l’utilisation de l’IA pour discriminer activement les gens en se basant sur l’interprétation qu’une machine fait de leur visage: »Nous devrions tous être collectivement concernés. »

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.