Publicités

Une application d’IA qui  » déshabille  » les femmes montre à quel point les deepfakes font du mal aux plus vulnérables

Une application d’IA qui  » déshabille  » les femmes montre à quel point les deepfakes font du mal aux plus vulnérables

DeepNude (dont je vous ai parlé ici) a maintenant été mis hors ligne, mais ce ne sera pas la dernière fois qu’une telle technologie sera utilisée pour cibler des populations vulnérables.

L’attention autour des deepfakes et des médias artificiels s’est accrue ces derniers mois. Mais alors que la conversation s’est principalement concentrée sur son impact potentiel sur la politique, plusieurs experts en droits de l’homme et en éthique des technologies ont averti qu’un autre préjudice potentiel avait été négligé : les conséquences potentiellement dévastatrices pour les femmes et autres populations vulnérables qui sont ciblées par la technologie mais ne peuvent se protéger.

Aujourd’hui, la dernière expérience en matière de deepfake – une application appelée DeepNude qui « déshabille » les photos de femmes – est en train de faire des cauchemars. D’abord rapporté par Vice, elle utilisait des réseaux d’opposition génératifs, ou GANs, pour échanger les vêtements des femmes contre des corps nus très réalistes. L’article a rapidement inspiré une réaction virale, et le créateur de l’application l’a arrêté.

« L’application DeepNude prouve nos pires craintes quant à la façon unique dont les outils audiovisuels peuvent être utilisés contre les femmes « , déclare Mutale Nkonde, membre du Data & Society Research Institute, qui a conseillé un projet de loi présenté au Congrès par la représentante Yvette Clarke qui créerait des mécanismes permettant aux victimes de telles contrefaçons profondes malveillantes de demander un recours juridique pour atteinte à leur réputation.

L’application ciblait spécifiquement les femmes. Vice a découvert que le logiciel ne générait que des images du corps féminin, même lorsqu’on lui donnait une image d’un homme. Le créateur anonyme a confirmé qu’il n’avait entraîné l’algorithme du GAN que sur des photos de femmes nues – en l’occurrence plus de 10 000 d’entre elles – parce qu’elles étaient plus faciles à trouver en ligne. Cependant, il avait aussi l’intention d’en faire une version masculine.

Bien que les deepfakes n’aient pas représenté les corps réels des femmes – elles sont entièrement synthétisées par l’algorithme – elles avaient encore le potentiel de causer d’importants dommages émotionnels et de nuire à la réputation des femmes. Les images pourraient facilement être confondues avec de la vraie pornographie de vengeance ou un outil puissant pour réduire les femmes au silence. En fait, cela s’est déjà produit auparavant : une journaliste indienne s’est fait greffer le visage sur une vidéo porno après avoir commencé à découvrir la corruption du gouvernement. Le virus s’est instantanément propagé, l’exposant à d’intenses menaces de harcèlement et de viol, et elle a dû rester hors ligne pendant plusieurs mois.

Les deepfakes ne sont pas une nouvelle menace ; les médias manipulés existaient déjà bien avant l’IA. Mais la technologie a accéléré et élargi les tendances existantes, dit Sam Gregory, directeur de programme de l’organisme sans but lucratif Witness. Les algorithmes ont permis à un plus grand nombre de personnes de générer plus facilement des faux médias toujours plus convaincants. Ainsi, tout ce que les gens ont utilisé des médias manipulés pour faire dans le passé, comme attaquer des journalistes, impliquer la corruption, ou obscurcir des preuves, deviendra de plus en plus courant et dangereusement difficile à détecter.

L’application n’est pas différente, dit-il. La violence sexuelle à l’égard des femmes fondée sur l’image était déjà un problème. Aujourd’hui, les deepfakes ajoutent de l’huile sur le feu.

Dans la même logique, Nkonde craint que les femmes ne soient pas les seules cibles vulnérables des contrefaçons profondes. Les minorités, les personnes LGBTQ et d’autres groupes qui font souvent l’objet du harcèlement en ligne le plus grave deviendront probablement aussi des victimes, bien que peut-être de différentes façons. Au cours de la campagne présidentielle américaine de 2016, par exemple, des agents russes ont utilisé de fausses personnalités afro-américaines et des images connexes dans le cadre d’une campagne de désinformation sur Facebook pour exacerber les tensions raciales entre Américains.

« Il s’agissait d’une nouvelle façon de supprimer les électeurs, et c’était en détournant l’identité des gens en ligne « , dit Nkonde. La technologie Deepfake serait un autre outil naturel pour les acteurs malveillants qui prétendent être des personnes qu’ils ne doivent pas perturber les communautés et causer d’autres dommages.

Alors, que faisons-nous maintenant ? Nkonde et Gregory ont tous deux partagé des recommandations similaires avec MIT Technology Review dans le passé : les entreprises et les chercheurs qui produisent des outils pour les deepfakes doivent également investir dans des contre-mesures, et les entreprises de médias sociaux et de recherche devraient intégrer ces contre-mesures directement dans leurs plateformes. Nkonde exhorte également les organismes de réglementation à agir rapidement. « À moins que le gouvernement ne trouve un moyen de protéger les droits des consommateurs, les applications comme celle-ci vont proliférer « , dit-elle.

« La technologie n’est pas neutre, dit Gregory. « Cette application [DeepNude] n’est pas à double usage. C’est un usage unique à des fins malveillantes, et il est créé de façon amorale.

« Nous devons vraiment nous concentrer sur l’éthique de la création et du partage d’outils médiatiques génératifs « , ajoute-t-il. « Nous devrions l’appeler à plusieurs reprises. »

Via TechReview

Attention quand on dit femmes = personnes vulnérables, entendons bien que nous sommes les proies faciles et que les deepfakes nous dégradent profondément et violemment. Au 16ème siècle, on élevait l’honneur comme la chose la plus précieuse chez l’homme (une fois perdu on ne peut le regagner) : nous dénuder en revient à nous déshonorer oui.

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :