La fonctionnalité de deep-fake d’Avatarify masque un problème plus profond

Une grande partie de la main-d’œuvre travaillant à domicile via Zoom et Skype, le logiciel open source Deepfake d’Avartify veut pimenter l’expérience. Mais ce plaisir inoffensif pourrait accélérer la diffusion de fausses nouvelles et entraîner une foule de problèmes juridiques.

Échange de visage avec des célébrités

En utilisant un code source ouvert appelé « First Order Motion Model for Image Animation« , le programmeur Ali Aliev a créé Avatarify – un logiciel qui crée des images profondes en temps réel. Il vous permet essentiellement de créer un « masque » virtuel de n’importe quelle célébrité pendant votre appel.

  • Son algorithme compose dynamiquement plusieurs images nécessaires à la création d’un deepfake et les projette sur une vidéoconférence.
  • Aliev a créé ce programme pour rendre la visioconférence plus amusante.
  • Le programme peut seulement simuler la vidéo, pas l’audio.
  • Le code open-source est disponible sur Github.

Aliev a posté une vidéo de lui-même faisant semblant de passer un appel Zoom déguisé en Elon Musk. Ce n’est pas parfait. Mais pour une première expérience, les possibilités sont terrifiantes.

Diffamation visuelle

La technologie est certes impressionnante, mais les deep-fakes sont intrinsèquement problématiques. Bien qu’il s’agisse d’un tour de passe-passe amusant pour la plupart des utilisateurs, de mauvais acteurs (sans jeu de mots) ont essayé d’utiliser la technologie pour diffuser de fausses nouvelles. La combinaison d’un programme comme Avatarify et d’un faux programme audio comme Dessa pourrait causer de réels dégâts.

Attendez-vous à voir une réévaluation des lois sur la diffamation pour le 21e siècle, passant des mensonges imprimés à des fabrications audiovisuelles complètes.

Voir plus sur Vice

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.