Facebook devient très, très bon pour simuler votre visage. Mais à quel point est-il « réel » ?

Il y a cinq ans, Mark Zuckerberg déclarait sans ambages que Facebook allait construire le métavers, un monde numérique qui est un substitut à notre monde réel, prédit par la science-fiction depuis des décennies. C’est pourquoi il a acheté Oculus, et a investi massivement dans la RV. Mais une question demeure : Serons-nous capables de nous rassembler dans une pièce en tant que personnes apparemment réelles, plutôt qu’en tant que versions cartoon de nous-mêmes ? Allons-nous nous connecter avec la vraie présence 3D pour nous regarder dans les visages, ou même dans les yeux ? Et étant donné que nous porterions en fait des casques VR encombrants, qui ne sont pas très flatteurs pour une séance de photo, comment cela pourrait-il fonctionner ?

Aujourd’hui, grâce à de nouvelles recherches menées par les laboratoires de réalité Facebook, nous avons un avant-goût de cette possibilité. Et d’après ce que l’on voit, le système est remarquablement convaincant pour ce qui est de transformer des êtres humains qui portent la RV en des gens qui ont l’air plutôt normaux. Leur nouveau système de RV peut dépeindre non seulement un flot de vous qui parle, mais de vous qui gonflez les joues, qui tirez la langue et qui montre même vos dents.

La méthode exigeait que Facebook construise un casque VR à balayage plus performant, équipé de neuf caméras qui filment votre visage. Trois sont des caméras infrarouges et des capteurs de lumière invisibles. Les six autres sont des caméras vidéo RVB plus typiques.

Les caméras suivent vos mouvements et forment un modèle d’IA pour créer ce que Facebook appelle un « Codec Avatar« . C’est comme une copie numérique de vous. La bonne nouvelle, c’est qu’une fois ce modèle construit, vous pouvez vous contenter d’un casque VR bas de gamme qui n’a que trois caméras au lieu de neuf. Il suit des informations plus limitées et utilise le modèle d’IA pour déduire ce que vous faites.


[Image : Facebook Reality Labs]

Même avec trois caméras, cependant, il ne suffit pas de tout reconstruire et de le transmettre à un ami en temps réel comme votre webcam. Le problème, c’est que l’oreillette ne représente pas ce qu’elle voit à l’échelle 1:1. Il prend les informations de votre visage et les filtre à travers votre avatar construit par l’IA pour créer quelque chose qui est proche de votre visage, mais pas une représentation littérale qui va être parfaite dans tous les cas.

D’après l’exemple de la vidéo de Facebook, les résultats sont encore étonnants. Malgré le port d’un casque VR géant, votre visage entier est représenté avec la forme unique de votre bouche. Oui, il y a quelque chose d’un regard botoxé à tout cela, comme si chaque muscle ne bougeait pas comme prévu. Mais c’est un saut par rapport à tout ce qu’on a vu jusqu’ici.


[Image : Facebook Reality Labs]

Plus important encore, cependant, il s’agit d’un autre point de données pour une ligne de tendance importante. Nous avons vu deepfakes utiliser l’IA pour remplacer le visage de quelqu’un par un autre. Ensuite, nous avons vu les entreprises médiatiques commencer à monétiser ce type d’approche dans les logiciels publics. Ensuite, Apple s’est pointé et a trouvé un moyen de simuler un contact visuel dans Facetime avec l’intelligence artificielle. Et maintenant, Facebook a démontré que les caméras couplées à l’intelligence artificielle peuvent littéralement représenter votre visage entier… ou quelque chose comme ça… pour une téléprésence immersive.

Bien sûr, même si ces représentations sont convaincantes, la question se pose de savoir à quel point elles sont réelles. L’IA équivaut-elle à l’ajout d’un filtre Instagram pour vos expressions, ou s’agit-il à la fois d’inventer et de perdre des données clés qui décrivent votre personnalité et vos émotions ? Comme cette technologie s’étend à un plus grand nombre d’entreprises, ce ne sera probablement pas l’un ou l’autre, cette personne est faussée ou non. La réalité deviendra un gradient, susceptible de varier énormément d’une plate-forme à l’autre.

Dans une certaine mesure, nous sommes déjà façonnés par des plates-formes. Nous modifions ce que nous disons à cause des restrictions de caractère sarcastique de Twitter, ou changeons ce que nous filmons à cause des vidéos autodestructrices de Snapchat. Mais ces limitations sont toutes intégrées de manière transparente dans l’interface utilisateur centrale de ces applications, de sorte qu’on s’attend à ce qu’elles affectent la façon dont nous créons et partageons le contenu. Le problème, c’est qu’avec l’IA, les limites sont tellement convaincantes qu’on ne sait même pas si elles existent. Et il est important que nous ne nous perdions pas quelque part dans les mensonges blancs d’AI.

Via Fastcompany

C’est drôle de voir que pour la première dans l’histoire humaine que les restrictions nous desservent : elle, qui est plutôt un stimulant créatif et de malice. Nous voyons que pour l’instant les possibilités d’augmentation de soi-même ont l’effet inverse, dans le cadre d’un besoin que nous n’avons pas.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.