Comment les Deepfakes pourraient contribuer à implanter de faux souvenirs dans nos esprits

C’est étonnamment facile, explique Tristan Greene pour The Next Web :

Le cerveau humain est une chose complexe et miraculeuse. Pour autant que l’on puisse dire, c’est la quintessence de l’évolution biologique. Mais il n’est pas livré avec un logiciel de sécurité préinstallé. Et cela le rend ridiculement facile à pirater.

Nous aimons imaginer le cerveau humain comme un réseau neuronal géant qui parle sa propre langue. Lorsque nous parlons de développer des interfaces cerveau-ordinateur, nous évoquons généralement une sorte d’émetteur-récepteur qui interprète les ondes cérébrales. Mais le fait est que nous piratons le cerveau humain depuis la nuit des temps.

Pensez à l’acteur qui utilise un souvenir triste pour provoquer des larmes ou au détective qui utilise la psychologie inversée pour obtenir les aveux d’un suspect. Ces exemples peuvent sembler moins extraordinaires que, par exemple, l’effaceur de mémoire de Men in Black. Mais le résultat final est essentiellement le même. Nous sommes capables de modifier les données que notre esprit utilise pour établir la réalité de base. Et nous sommes très doués pour cela.

Fond d’écran

Une équipe de chercheurs d’universités allemandes et britanniques a publié aujourd’hui une recherche pré-imprimée détaillant une étude dans laquelle ils ont réussi à implanter et à supprimer de faux souvenirs chez des sujets de test.

Selon l’article de l’équipe :

La mémoire humaine est faillible et malléable. Dans le cadre de la médecine légale en particulier, cela pose un problème car les gens peuvent se souvenir faussement d’événements ayant des implications juridiques qui ne se sont jamais produits. Cependant, malgré le besoin urgent d’y remédier, les recherches visant à déterminer si et comment de riches faux souvenirs autobiographiques peuvent être inversés dans des conditions réalistes (c’est-à-dire à l’aide de stratégies d’inversion pouvant être appliquées dans des contextes réels) sont pratiquement inexistantes.

En gros, il est relativement facile d’implanter de faux souvenirs. S’en débarrasser est la partie la plus difficile.

L’étude a été menée sur 52 sujets qui ont accepté que les chercheurs tentent d’implanter dans leur esprit un faux souvenir d’enfance pendant plusieurs séances. Après un certain temps, beaucoup de sujets ont commencé à croire à ces faux souvenirs. Les chercheurs ont ensuite demandé aux parents des sujets d’affirmer que les fausses histoires étaient vraies.

Les chercheurs ont découvert que l’ajout d’une personne de confiance facilitait à la fois l’implantation et la suppression des faux souvenirs.

D’après l’article :

La présente étude ne se contente donc pas de reproduire et d’étendre les démonstrations antérieures de faux souvenirs, mais, ce qui est crucial, elle documente leur réversibilité après coup : en utilisant deux stratégies écologiquement valides, nous montrons que les souvenirs autobiographiques riches mais faux peuvent être en grande partie annulés. Il est important de noter que l’inversion est spécifique aux faux souvenirs (c’est-à-dire qu’elle ne se produit pas pour les vrais souvenirs).

Les techniques d’implantation de faux souvenirs existent depuis un certain temps, mais il n’y a pas eu beaucoup de recherches sur leur inversion. Ce qui signifie que cet article arrive à point nommé.

Entrez dans Deepfakes

Il n’y a pas beaucoup de cas d’utilisation positive pour l’implantation de faux souvenirs. Mais, heureusement, la plupart d’entre nous n’ont pas vraiment à s’inquiéter d’être la cible d’une conspiration de manipulation mentale qui consiste à être lentement amené à croire à un faux souvenir pendant plusieurs séances, avec la complicité de nos propres parents.

Pourtant, c’est presque exactement ce qui se passe chaque jour sur Facebook. Tout ce que vous faites sur le réseau de médias sociaux est enregistré et codifié afin de créer une image détaillée de qui vous êtes exactement. Ces données sont utilisées pour déterminer quelles publicités vous voyez, où vous les voyez et à quelle fréquence elles apparaissent. Et lorsqu’un membre de votre réseau de confiance effectue un achat par le biais d’une publicité, vous êtes plus susceptible de commencer à voir ces publicités.

Mais nous le savons tous déjà, non ? Bien sûr, il ne se passe pas un jour sans que l’on voie un article sur la façon dont Facebook, Google et toutes les autres grandes entreprises technologiques nous manipulent. Alors pourquoi supportons-nous cela ?

Parce que notre cerveau est plus apte à s’adapter à la réalité que nous le pensons. Plus nous savons qu’il existe un système que nous pouvons manipuler, plus nous pensons que ce système nous dit quelque chose sur l’être humain.

Une équipe de chercheurs de Harvard a écrit sur ce phénomène en 2016 :

Dans une étude que nous avons menée avec 188 étudiants de premier cycle, nous avons constaté que les participants étaient plus intéressés par l’achat d’un Groupon pour un restaurant annoncé comme sophistiqué lorsqu’ils pensaient que la publicité leur avait été ciblée sur la base de sites Web spécifiques qu’ils avaient visités au cours d’une tâche antérieure (navigation sur le Web pour établir un itinéraire de voyage), par rapport à lorsqu’ils pensaient que la publicité était ciblée sur la base de données démographiques (leur âge et leur sexe) ou pas ciblée du tout.

Quel est le rapport avec les Deepfakes ? C’est simple : si nous sommes si facilement manipulés par des bribes d’exposition à de toutes petites publicités dans notre flux Facebook, imaginez ce qui pourrait se passer si les annonceurs commençaient à détourner les personnalités et les visages de personnes en qui nous avons confiance ?

Par exemple, vous n’avez peut-être pas l’intention d’acheter des produits Grandma’s Cookies de sitôt, mais si c’était votre grand-mère qui vous disait à quel point ils sont délicieux dans la publicité que vous regardez… vous pourriez le faire.

En utilisant la technologie existante, il serait trivial pour une grande entreprise technologique de déterminer, par exemple, que vous êtes un étudiant qui n’a pas vu ses parents depuis décembre dernier. Avec cette connaissance, les Deepfakes et les données qu’elle possède déjà sur vous, il ne lui faudrait pas grand-chose pour créer des publicités ciblées mettant en scène vos parents Deepfakes et vous disant d’acheter du chocolat chaud ou autre chose.

Mais les faux souvenirs ?

Tout cela n’est qu’une partie de plaisir lorsque les enjeux impliquent simplement une société de médias sociaux utilisant l’IA pour vous convaincre d’acheter des produits. Mais que se passe-t-il quand c’est un mauvais acteur qui enfreint la loi ? Ou, pire encore, que se passe-t-il lorsque c’est le gouvernement qui n’enfreint pas la loi ?

La police utilise une variété de techniques pour solliciter des aveux. Et les forces de l’ordre ne sont généralement pas obligées de dire la vérité lorsqu’elles le font. En fait, il est parfaitement légal dans la plupart des endroits que les policiers mentent carrément afin d’obtenir des aveux.

Une technique populaire consiste à dire à un suspect que ses amis, sa famille et ses éventuels co-conspirateurs ont déjà dit à la police qu’ils savaient que c’était lui qui avait commis le crime. Si vous pouvez convaincre quelqu’un que les personnes qu’il respecte et auxquelles il tient croient qu’il a fait quelque chose de mal, il est plus facile pour lui de l’accepter comme un fait.

Combien d’organismes chargés de l’application de la loi dans le monde ont actuellement une politique explicite contre l’utilisation de médias manipulés pour solliciter des aveux ? Nous pensons que c’est presque zéro.

Et ce n’est qu’un exemple. Imaginez ce qu’un gouvernement autocratique ou à poigne de fer pourrait faire à l’échelle avec ces techniques.

La meilleure défense…

Il est bon de savoir qu’il existe déjà des méthodes que nous pouvons utiliser pour extraire ces faux souvenirs. Comme l’a découvert l’équipe de recherche européenne, notre cerveau a tendance à abandonner les faux souvenirs lorsqu’il est mis au défi, mais à s’accrocher aux vrais. Cela les rend plus résistants aux attaques que nous pourrions le penser.

Cependant, cela nous met perpétuellement sur la défensive. Actuellement, notre seule défense contre l’implantation de faux souvenirs assistée par l’IA est de la voir venir ou d’obtenir de l’aide après qu’elle se soit produite.

Malheureusement, les inconnues font de ce plan de sécurité un échec. Nous ne pouvons tout simplement pas prévoir toutes les façons dont un acteur malveillant pourrait exploiter la faille qui facilite la modification de nos cerveaux lorsque quelqu’un de confiance contribue au processus.

Avec des Deepfakes et suffisamment de temps, vous pouvez convaincre quelqu’un d’à peu près n’importe quoi, à condition de trouver un moyen de l’inciter à regarder vos vidéos.

Notre seule véritable défense est de développer une technologie qui permette de voir à travers les Deepfakes et autres médias manipulés par l’IA. Avec les interfaces cerveau-ordinateur qui devraient arriver sur le marché des consommateurs dans les prochaines années et les médias générés par l’IA qui se distinguent de moins en moins de la réalité, nous nous rapprochons d’un point de non-retour pour la technologie.

De la même manière que l’invention de l’arme à feu a permis à ceux qui n’étaient pas doués pour le combat à l’épée de gagner un duel et que la création de la calculatrice a permis à ceux qui avaient des difficultés en mathématiques d’effectuer des calculs complexes, nous sommes peut-être à l’aube d’une ère où la manipulation psychologique deviendra une entreprise à portée de main.

Via The Nextweb

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.