Le faux blog d’un lycéen, généré par l’IA, a trompé des dizaines de milliers de personnes. Voici comment il l’a fait.

Via MITtechreview : « C’était super facile en fait », dit-il, « ce qui était la partie effrayante ».

Au début de la semaine, Liam Porr n’avait entendu parler que du GPT-3. À la fin, l’étudiant avait utilisé le modèle d’IA pour produire un blog entièrement faux sous un faux nom.

Il s’agissait d’une expérience amusante. Mais l’un de ses articles a atteint la première place sur Hacker News. Peu de gens ont remarqué que son blog était entièrement généré par l’IA. Certains ont même cliqué sur « Subscribe ».

Alors que beaucoup ont spéculé sur la façon dont le GPT-3, l’outil d’IA générant le langage le plus puissant à ce jour, pourrait affecter la production de contenu, c’est l’un des seuls cas connus qui illustre ce potentiel. Ce qui ressort le plus de l’expérience, selon M. Porr, qui étudie l’informatique à l’université de Californie à Berkeley : « C’était super facile, en fait, ce qui était la partie effrayante ».

Le GPT-3 est le dernier et plus grand modèle d’IA linguistique d’OpenAI, que le laboratoire de recherche de San Francisco a commencé à distribuer au goutte-à-goutte à la mi-juillet. En février de l’année dernière, OpenAI a fait la une des journaux avec GPT-2, une version antérieure de l’algorithme, qu’il a annoncé qu’il retiendrait par crainte d’être utilisé de manière abusive. Cette décision a immédiatement déclenché une réaction brutale, les chercheurs accusant le laboratoire d’avoir fait un coup d’éclat. En novembre, le laboratoire a fait marche arrière et a publié le modèle, déclarant qu’il n’avait détecté « aucune preuve solide de mauvaise utilisation jusqu’à présent ».

Le laboratoire a adopté une approche différente avec le GPT-3 ; il ne l’a ni retenu ni accordé l’accès au public. Au lieu de cela, il a donné l’algorithme pour sélectionner les chercheurs qui ont demandé une version bêta privée, dans le but de recueillir leurs commentaires et de commercialiser la technologie d’ici la fin de l’année.

Porr a soumis une demande. Il a rempli un formulaire avec un simple questionnaire sur son utilisation prévue. Mais il n’a pas non plus attendu. Après avoir pris contact avec plusieurs membres de la communauté AI de Berkeley, il a rapidement trouvé un doctorant qui y avait déjà accès. Une fois que l’étudiant diplômé a accepté de collaborer, M. Porr a écrit un petit script qu’il lui a fait exécuter. Il a donné à GPT-3 le titre et l’introduction d’un billet de blog et lui a fait cracher plusieurs versions complètes. Le premier billet de Porr (celui qui a été publié sur Hacker News), et tous les billets suivants, ont été copiés-collés à partir de l’une des versions, avec peu ou pas de modifications.

« Depuis le moment où j’ai eu l’idée et où j’ai pris contact avec le doctorant jusqu’à la création du blog et le premier blog devenu viral, il m’a fallu quelques heures », dit-il.

Une capture d’écran de l’un des faux billets de Liam Porr sur le blog n°1 de Hacker News.

L’astuce pour générer du contenu sans avoir besoin de beaucoup d’édition a été de comprendre les forces et les faiblesses du GPT-3. « Il est assez bon pour faire du joli langage, et il n’est pas très bon pour être logique et rationnel », explique M. Porr. Il a donc choisi une catégorie de blog populaire qui ne nécessite pas de logique rigoureuse : la productivité et l’auto-assistance.

À partir de là, il a écrit ses titres en suivant une formule simple : il faisait défiler les rubriques Medium et Hacker News pour voir ce qui se passait dans ces catégories, et il a rassemblé quelque chose de relativement similaire. « Vous vous sentez improductif ? Peut-être devriez-vous arrêter de trop réfléchir », écrivait-il pour commencer. « L’audace et la créativité l’emportent sur l’intelligence », écrivait-il pour une autre. À quelques reprises, les titres n’ont pas fonctionné. Mais tant qu’il restait sur les bons sujets, le processus était facile.

Après deux semaines de publications presque quotidiennes, il a mis fin au projet avec un dernier message crypté et auto-écrit. Intitulé « Ce que je ferais avec le GPT-3 si je n’avais pas d’éthique », il décrivait son processus comme hypothétique. Le même jour, il a également publié une confession plus directe sur son véritable blog.

Une capture d’écran de quelqu’un sur Hacker News accusant l’article du blog de Porr d’avoir été écrit par GPT-3. Un autre utilisateur répond que le commentaire « n’est pas acceptable ».

Les quelques personnes qui ont commencé à se méfier du faux blog de Porr’s ont été rejetées par d’autres membres de la communauté.

Porr dit qu’il voulait prouver que le GPT-3 pouvait être fait passer pour un écrivain humain. En effet, malgré le schéma d’écriture quelque peu bizarre de l’algorithme et les erreurs occasionnelles, seules trois ou quatre des dizaines de personnes qui ont commenté son article de tête sur Hacker News ont soupçonné qu’il pouvait avoir été généré par un algorithme. Tous ces commentaires ont été immédiatement rejetés par les autres membres de la communauté.

Pour les experts, c’est là l’inquiétude que suscitent depuis longtemps de tels algorithmes générateurs de langage. Depuis que l’OpenAI a annoncé le GPT-2, les gens ont spéculé qu’il était vulnérable aux abus. Dans son propre billet de blog, le laboratoire a mis l’accent sur le potentiel de l’outil d’IA à être utilisé comme arme pour produire massivement de la désinformation. D’autres se sont demandé s’il pouvait être utilisé pour produire des messages de spam remplis de mots-clés pertinents pour le jeu Google.

Selon M. Porr, son expérience montre également une alternative plus banale mais toujours troublante : les gens pourraient utiliser l’outil pour générer beaucoup de contenu « clickbait ». « Il est possible qu’il y ait juste un flot de contenu de blog médiocre parce que maintenant la barrière à l’entrée est si facile », dit-il. « Je pense que la valeur du contenu en ligne va beaucoup diminuer ».

Porr prévoit de faire d’autres expériences avec le GPT-3. Mais il attend toujours d’avoir accès à OpenAI. « Il est possible qu’ils soient contrariés que j’aie fait cela », dit-il. « Je veux dire, c’est un peu idiot. »

Via TechReview

 

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.