Publicités

Un nouvel outil utilise l’IA pour repérer le texte écrit par les IA

Un nouvel outil utilise l’IA pour repérer le texte écrit par les IA

Les algorithmes d’IA peuvent générer des textes suffisamment convaincants pour tromper l’être humain moyen – ce qui pourrait permettre de produire en masse de fausses nouvelles, de fausses critiques et de faux comptes sociaux. Heureusement, l’intelligence artificielle peut désormais être utilisée pour identifier également les faux textes.

Des chercheurs de l’Université Harvard et le MIT-IBM Watson AI Lab ont mis au point un nouvel outil pour repérer le texte qui a été généré à l’aide de l’IA. Appelé la salle d’essai du modèle linguistique géant (GLTR), il exploite le fait que les générateurs de texte d’IA s’appuient sur des modèles statistiques dans le texte, plutôt que sur le sens réel des mots et des phrases. En d’autres termes, l’outil peut dire si les mots que vous lisez semblent trop prévisibles pour avoir été écrits par une main humaine.

Le contexte : La désinformation est de plus en plus automatisée et la technologie nécessaire à la production de faux textes et de fausses images progresse rapidement. Les outils à intelligence artificielle comme celui-ci peuvent devenir des armes précieuses dans la lutte pour repérer les fausses nouvelles, les deepfakes (imitations profondes) et les robots Twitter.

Fait semblant : Les chercheurs d’OpenAI ont récemment démontré un algorithme capable d’imaginer des passages étonnamment réalistes. Ils ont introduit d’énormes quantités de texte dans un grand modèle d’apprentissage machine, qui a appris à saisir des modèles statistiques dans ces mots. L’équipe de Harvard a développé son outil en utilisant une version du code OpenAI qui a été rendue publique.

Comme c’est prévisible : GLTR met en évidence les mots qui sont statistiquement susceptibles d’apparaître après le mot précédent dans le texte. Comme le montre le passage ci-dessus (de Infinite Jest), les mots les plus prévisibles sont le vert, les moins prévisibles sont le jaune et le rouge et les moins prévisibles sont le violet. Lorsqu’il est testé sur des bribes de texte écrites par l’algorithme d’OpenAI, il trouve beaucoup de prédictibilité. Les véritables articles de nouvelles et les résumés scientifiques contiennent plus de surprises.

L’esprit et la machine : Les chercheurs à l’origine de GLTR ont également mené une autre expérience. Ils ont demandé aux étudiants de Harvard d’identifier le texte généré par l’IA, d’abord sans l’outil, puis à l’aide de sa mise en évidence. Les élèves n’ont pu repérer que la moitié de tous les faux par eux-mêmes, mais 72 % lorsqu’on leur a donné l’outil. « Notre objectif est de créer des systèmes de collaboration entre l’homme et l’IA « , explique Sebastian Gehrmann, un doctorant impliqué dans ce travail.

Si vous êtes intéressé, vous pouvez l’essayer vous-même.

D’ailleurs si on regarde le texte, finalement les mots imprévisibles sont ceux qui sont motivés par quelque chose d’extérieur au texte : raconter une histoire bien particulière, un état émotionnel particulier, qui donne du sens à la suite de l’histoire.

Via TechReview

Autrement dit, le constat le plus simple et « humain » c’est que l’IA peut aider à auto-compléter ou corriger des mots et des concepts, en disposant d’un contexte et d’une bible grammaticale et lexicale, mais d’elle-même elle n’a rien à raconter, à part décrire ce qu’elle « voit » ou « obéir » à la commande du voix.
En revanche, notez que tous les mots en violets sont le contexte, qui naît de l’âme, du coeur de l’humain, alors même qu’il peut s’agir d’un texte sans ambition : le choix des mots est certainement une caractéristique humaine. Nous avons appris les mots, nous les avons pratiqué, et certains résonnent en nous parce qu’ils ont un sens précis qu’un synonyme pourrait ne pas transmettre.

 

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :