Les Bots détruisent le discours politique tel que nous le connaissons

Ils sont les porte-parole des acteurs étrangers, des groupes politiques nationaux, et même des candidats eux-mêmes. Et bientôt, vous ne pourrez plus dire que ce sont des robots.

La saison des campagnes présidentielles est officiellement, officiellement, sur nous maintenant, ce qui signifie qu’il est temps d’affronter les façons étranges et insidieuses dont la technologie déforme la politique. Une des plus grandes menaces à l’horizon : Des personnages artificiels arrivent, et ils sont prêts à prendre le contrôle du débat politique. Le risque vient de la réunion de deux fils distincts : la génération de textes par l’intelligence artificielle et les chatbots des médias sociaux. Ces « personnes » générées par ordinateur vont étouffer les discussions humaines réelles sur Internet.

Les logiciels de génération de texte sont déjà assez bons pour tromper la plupart des gens la plupart du temps. Il permet d’écrire des nouvelles, en particulier dans les domaines du sport et de la finance. C’est parler avec les clients sur les sites marchands. C’est écrire des éditoriaux convaincants sur des sujets d’actualité (bien qu’il y ait des limites). Et il est utilisé pour renforcer le  » journalisme pink-slime  » – des sites Web qui sont censés ressembler à des organes d’information locaux légitimes mais qui publient plutôt de la propagande.

Il y a aussi un enregistrement de contenu algorithmique prétendant provenir d’individus. En 2017, la Commission fédérale de la communication a eu une période de consultation publique en ligne pour ses projets d’abrogation de la neutralité du Net. La Commission a reçu 22 millions de commentaires, un chiffre stupéfiant. Beaucoup d’entre eux – peut-être la moitié – étaient des faux, utilisant des identités volées. Ces commentaires étaient également grossiers ; 1,3 million ont été générés à partir du même modèle, certains mots ayant été modifiés pour les faire paraître uniques. Ils n’ont pas résisté à un examen même superficiel.

Ces efforts ne feront que s’affiner. Lors d’une expérience récente, Max Weiss, un cadre supérieur de Harvard, a utilisé un programme de génération de texte pour créer 1 000 commentaires en réponse à une demande du gouvernement sur une question sur Medicaid. Ces commentaires étaient tous uniques et ressemblaient à de vraies personnes qui défendaient une position politique précise. Ils ont trompé les administrateurs de Medicaid.gov, qui les ont acceptés comme de véritables préoccupations d’êtres humains réels. Comme il s’agissait d’une recherche, Weiss a par la suite identifié les commentaires et a demandé qu’ils soient supprimés, afin qu’aucun débat politique réel ne soit injustement biaisé. Le prochain groupe à tester cela ne sera pas aussi honorable.

Les chatbots ont faussé les discussions sur les médias sociaux pendant des années. Selon une estimation, environ un cinquième de tous les tweets concernant l’élection présidentielle de 2016 ont été publiés par des bots, de même qu’environ un tiers de tous les tweets concernant le vote du Brexit de cette année-là. Un rapport de l’Oxford Internet Institute de l’année dernière a trouvé des preuves de l’utilisation de robots pour diffuser de la propagande dans 50 pays. Il s’agissait en général de simples programmes répétant sans réfléchir des slogans : un quart de million de tweets pro-saudiens  » Nous avons tous confiance en Mohammed bin Salman  » à la suite du meurtre de Jamal Khashoggi en 2018, par exemple. Il est plus difficile de détecter de nombreux robots ayant chacun quelques adeptes que de détecter quelques robots ayant beaucoup d’adeptes. Et il est difficile de mesurer l’efficacité de ces bots. Les meilleures analyses indiquent qu’ils n’ont pas affecté l’élection présidentielle américaine de 2016. Il est plus probable qu’elles faussent le sentiment public et la foi des gens dans un débat politique raisonné. Nous sommes tous en plein milieu d’une expérience sociale inédite.

Au fil des ans, les robots algorithmiques ont évolué pour avoir des personnalités. Ils ont de faux noms, de faux bios et de fausses photos, parfois générés par l’IA. Au lieu de faire de la propagande sans fin, ils ne postent qu’occasionnellement. Les chercheurs peuvent détecter qu’il s’agit de robots et non de personnes en se basant sur leurs modèles de publication, mais la technologie des robots s’améliore sans cesse, dépassant les tentatives de suivi. Les futurs groupes ne seront pas aussi facilement identifiés. Ils s’intégreront mieux dans les groupes sociaux humains. Leur propagande sera subtile, et s’entremêlera dans des tweets sur des sujets pertinents pour ces groupes sociaux.

Combinez ces deux tendances et vous avez la recette pour que le bavardage non humain submerge le discours politique réel.

Bientôt, les personnalités motivées par l’IA seront capables d’écrire des lettres personnalisées aux journaux et aux élus, de soumettre des commentaires individuels aux processus publics d’établissement de règles, et de débattre intelligemment de questions politiques sur les médias sociaux. Ils pourront commenter les articles des médias sociaux, les sites d’information et autres, créant ainsi des personnages persistants qui semblent réels même à ceux qui les examinent. Ils pourront poser en tant qu’individus sur les médias sociaux et envoyer des textes personnalisés. Ils se reproduiront par millions et s’engageront dans les enjeux 24 heures sur 24, en envoyant des milliards de messages, longs et courts. En mettant tout cela ensemble, ils pourront noyer tout débat réel sur Internet. Pas seulement sur les médias sociaux, mais partout où il y a des commentaires.

Peut-être que ces persona bots seront contrôlés par des acteurs étrangers. Peut-être que ce sera des groupes politiques nationaux. Peut-être que ce sera les candidats eux-mêmes. Très probablement, ce sera tout le monde. La leçon la plus importante de l’élection de 2016 au sujet de la désinformation n’est pas que la désinformation a eu lieu ; c’est à quel point il était facile et peu coûteux de désinformer les gens. Les futures améliorations technologiques rendront tout cela encore plus abordable.

Notre avenir sera fait de débats politiques houleux, la plupart du temps des bots qui se disputent avec d’autres bots. Ce n’est pas à cela que nous pensons lorsque nous louons le marché des idées, ou tout processus politique démocratique. La démocratie exige deux choses pour bien fonctionner : l’information et l’agence. Les personnages artificiels peuvent priver les gens des deux.

Les solutions sont difficiles à imaginer. Nous pouvons réglementer l’utilisation des robots – une loi proposée en Californie exigerait que les robots s’identifient – mais cela n’est efficace que contre les campagnes d’influence légitimes, comme la publicité. Les opérations d’influence clandestine seront beaucoup plus difficiles à détecter. La défense la plus évidente est de développer et de standardiser de meilleures méthodes d’authentification. Si les réseaux sociaux vérifient qu’une personne réelle est derrière chaque compte, ils pourront mieux éliminer les fausses personnes. Mais de faux comptes sont déjà régulièrement créés pour de vraies personnes à leur insu ou sans leur consentement, et l’anonymat est essentiel pour un débat politique solide, en particulier lorsque les intervenants sont issus de communautés défavorisées ou marginalisées. Nous n’avons pas de système d’authentification qui protège à la fois la vie privée et s’adapte aux milliards d’utilisateurs.

Nous pouvons espérer que notre capacité à identifier des personnes artificielles se maintiendra au même niveau que notre capacité à les déguiser. Si la course aux armements entre les faux profonds et les détecteurs de faux profonds est un guide, ce sera difficile aussi. Les technologies de dissimulation semblent toujours avoir une longueur d’avance sur les technologies de détection. Et les personnages artificiels seront conçus pour agir exactement comme de vraies personnes.

En fin de compte, toute solution doit être non technique. Nous devons reconnaître les limites de la conversation politique en ligne et, encore une fois, donner la priorité aux interactions face à face. Celles-ci sont plus difficiles à automatiser, et nous savons que les personnes avec qui nous parlons sont de vraies personnes. Ce serait un changement culturel qui nous éloignerait d’Internet et du texte, en prenant du recul par rapport aux médias sociaux et aux fils de commentaires. Aujourd’hui, cela semble être une solution complètement irréaliste.

Les efforts de désinformation sont maintenant courants partout dans le monde, menés dans plus de 70 pays. C’est la façon normale de faire de la propagande dans les pays aux tendances autoritaires, et cela devient la façon de mener une campagne politique, que ce soit pour un candidat ou pour un enjeu.

Les personnalités artificielles sont l’avenir de la propagande. Et bien qu’elles ne soient pas efficaces pour faire pencher le débat d’un côté ou de l’autre, elles peuvent facilement noyer le débat complètement. Nous ne connaissons pas l’effet de ce bruit sur la démocratie, mais nous savons seulement qu’il sera pernicieux et qu’il est inévitable.

Via The Atlantic.

 

 

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.