SAN FRANCISCO – Facebook a commencé à attribuer à ses utilisateurs un score de réputation, prédisant leur fiabilité sur une échelle de zéro à 1.

Le système d’évaluation, qui n’était pas encore publié, que Facebook a développé au cours de l’année dernière, montre que la lutte contre le jeu des systèmes techniques a évolué pour inclure la mesure de la crédibilité des utilisateurs afin d’aider à identifier les acteurs malveillants.

Facebook a développé ses évaluations de réputation dans le cadre de ses efforts contre les fausses nouvelles, a déclaré Tessa Lyons, le chef de produit chargé de lutter contre la désinformation, dans une interview. L’entreprise, comme d’autres dans le domaine de la technologie, a longtemps compté sur ses utilisateurs pour signaler les contenus problématiques – mais comme Facebook a donné plus d’options aux gens, certains utilisateurs ont commencé à signaler faussement les articles comme étant faux, une nouvelle tournure de la guerre de l’information dont il a dû rendre compte.

« Il n’est pas rare que les gens nous disent que quelque chose est faux simplement parce qu’ils ne sont pas d’accord avec la base d’une histoire ou parce qu’ils essaient intentionnellement de cibler un éditeur en particulier « , a dit M. Lyons.

Le score de fiabilité d’un utilisateur n’est pas censé être un indicateur absolu de la crédibilité d’une personne, a dit M. Lyons, et il n’y a pas non plus un seul score de réputation unifié auquel les utilisateurs sont assignés. Il s’agit plutôt d’une mesure parmi des milliers de nouveaux indices comportementaux que Facebook prend maintenant en compte pour comprendre les risques. Facebook surveille également quels utilisateurs ont une propension à signaler les contenus publiés par d’autres comme problématiques et quels éditeurs sont considérés comme dignes de confiance par les utilisateurs.

Il n’est pas clair quels autres critères Facebook mesure pour déterminer le score d’un utilisateur, si tous les utilisateurs ont un score et de quelle manière les scores sont utilisés.

Les évaluations de réputation viennent de la Silicon Valley, confrontée à l’ingérence russe, aux fausses nouvelles et aux acteurs idéologiques qui abusent des politiques de l’entreprise, recalibrent son approche du risque – et trouvent des moyens non testés et algorithmes pour comprendre qui représente une menace. Twitter, par exemple, prend désormais en compte le comportement d’autres comptes dans le réseau d’une personne comme facteur de risque pour juger si les tweets d’une personne doivent être diffusés.

Mais le fonctionnement de ces nouveaux systèmes de crédibilité est très opaque, et les entreprises hésitent à en discuter, en partie parce que cela pourrait inviter d’autres jeux – une situation dans laquelle les entreprises se trouvent de plus en plus souvent alors qu’elles pèsent les appels à plus de transparence dans leur prise de décision.

« Ne pas savoir comment[Facebook] nous juge est ce qui nous met mal à l’aise « , a déclaré Claire Wardle, directrice de First Draft, un laboratoire de recherche de la Harvard Kennedy School qui travaille avec Facebook et d’autres organisations pour comprendre l’impact de la désinformation. « Mais l’ironie, c’est qu’ils ne peuvent pas nous dire comment ils nous jugent – parce que s’ils le font, les algorithmes qu’ils ont construits seront joués. »

Le système mis en place par Facebook pour permettre aux utilisateurs de signaler les contenus potentiellement inacceptables est devenu à bien des égards un champ de bataille.

Le compte Twitter de l’activiste Sleeping Giants a appelé les adeptes à prendre les entreprises technologiques à partie face au théoricien conservateur de la conspiration Alex Jones et son site Infowars, ce qui a conduit à un flot de rapports sur le discours de haine qui a eu pour résultat son exclusion de Facebook et des services d’autres entreprises de technologie, ainsi que d’Infowars. À l’époque, les dirigeants de l’entreprise se demandaient si le reportage de masse du contenu de Jones faisait partie d’un effort pour tromper les systèmes de Facebook. Le faux reportage est également devenu une tactique dans les campagnes de harcèlement en ligne d’extrême droite, selon les experts.

Le contenu d’Alex Jones a été retiré de YouTube, Apple, Facebook et Spotify.
Apple, Facebook, YouTube et Spotify ont décidé de supprimer le contenu de l’animateur de talk-show de droite Alex Jones pour avoir violé les politiques en matière de discours haineux. (The Hollywood Reporter)

Les entreprises de technologie ont une longue histoire d’utilisation d’algorithmes pour faire toutes sortes de prédictions sur les gens, y compris la probabilité qu’ils achètent des produits et s’ils utilisent une fausse identité. Mais à mesure que la désinformation prolifère, les entreprises font des choix éditoriaux de plus en plus sophistiqués pour déterminer qui est digne de confiance.

En 2015, Facebook a donné aux utilisateurs la possibilité de signaler les messages qu’ils considèrent comme étant faux. Un onglet dans le coin supérieur droit de chaque message Facebook permet aux gens de signaler un contenu problématique pour diverses raisons, y compris la pornographie, la violence, les ventes non autorisées, les discours haineux et les fausses nouvelles.

Lyons a dit qu’elle s’est vite rendu compte que beaucoup de gens signalaient les messages comme étant faux simplement parce qu’ils n’étaient pas d’accord avec le contenu. Étant donné que Facebook transmet les messages qui sont marqués comme faux aux tiers chargés de vérifier les faits, elle a dit qu’il était important de mettre en place des systèmes pour évaluer si les messages étaient susceptibles d’être faux afin d’utiliser efficacement le temps des tiers chargés de vérifier les faits. Cela a conduit son équipe à développer des moyens d’évaluer si les personnes qui signalaient les postes comme étant faux étaient elles-mêmes dignes de confiance.

« L’un des signaux que nous utilisons est la façon dont les gens interagissent avec les articles « , a déclaré M. Lyons dans un courriel de suivi. « Par exemple, si quelqu’un nous a déjà dit qu’un article était faux et que l’article a été confirmé faux par un vérificateur de faits, alors nous pourrions accorder plus d’importance aux futures fausses nouvelles de cette personne qu’à quelqu’un qui fournit indistinctement des fausses nouvelles sur un grand nombre d’articles, y compris ceux qui finissent par être considérés comme vrais.

Le score est un signal parmi tant d’autres que l’entreprise alimente davantage d’algorithmes pour l’aider à décider quelles histoires devraient être examinées.

« J’aime faire la blague que, si les gens ne rapportaient que des choses fausses, ce travail serait si facile ! » Lyons a dit dans l’interview. « Les gens rapportent souvent des choses avec lesquelles ils ne sont pas d’accord. »

Elle a refusé de dire quels autres signaux la compagnie utilisait pour déterminer la fiabilité, citant des préoccupations au sujet de l’information des mauvais acteurs.

Connaissez-vous gestbadnews.com ?

The Washington Post

 

 

 

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.