La politique expérimentale de Facebook en matière de discours de haine semble fonctionner

Accusé d’avoir permis un génocide, le géant des médias sociaux a temporairement changé ses règles au Myanmar pour empêcher les abus et la désinformation, rapporte Restofworld:

Portant un masque en plastique et sa robe monastique orange, Ashin Wirathu est entré dans un poste de police de Yangon le 2 novembre, après plus d’un an de fuite. Jusqu’à ce qu’il se cache en juin de l’année dernière, Wirathu, un prédicateur nationaliste ayant des liens avec le Tatmadaw – l’armée birmane – était l’un des plus importants islamophobes du Myanmar, répandant le fanatisme et la désinformation en ligne. En mai 2019, il a été accusé de sédition, mais il ne s’est jamais présenté au tribunal.

La reddition de Wirathu est intervenue dans les dernières phases d’une campagne électorale qui a une fois de plus révélé les tensions raciales et religieuses du Myanmar, trois ans après qu’une montée des discours de haine et du sentiment nationaliste ait conduit à une campagne de nettoyage ethnique visant la minorité musulmane Rohingya du pays.

L’acte du moine était une pièce de théâtre destinée à le remettre, lui et son idéologie anti-musulmane, sous les feux de la rampe et à alimenter les rumeurs et la désinformation qui circulaient sur Internet. Les militants se sont préparés à une montée en flèche des discours de haine sur les médias sociaux. Ce n’est jamais arrivé. La nouvelle de son arrestation a été couverte par la presse grand public, mais en ligne, ses partisans sont restés étrangement discrets. Les pages Facebook partageant ses opinions ont été signalées par des groupes de la société civile et rapidement fermées par la plateforme.

« Il n’a rien reçu de comparable au mégaphone qu’il espérait obtenir », explique Victoire Rio, chercheuse basée à Yangon et conseillère du Myanmar Tech Accountability Network, un consortium d’associations à but non lucratif travaillant sur la désinformation et les discours de haine. « Le tout a été assez bien contenu, et c’est en grande partie parce que Facebook a pu agir ».

Facebook a fait l’objet de critiques pendant des années en raison de ses défaillances au Myanmar. En 2018, les Nations Unies ont allégué que la plateforme avait permis la prolifération de discours de haine qui ont incité au génocide. Des militants aux États-Unis et au Myanmar avaient fait pression sur l’entreprise pour qu’elle prépare les élections de 2020 afin d’éviter de nouvelles violences.

En réponse, Facebook a commencé à tester une nouvelle approche plus active pour traiter les discours de haine et la désinformation politique dans la perspective du vote du 8 novembre. Cette approche consistait à limiter la capacité des utilisateurs à partager de vieilles photos sans contexte – une tactique de désinformation courante – et à travailler avec des partenaires locaux pour vérifier les pages des partis politiques et les faits.

Plus important encore, les « normes communautaires » que Facebook utilise pour contrôler le contenu de ses plateformes ont été étendues. Habituellement, la société ne supprime pas la désinformation à moins qu’elle ne crée une menace de dommage imminent, mais pendant quelques mois au Myanmar, cette politique a été élargie pour inclure tout ce qui pourrait « supprimer le vote ou nuire à l’intégrité du processus électoral » – par exemple, une rumeur sans fondement selon laquelle la dirigeante de facto du pays, Aung San Suu Kyi, était morte de Covid-19, qui a circulé avant l’élection. Normalement, les normes communautaires de la société définissent le « discours de haine » de manière étroite, comme des attaques contre des personnes et non des concepts – les musulmans, mais pas l’Islam. Cette définition a été modifiée pour empêcher les utilisateurs de cibler la religion elle-même ou d’attaquer des « envahisseurs » ou des « illégaux« , termes péjoratifs qui font référence aux Rohingyas.

C’est la première fois que l’entreprise crée des normes communautaires spécifiques à un pays.

« C’était une grosse affaire », dit Rio. « Une grande partie du contenu problématique n’est pas présenté comme un discours de haine ou un appel à la violence comme Facebook l’aime, comme le Cluedo – l’arme, la victime, le lieu, le tout ».

Le Myanmar a un problème bien documenté de discours de haine en ligne et de mensonges malveillants, qui attaquent souvent les musulmans du pays. Les nationalistes et les bouddhistes ultra-conservateurs ont réussi à dépeindre les musulmans comme une menace pour la culture et la religion majoritaire du pays et comme des intrus étrangers. Cette hostilité est si répandue qu’aux élections de 2020, les principaux partis politiques ont rivalisé pour présenter leurs opposants comme plus sympathiques à l’Islam.

Une affirmation largement partagée, émanant d’un candidat du parti de l’Union pour la solidarité et le développement, soutenu par l’armée, était que la Ligue nationale pour la démocratie (LND) de Suu Kyi comptait 42 candidats musulmans. Le nombre réel était de deux. Une image a circulé sur les médias sociaux montrant une réunion de la NLD au cours de laquelle des moines bouddhistes semblaient être assis par terre tandis que les participants musulmans étaient assis sur des chaises, ce qui, présenté sans contexte, ressemblait à une insulte calculée. Normalement, de telles faussetés n’auraient pas enfreint les normes de la communauté Facebook.

En octobre et novembre, la désinformation qui a tenté d’exploiter les différences religieuses pour fausser le résultat des élections a été supprimée par Facebook, tout comme les faux « documents ayant fait l’objet d’une fuite » alimentant les théories de conspiration liant Suu Kyi au financier et militant des droits de l’homme George Soros et les affirmations infondées de l’opposition selon lesquelles le vote était truqué.

Plusieurs des « partenaires de confiance » de Facebook, des organisations de la société civile auxquelles la société donne une sorte de voie express pour signaler les violations des normes communautaires, ont déclaré au Reste du monde qu’en octobre et novembre, lorsqu’ils ont signalé des mensonges et des discours de haine, leurs plaintes ont rapidement augmenté et le contenu signalé a été retiré. Auparavant, ils avaient constaté que leurs interventions avaient peu de poids.

« À leur crédit, Facebook a déployé beaucoup plus d’efforts et de ressources pour cette élection que nous ne l’avons vu faire ces dernières années », a déclaré Jes Kaliebe Petersen, PDG de Phandeeyar, un accélérateur de technologie sociale à Yangon. « Cela a été très positif. Ils ont eu des bottes sur le terrain ; ils ont eu des gens de leur équipe de Singapour qui se sont consacrés à cela. Ils se sont engagés avec la société civile. »

En octobre, Facebook a supprimé des dizaines de comptes pour « comportement inauthentique coordonné », son terme pour la diffusion de la désinformation, et a démantelé des réseaux de faux utilisateurs et des pages de « clickbait » qui poussaient à la désinformation politique. (Les données relatives aux démantèlements de Facebook en novembre ne sont pas encore disponibles.) Les activistes ont déclaré au Reste du monde que cette approche a conduit à une réduction significative de la désinformation et des discours de haine par rapport aux élections précédentes, il y a cinq ans.

« Je ne dis pas qu’il n’y a pas de discours de haine en 2020, mais je pense que c’est beaucoup moins qu’en 2015 », a déclaré Harry Myo Lin, un militant interconfessionnel. « Ils ont une réaction plus active aux rapports et aux contenus haineux. Ce n’est pas parfait, mais je pense qu’ils ont fait mieux qu’avant ».

Effet secondaire de la répression des discours haineux sur Facebook, certains acteurs ont migré vers d’autres plateformes, dont le réseau social russe VK et YouTube – exposant ainsi les propres lacunes de ce dernier dans le traitement des contenus malveillants. « YouTube est actuellement le plus problématique », déclare Myat Thu, fondateur du site de vérification des faits basé à Yangon, Think Before You Trust.

YouTube, propriété de Google, n’a pas répondu à une demande de commentaires.

Maintenant que le vote est terminé – le LND sortant a remporté une victoire décisive – Facebook devrait revenir à ses politiques préélectorales le 6 décembre, laissant les militants inquiets que la plateforme redevienne un lieu où la haine et la désinformation continuent de circuler.

« La grande question est : que va-t-il se passer ensuite ? » dit Petersen. « Est-ce le signe d’un nouveau niveau de soutien et d’attention de la part de Facebook, ou est-ce comme une équipe du SWAT qu’ils ont mis en place, et maintenant … l’équipe du SWAT va repartir, et nous sommes de retour là où nous étions avant ».

Dans une déclaration, Facebook a déclaré qu’il considère l’expérience comme un succès et qu’il pourrait l’adapter à d’autres pays à l’avenir.

Au Myanmar Tech Accountability Network, Rio a déclaré que même si l’approche expérimentale de Facebook présentait encore de profondes lacunes, elle a démontré que la société dispose des outils nécessaires pour faire face à la désinformation corrosive et au sectarisme qui ont proliféré sur la plateforme dans le monde entier.

« Nous devons leur donner le crédit qu’ils méritent. Ils se sont plutôt bien débrouillés », déclare Rio. « Mais au contraire, cela montre que quand ils le veulent, ils le peuvent. »

Via Restoftheworld

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.