La voie à suivre pour Facebook

Le conseil de surveillance de Facebook a confirmé la décision de Facebook de restreindre le compte de Donald Trump en janvier. Cette décision soulève des questions supplémentaires sur la façon dont Facebook gère les questions sensibles concernant la liberté d’expression, la place publique et l’arbitrage de la vérité. Evelyn Douek fait une excellente observation sur lawfairblog quant à l’orientation de cette discussion. « Le problème central de la décision de Facebook n’était pas sa substance, écrit-elle, mais le fait qu’elle semblait politiquement et stratégiquement commode à un moment où les plateformes de tout l’internet prenaient des mesures contre les comptes liés à Trump. Mark Zuckerberg était l’arbitre ultime de la décision et il aurait pu la prendre sur la base de guère plus qu’un tirage au sort, étant donné l’absence de toute ‘procédure claire et publiée’ le guidant. » :

Certaines des choses les plus importantes que nous ne savions pas avant mais que le FOB a fait apparaître dans la décision :

  • Facebook applique un système de « vérification croisée » à certains comptes « à profil élevé » afin de « minimiser le risque d’erreurs d’application. » Cela signifie que les « processus de décision sont différents pour certains utilisateurs « à haut profil ». » Tous les termes pertinents ici sont laissés indéfinis, mais il semble s’agir d’euphémismes qui suggèrent que Facebook dispose d’un processus d’escalade pour les décisions qui pourraient s’avérer controversées. Ce n’est pas vraiment une nouvelle : Des fuites l’ont déjà suggéré auparavant. Cependant, la confirmation de ce processus permet d’aborder l’un des aspects les plus problématiques de l’approche de Facebook en matière de modération de contenu : Qui effectue les « vérifications croisées » ? Les responsables du département de politique publique interviennent-ils pour des décisions aussi médiatisées ? À mon avis, il devrait y avoir un mur entre l’application des règles et la politique publique au sein de l’entreprise, afin que les considérations politiques ou commerciales ne déterminent pas indûment les résultats individuels. La décision – et l’obligation pour Facebook de répondre aux recommandations de politique générale qu’elle contient – donne à Facebook l’occasion de clarifier dans sa réponse ce que ce processus implique.
  • Facebook « n’a jamais appliqué l’abattement pour caractère d’actualité au contenu publié par la page Facebook ou le compte lnstagram de Trump. » C’est assez extraordinaire. Le traitement des personnalités publiques par Facebook a été l’une de ses politiques les plus controversées. La plateforme considère les discours des politiciens comme intrinsèquement dignes d’intérêt et estime donc qu’il est dans l’intérêt du public que ces discours soient vus, même s’ils enfreignent les normes communautaires de la plateforme. La plateforme a régulièrement et généralement fait allusion à cette politique lorsque des personnes demandaient le déplaquage de Trump ou la suppression de messages individuels, et y a fait référence dans le renvoi du cas Trump au FOB. Mais lorsqu’on l’a poussé à fournir des détails, il s’est défilé.
  • Malgré cette politique d’actualité, Facebook a constaté que Trump avait violé ses règles cinq fois avant le 6 janvier, et trois fois au cours de l’année écoulée. Il y a également eu 20 éléments de contenu publiés par Trump qui ont été signalés par des réviseurs de contenu ou par l’automatisation comme violant les normes communautaires de Facebook, mais qui ont été « finalement déterminés », vraisemblablement dans le cadre du processus de « vérification croisée », comme n’étant pas des violations. Les messages exacts ne sont pas précisés. Qui a finalement annulé les décisions initiales ?

La question de la procédure est importante, car Facebook est une entreprise dont la portée est véritablement mondiale. L’interdiction de Trump n’est pas simplement une question de politique américaine divisée, elle concerne les normes que Facebook se fixe dans le monde entier. Le fait est que ces normes sont si inégales et si peu claires que même les utilisateurs expérimentés ne peuvent déterminer quel comportement est autorisé. Le Wall Street Journal a publié une enquête sur la structure kafkaïenne des règles qui font que certains utilisateurs sont suspendus de la plateforme pour des infractions qu’ils ne comprennent tout simplement pas. Un exemple : Tanya Buxton, qui aide les femmes ayant subi une mastectomie à réaliser des procédures esthétiques, comme des tatouages d’aréoles.

Le fait que Facebook se tourne de plus en plus vers l’intelligence artificielle et les algorithmes pour supprimer des contenus présente des risques évidents : quels sont les compromis effectués ? Quel est le taux de faux positifs et de faux négatifs ? Mais, en vérité, les systèmes d’IA ne feront que transformer en logiciels les règles codifiées que les modérateurs de contenu utilisent. S’ils sont déroutants aujourd’hui, ils ne le seront qu’à l’avenir.

Il s’agit d’un problème véritablement difficile. L’une des voies à suivre pourrait être que les régulateurs insistent sur plus que la transparence. Elles doivent plutôt avoir le pouvoir de poser les bonnes questions à Facebook (et aux autres plateformes). Les questions ne se limitent pas aux données relatives aux retraits (comme le montre le graphique ci-dessus), les questions les plus intéressantes concernent le processus et les normes utilisés par les entreprises pour arbitrer entre les préjudices et les revenus, la sécurité et l’engagement, etc.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.