Facebook lutte pour équilibrer le civisme et la croissance

Pendant une brève période (lorsque les résultats des élections américaines ont commencé à arriver), Facebook a donné la priorité à la qualité plutôt qu’à l’engagement. Tant que cela a duré, cela a eu un effet calmant et positif – qui l’aurait cru ! Le changement faisait partie des plans de « bris de glace » que Facebook avait passé des mois à développer au lendemain d’une élection contestée. Il a entraîné une augmentation de la visibilité pour les grands éditeurs comme CNN, The New York Times et NPR, tandis que les publications de pages hyperpartisanes très engagées, comme Breitbart et Occupy Democrats, sont devenues « moins visibles », selon les employés :

Guy Rosen, un cadre de Facebook qui supervise la division de l’intégrité chargée de nettoyer la plateforme, a déclaré lors d’un appel aux journalistes la semaine dernière que les changements étaient toujours censés être temporaires. « Il n’y a jamais eu de plan pour les rendre permanents », a-t-il déclaré. John Hegeman, qui supervise le flux d’informations, a déclaré dans une interview que si Facebook pouvait revenir sur ces expériences, il les étudierait et en tirerait des enseignements.

Le débat sur le fil d’actualité illustre une tension centrale que certains au sein de Facebook ressentent vivement ces jours-ci : que les aspirations de l’entreprise à améliorer le monde sont souvent en contradiction avec son désir de domination.

Au cours des derniers mois, alors que Facebook a fait l’objet d’un examen plus approfondi pour son rôle dans l’amplification d’informations fausses et conflictuelles, ses employés se sont affrontés sur l’avenir de l’entreprise. D’un côté, il y a les idéalistes, dont de nombreux travailleurs de base et certains cadres, qui veulent faire plus pour limiter la désinformation et la polarisation du contenu. De l’autre côté, des pragmatiques craignent que ces mesures ne nuisent à la croissance de Facebook ou ne provoquent un retour de bâton politique qui conduirait à une réglementation douloureuse.

(…)

« Les résultats ont été bons, sauf qu’ils ont entraîné une diminution des cessions, ce qui nous a motivés à essayer une approche différente », selon un résumé des résultats, qui a été publié sur le réseau interne de Facebook et examiné par le Times.

L’équipe a ensuite mené une seconde expérience, en ajustant l’algorithme de manière à ce qu’un plus grand nombre de contenus « mauvais pour le monde » soit moins fortement rétrogradé. Si cela a permis d’augmenter le nombre de messages indésirables dans les flux des utilisateurs, cela n’a pas réduit leurs sessions ou le temps passé.

Ce changement a finalement été approuvé. Mais les autres fonctionnalités développées par les employés avant les élections ne l’ont jamais été.

L’une d’entre elles, appelée « corriger le dossier », aurait permis d’informer rétroactivement les utilisateurs qu’ils avaient interagi avec de fausses nouvelles et de les diriger vers une vérification indépendante des faits. Les employés de Facebook ont proposé d’étendre le produit, qui est actuellement utilisé pour notifier les personnes qui ont partagé des informations erronées sur Covid-19, pour qu’il s’applique à d’autres types d’informations erronées.

Mais cette proposition a fait l’objet d’un veto de la part des responsables politiques, qui craignaient qu’elle ne permette de notifier de manière disproportionnée les personnes ayant partagé de fausses nouvelles sur des sites web de droite, selon deux personnes connaissant bien les conversations.

Un autre produit, un algorithme pour classer et rétrograder les « appâts de la haine » – des messages qui ne violent pas strictement les règles de Facebook en matière de discours haineux, mais qui provoquent un flot de commentaires haineux – a été limité à être utilisé uniquement sur des groupes, plutôt que sur des pages, après que l’équipe politique ait déterminé que cela affecterait principalement les éditeurs de droite si cela était appliqué plus largement, ont déclaré deux personnes connaissant les conversations.

M. Rosen, le responsable de l’intégrité de Facebook, a contesté ces caractérisations lors d’une interview, qui s’est déroulée à la condition qu’il ne soit pas cité directement.

A lire sur le NYTimes.[soft paywall]

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.