Il semble que nous avons enfin atteint le « pic Facebook », dit
Douglas Rushkoff
sur Medium.

Grâce en partie aux récentes révélations sur la façon dont la société a donné accès aux données des utilisateurs et aux messages privés à Netflix, Spotify et à d’autres, ainsi que tout pour calomnier George Soros, les gens prennent conscience que la plate-forme ne nuit pas seulement à la société comme un simple effet secondaire. Facebook est intentionnellement un mauvais acteur. Cela dit, il y a peut-être quelque chose à gagner ou à apprendre du réseau social avant qu’il ne disparaisse.

Nous n’avons peut-être pas beaucoup de temps. Les produits de Facebook sont devenus manifestement trop destructeurs pour que presque quiconque puisse les justifier. Une décennie d’articles, de documentaires et de programmes scolaires destinés à expliquer aux utilisateurs qu’ils ne sont pas les clients de Facebook, mais son produit, combiné à la preuve de ses mémoires militarisées et de ce sentiment désagréable d’être activement ciblés par des algorithmes, a finalement fait ses frais : les gens utilisent Facebook lorsqu’ils y sont absolument obligés, mais rarement parce qu’ils le veulent. Et maintenant, avec tout le désespoir d’un fabricant de cigarettes qui nie que son produit crée une dépendance, Facebook a révélé jusqu’où il ira en blâmant les espions russes pour avoir utilisé la plateforme comme prévu ou pour avoir dénigré le philanthrope juif George Soros, car c’est une cible facile et une distraction certaine.

Bien sûr, Facebook peut encore lancer un audacieux Je vous salue Marie, comme lorsqu’un AOL en déclin est allé acheter Time Warner, mais même l’achat d’un Netflix ou Disney ne ferait que ralentir temporairement le saignement. La marque de l’entreprise est touchée parce que Facebook est devenu le visage de la malfaisance algorithmique. C’est l’exemple même de la façon dont la technologie peut être retournée contre l’action humaine. L’entreprise utilise la finance comportementale, l’invasion de la vie privée et l’apprentissage des machines pour manipuler les utilisateurs à la manière des machines à sous de Las Vegas, et revendique ensuite l’innocence ou l’ignorance lorsque l’impact social de ces machines est révélé.

Mais maintenant que Facebook semble voué à l’échec, est-ce qu »il n’y aurait pas une utilisation positive de la plateforme après tout. Non, pas pour se faire des amis ou communiquer avec les gens – ni l’un ni l’autre n’ont jamais été les points forts de Facebook de toute façon. La véritable valeur que nous pouvons tirer de Facebook vient de l’interaction directe et ciblée avec ses sombres entrailles : les algorithmes eux-mêmes.

Les efforts maladroits de Facebook pour nous refléter à nous-mêmes offrent un aperçu des boîtes noires qui viennent de plus en plus dominer notre société.

L’aspect le plus dérangeant de Facebook est aussi son aspect le plus intrigant : la façon dont il tente de prédire nos besoins et nos désirs. En surface, c’est simple : La plateforme utilise ce qu’elle sait de nous grâce à nos clics, à nos goûts, aux partages et aux choix de nos amis pour permettre aux spécialistes du marketing de diffuser des annonces auxquelles nous sommes susceptibles de répondre. Parfois les données sont analysées par Facebook lui-même, parfois par les clients de Facebook – qui peuvent alors combiner les informations qu’ils obtiennent sur nous sur Facebook avec les données qu’ils obtiennent des nombreux autres outils de surveillance sur le Web. C’est ainsi que le sujet d’une discussion par mail ou d’une recherche sur le Web peut finir par nous suivre partout en tant que pub. Grâce au partage de données entre entreprises, aux cookies qui suivent notre activité sur le Web et aux algorithmes qui lisent nos messages publics, la plupart des sites Internet fonctionnent de cette façon. Retweeter un message critique au sujet d’un candidat politique progressiste peut vous obtenir des publicités ciblées ou des articles dénonçant le contrôle des armes à feu, par exemple.

Qu’est-ce qui est le plus troublant : quand les publicités et les recommandations qui traquent chacun de nos mouvements en ligne ont une compréhension trop étrange de qui nous sommes, ou quand elles nous renvoient une image de nous-même qui n’ont aucun rapport ? Comme tout le monde, je suis dérangée quand il me semble que la conversation que je viens d’avoir sur mon téléphone portable au sujet d’un problème médical privé semble avoir informé la nouvelle publicité qui me poursuit sur le web. Plus que probablement, les algorithmes m’ont diagnostiqué en fonction des habitudes de navigation, de l’âge et d’autres métadonnées.

Mais qu’en est-il lorsque les algorithmes commencent à m’envoyer des pubs et des articles avec des vues plus extrêmes de soi ? Les listes des actes de trahison de Trump, les façons dont la Russie espionne ma maison, ou les dangers du lait ? Qu’en est-il quand ils semblent connaître nos pires peurs et qu’ils jouent avec elles et les exagèrent pour que nous réagissions ? En d’autres termes, le clickbait, personnalisé à mon profil psychologique, tel que déterminé principalement par une analyse de mon comportement en ligne. Quiconque a suivi le moteur de recommandation sur YouTube sait qu’après avoir livré une ou deux vidéos inoffensives, le signal « Up Next » sert un contenu de plus en plus extrême.

Les algorithmes nous poussent à devenir des caricatures de nous-mêmes. Ils ne se contentent pas de prédire notre comportement, ils le façonnent.

Ainsi, même si des plateformes comme Facebook, YouTube ou Twitter peuvent être de terribles sources de nouvelles et d’informations, la transparence de leurs manipulations et de celles de leurs clients spécialistes du marketing nous offre une fenêtre sur la façon dont l’environnement des médias numériques se reconfigure implacablement – et, par extension, sur le monde qu’il contrôle – en fonction de ses jugements étroits et manipulations agressives. Tout ce qui apparaît est, d’une manière ou d’une autre, le reflet de nos actions antérieures, traitées par les algorithmes et mises au service des intérêts des entreprises. C’est tout un écosystème de news, de marketing, de publicité et de propagande, lié à des algorithmes, qui partagent tous entre eux des informations sur qui nous sommes, comment nous pensons, ce à quoi nous réagissons et ce que nous ignorons.

Ces algorithmes, comme nous l’apprenons maintenant, déterminent beaucoup plus que les publicités que nous verrons, le prix de nos billets d’avion ou les théories du complot qui se retrouvent dans nos flux d’information. Ils sont pris en compte dans les décisions concernant nos prêts et hypothèques bancaires, nos visas et nos vérifications à l’aéroport, nos demandes d’emploi, nos décisions en matière de libération conditionnelle, notre réputation juridique ou même notre capacité d’obtenir un poste de gardienne d’enfants. La façon dont ces algorithmes évaluent notre adéquation est, bien sûr, propriétaire et sécrétée dans les technologies de la boîte noire. Mais, comme de nombreux chercheurs l’ont déterminé, ces boîtes noires sont remplies des mêmes préjugés qui ont toujours renforcé les préjugés raciaux et d’autres formes d’oppression.

Dans un seul exemple, les juges utilisent maintenant un outil algorithmique appelé COMPAS pour déterminer les peines des criminels condamnés. Plus on s’attend à ce qu’une personne retourne en prison, plus la peine est longue. Mais en calculant le score de récidive d’un criminel condamné, COMPAS n’évalue pas réellement la probabilité qu’une personne commette un crime, mais simplement sa probabilité de se faire prendre. En d’autres termes, l’algorithme amplifie inévitablement le biais institutionnel de la police, qui est plus susceptible d’arrêter les Noirs que les Blancs pour les mêmes crimes. Non seulement cette approche favorise l’injustice raciale, mais elle sape aussi l’objectif supposé des établissements correctionnels. Et ce n’est qu’aux États-Unis. En Chine et dans d’autres États plus répressifs, le score des médias sociaux punit ou récompense les gens non seulement en fonction de ce qu’ils font ou disent, mais aussi de ce que leurs connexions en ligne font ou disent.

Les algorithmes de Facebook ne nous comprennent que sous l’angle du capitalisme. Ils veulent savoir seulement ce qui peut être monétisé à notre sujet.

Pire encore, toutes ces décisions sont fondées sur les résultats de technologies propriétaires. S’il y a un avantage aux efforts maladroits de Facebook pour nous refléter à nous-mêmes, c’est qu’ils aident à exposer ce processus autrement opaque. Ils jettent un coup d’oeil dans les sortes de boîtes noires qui dominent de plus en plus notre société. Et aussi inconfortables que nous nous sentions face à un algorithme, ceux qui sont enveloppés dans le secret sont encore plus dommageables. En rendant plus visibles les machinations des algorithmes, les offres de Facebook à notre attention révèlent la logique erronée, les spéculations pernicieuses et les préjugés intégrés d’un ordre social, juridique et politique déterminé de manière algorithmique. Facebook est devenu une étude de cas effrayante sur les raisons pour lesquelles les algorithmes ne devraient jamais être appliqués de cette façon – du moins pas à ce stade de notre développement technologique et social. Tout ce qu’ils font, c’est camoufler les préjugés institutionnels sous un manteau de technosolutionnisme.

Et il faut souligner que les algorithmes de Facebook ne sont pas neutres ; ils ne nous comprennent qu’à travers le prisme du capitalisme. Ils veulent savoir seulement ce qui peut être monétisé à notre sujet. L’ensemble de la plate-forme repose sur cette compréhension fondamentale de la personnalité humaine telle qu’elle est définie par la consommation égoïste. C’est ainsi qu’il a contribué à réduire le vote à un choix du consommateur.

Si vous voulez vraiment un Internet neutre, commencez par utiliser un navigateur anonyme, désactivez tous les cookies, effectuez des recherches sans profil et cachez votre adresse IP. Une autre réponse peut être de déconcerter complètement les algorithmes. Essayez de modifier votre comportement pour voir si la plate-forme vous sert un contenu différent. Mais peu importe à quel point vous résistez à cliquer sur des histoires sensationnelles, les algorithmes ne semblent pas apprendre que je veux voir une image exacte du monde. Ils s’engagent à trouver des « exploits » de personnalité et à provoquer une réaction impulsive ou inconsciente. Je ferais mieux de cliquer sur tout au hasard – sauf qu’il y a probablement une catégorie pour le genre de personne qui fait ça et un moyen pratique de monétiser le geste.



Regardez cette extension de navigateur appelée Ad Nauseam qui non seulement bloque les publicités Web, mais aussi clique sur chaque pub bloquée en arrière-plan. Le suivi des utilisateurs devient inutile, car les algorithmes ne peuvent que conclure que vous êtes intéressé par tout. C’est le genre de stratégie recommandée par les auteurs-activistes derrière le livre Obfuscation: A User’s Guide for Privacy and Protest, dans lequel ils soutiennent que la meilleure façon de combattre la surveillance numérique est de camoufler, repousser ou même saboter les algorithmes. Et je suis tout à fait d’accord.

J’ai donc ajouté AdNauseam sur Github qui nécessite une manipulation manuelle mais qui n’est pas compliquée, et voilà :

Mais aussi déformé qu’il puisse être dans sa forme actuelle, Facebook reste une sorte de miroir. Et même s’il ne nous représente pas exactement – surtout s’il ne nous représente pas exactement – Facebook nous offre une rare occasion d’explorer la différence entre ce que les algorithmes supposent à notre sujet et qui nous sommes réellement. Les aspects de nous-mêmes qu’ils ne peuvent catégoriser de façon significative, les lieux qu’il manque, représentent certaines de nos qualités les plus importantes en tant qu’êtres humains simplement en raison du fait que les algorithmes ne peuvent pas encore les quantifier. Peut-être que la meilleure façon de savoir quels aspects de notre humanité ne sont pas computationnels est d’être plus attentif aux limites des algorithmes en usage tout autour de nous.

Qu’est-ce que les algorithmes utilisés par les juges pour déterminer les peines d’emprisonnement manquent à propos du comportement, de la société et de la justice ? Que manque-t-il aux algorithmes économiques sur la prospérité humaine ? Qu’est-ce que les algorithmes médicaux manquent à propos de la vitalité humaine ? Qu’est-ce qui manque aux algorithmes des médias sociaux dans ce qui nous relie vraiment les uns aux autres ?

Même si nous rejetons les solutions algorithmiques aux problèmes du monde, en regardant comment elles échouent, nous pouvons arriver à une meilleure compréhension de la façon dont nous pouvons réussir. Pour cela, ironiquement, nous devons remercier Facebook.

L’écart entre ce que nous sommes et ce que les algorithmes de la plate-forme disent que nous sommes peut représenter le petit morceau de mystère humain qu’il nous reste. Nous devons la chérir et la cultiver en nous-mêmes et en tous ceux que nous rencontrons. Alors peut-être qu’on pourra enfin se déconnecter et réapprendre à être social sans les médias.

Pour aller plus loin :

C’est la fin des nouvelles telles que nous les connaissons (et Facebook se sent bien)
Dans le cadre de sa collecte de fonds à la fin de l’année dernière, Mother Jones a examiné comment Facebook a changé à jamais le journalisme :  » Facebook et al. sont devenus les principales sources de nouvelles et les principaux destructeurs de nouvelles. Et ils ont refusé de s’en occuper parce que leur entreprise est fondée sur l’idée fausse que la technologie est neutre – la version de la Silicon Valley de « Les armes à feu ne tuent pas les gens ».

Publicités

1 commentaire »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.