Comment le modèle économique des médias sociaux brise notre perception commune

La dernière newsletter de Center For Human Technology est vraiment excellente. Je ne taris pas de reproches quand il s’agit de parler de l’impact néfaste des réseaux sociaux, même si je peux reconnaître qu’à la marge ils me distraient, me font rire, m’inspirent ou me permettent de me connecter à des personnes dont je n’aurais jamais imaginé l’existence. Mais c’est un peu comme les fripes ou les brocantes, les pépites sont rares, ils faut pratiquer souvent et régulièrement. Malheureusement, vérifier et inspecter les réseaux sociaux apportent du moins bon, même en étant « prévenu » et prudent, les émotions qui sont provoquées sont là.

Je souhaite vous partage une partie du contenu de la dernière newsletter de Center For Human Technology et je vous invite à ajouter le site à vos favoris et vous inscrire à leur newsletter : anciennement connu sous Time Well Spent (dont j’ai beaucoup parlé) est une organisation à but non lucratif – co-créée par Tristan Harris (ancien employé de Google) et Roger McNamee, Aza Raskin, Jane Chen– qui cherche à renverser ce qu’ils appellent la « crise de l’attention numérique », causée par les entreprises technologiques qui conçoivent des appareils mobiles et des fonctionnalités de médias sociaux afin d’attirer le plus d’attention possible, indépendamment de leur impact sur la qualité de vie des utilisateurs. (Wikipédia)

Voici la partie du propos impactante que je ne me lasserai pas de rappeler :

« L’EFFONDREMENT DE LA COMPRÉHENSION COMMUNE

Dans notre dernière newsletter, nous avons expliqué pourquoi la technologie n’est jamais neutre. Les médias sociaux ne font pas exception. Ils ne font pas que refléter la société, ils la façonnent.

Le monde que nous voyons à travers les médias sociaux est déformé, comme si nous regardions dans un miroir d’horreur. Ces distorsions sont les externalités négatives d’un modèle économique axé sur la publicité et la maximisation de l’engagement, qui affecte les personnes et les relations de multiples façons.

8 FAÇONS

DONT LES MÉDIAS SOCIAUX DÉFORMENT LA RÉALITÉ

  • La distorsion par l’émotion extrême 🥵 se produit car les utilisateurs ont accès à des quantités virtuellement illimitées de contenu personnalisé et émotionnel, tout utilisateur peut trouver des preuves accablantes pour ses croyances profondes. Cette situation crée des points de vue contradictoires « fondés sur des preuves », ce qui entraîne une animosité et une fracture de notre jugement collectif.
  • La distorsion de l’inondation d’informations 🤯 se produit lorsque les algorithmes et les bots inondent ou conservent les informations que les utilisateurs voient en fonction de leur probabilité de s’y engager, ce qui amène les utilisateurs à croire que ce qui est populaire (par exemple, les hashtags, les commentaires, les tendances) est le consensus public, alors qu’en fait, il peut également s’agir d’une distorsion manipulée.
  • La distorsion de micro-ciblage 🔬 se produit lorsque les annonceurs envoient des messages personnalisés, à résonance émotionnelle – et parfois opposés – à des groupes distincts de personnes, ce qui entraîne des micro-réalités individualisées qui peuvent générer des conflits sociaux.
  • La distorsion d’indignation morale 😱 se produit lorsque les algorithmes de maximisation de l’engagement amplifient des contenus moralisateurs et chargés émotionnellement. Il en résulte une polarisation, des caractérisations erronées de « l’autre camp » et la perception d’une indignation morale plus importante autour de nous qu’il n’y en a réellement.
  • La distorsion du contenu engageant 🤩 se produit lorsque les plateformes de médias sociaux incitent la concurrence à créer plus de contenu viral. Il en résulte des publications plus fréquentes, un langage plus hyperbolique et plus de publications de points de vue extrêmes, y compris des théories du complot et des informations hors contexte.
  • La distorsion anti-journalisme 🚫 est créée lorsque les plateformes de médias sociaux forcent les organismes d’information réputés à se concurrencer dans un environnement qui récompense les titres clickbait et la rhétorique polarisante, ce qui entraîne des reportages moins réfléchis et moins nuancés.
  • La distorsion de déloyauté 😡 se produit lorsque les utilisateurs des flux de médias sociaux publics essaient de comprendre ou d’exprimer de la compassion pour l' »autre » côté et sont attaqués par leur « propre » côté pour l’avoir fait.
  • La distorsion de l’altérité 👹 se produit lorsque les algorithmes amplifient le contenu diviseur, négatif et hors contexte concernant des groupes particuliers. Cela incite le contenu « d’altération », nous amenant à déshumaniser les autres et à les considérer comme indignes de notre compréhension.

L’IMPACT

Ces distorsions n’affectent pas seulement les individus. Au fil du temps, elles déforment la perception de la réalité par la société, ce qui réduit notre capacité à trouver une compréhension commune.

La compréhension commune est nécessaire au fonctionnement démocratique. Elle permet des discussions nuancées, des débats et la résolution de problèmes au-delà des lignes de parti. Or, les plateformes de médias sociaux dominantes aujourd’hui détruisent ces capacités essentielles à un rythme alarmant. C’est pourquoi les médias sociaux, tels qu’ils fonctionnent aujourd’hui, constituent une menace pour les sociétés ouvertes du monde entier.

ACTIONS QUE VOUS POUVEZ ENTREPRENDRE

Nous pouvons défendre les valeurs de la société ouverte en mettant en place un écosystème d’information qui gère notre capacité de compréhension partagée plutôt que d’optimiser l’engagement :

  • Limiter les causes en modifiant la conception de la plateforme pour encourager la confiance et la compréhension. Par exemple, l’introduction de frictions pour limiter la viralité empêche les idées qui déclenchent des émotions fortes de se répandre rapidement et de dominer le discours public. Pour approfondir la question, nous vous recommandons de lire l’article de Renee DiResta et Tobias Rose intitulé « How to Stop Misinformation Before It Gets Shared ».
  • Traitez les crises causées par l’effondrement de la compréhension commune. Pour les équipes technologiques, il s’agit d‘identifier les crises parmi les utilisateurs et les non-utilisateurs, de maintenir une collaboration inter-équipes et de prévoir les défis à venir. Par exemple, les équipes devraient envisager de mettre en place des coupures de courant pour les fonctionnalités susceptibles de causer des dommages pendant certaines périodes (par exemple, les élections).
  • Guérir l’état toxique de nos esprits après des années de conditionnement à considérer la division comme sûre et la compassion avec « l’autre côté » comme risquée.
    – Considérer la compréhension mutuelle comme une compétence à développer. Search for Common Ground et The One America Movement donnent un aperçu puissant de la manière dont l’éducation publique peut cultiver l’humilité intellectuelle et établir la compréhension.
    – Réhumaniser l’autre en se connectant à des valeurs communes et en partageant des expériences afin de dépolariser nos communautés. Pour un peu d’inspiration, regardez cette vidéo.
  • Illustrez les distorsions afin de révéler les écarts de perception et les réalités « alternatives ». Par exemple, participez à un « échange de réalité » où vous échangez votre alimentation avec une autre personne pour voir comment la réalité qui lui est présentée diffère de celle que vous voyez.

Cet article a été adapté du module 5 de notre cours récemment lancé, Foundations of Humane Technology. Si vous participez à l’élaboration de la technologie de demain, nous vous invitons à vous inscrire à ce cours. »

Il faudrait que des hackers « Robin des Bois » imaginent un système qui pénalise ces actions : spotter les pubs, le brand content (car c’est la publicité de demain cachée), que les contenus politiques résident dans un environnement contrôlé et que la presse en ligne ne soit pas dans le Far West de Google.

 

 

 

 

2 commentaires sur “Comment le modèle économique des médias sociaux brise notre perception commune”

  1. Il y a fort à parier que ces effets augmentent à l’avenir et deviennent de plus en plus inconscients pour l’utilisateur :
    * D’une part, car l’intelligence artificielle est en croissance exponentielle ;
    * D’autre part, car ils se fondront progressivement dans le métavers.

    La combinaison de ces deux facteurs est d’ores et déjà visible lorsque l’on est adepte de la réalité virtuelle : dans certaines applications, il est demandé à l’utilisateur de choisir une émoticône et une note entre 1 et 5 pour exprimer l’intensité de l’émotion correspondante. Et ce, avant et après l’expérience. Ce n’est qu’un exemple simple d’apprentissage statistique automatique en vue de proposer à l’utilisateur les expériences « les plus pertinentes ». Il semble par ailleurs évident que l’immersion dans la réalité virtuelle ne fera qu’accentuer les émotions de l’utilisateur et que, dès lors, il sera plus manipulable. La réalité virtuelle modifiera bien plus sa perception, et il est hautement probable que le modèle économique des réseaux sociaux y trouve une place de choix.

    1. Peut-être que le métavers et la réalité virtuelle sont amenés à se généraliser, j’espère en tout cas qu’ils permettront d’accéder à tout un panel d’émotions et pas seulement à celles qui servent de « trigger », générant addiction et perte de soi. J’espère qu’ils permettront de voyager et de faire des choses que peut-être la crise environnementale nous empêchera de faire… On peut toujours faire le bien comme le mal 🙂

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.