Selon les experts, la lutte contre la désinformation sur le coronavirus est efficace

Lorsqu’il s’agit de lutter contre la désinformation, les recherches montrent qu’il est plus efficace pour les personnalités faisant autorité de présenter des faits exacts dès le début et de façon régulière en même temps que la désinformation, plutôt que d’essayer de nier chaque élément de désinformation après coup en l’étiquetant comme faux ou en le qualifiant de faux, rapporte Axios.

Pourquoi est-ce important ? La recherche fournit une feuille de route pour une gestion plus efficace et efficiente de l' »infodémie » de coronavirus par les experts de la santé, les plateformes internet des fonctionnaires et les entreprises de presse.

1. Messagerie proactive : Selon les recherches de Kathleen Hall Jamieson, directrice du Annenberg Public Policy Center à l’Université de Pennsylvanie et co-fondatrice de FactCheck.org, les lacunes dans les connaissances de base du public sur les remèdes de bon sens contre la grippe, comme la question de savoir si la vitamine C prévient les virus, montrent « un besoin permanent de communication efficace des informations nécessaires bien avant une crise ».

  • Dans une interview avec Axios, Hall Jamieson affirme que les experts en santé ont fait un bon travail en communiquant de manière proactive à la population dans le passé les avantages du lavage des mains pour prévenir les virus de type grippal, comme le rhume.
  • Ainsi, le public n’était pas susceptible d’être mal informé sur le lavage des mains, comme il l’était sur la vitamine C comme remède contre les coronavirus. (La vitamine C est toujours un remède non prouvé pour le rhume commun, malgré les mythes non prouvés qui datent de plusieurs décennies).

2. La pré-sensibilisation : Le psychologue et professeur australien Stephan Lewandowsky, qui dirige le département de psychologie cognitive de l’université de Bristol, affirme que si les gens sont sensibilisés au raisonnement erroné des théories de conspiration, ils pourraient devenir moins vulnérables à ces théories.

  • Dans une certaine mesure, cette approche est similaire aux stratégies adoptées par certaines entreprises de médias sociaux qui affichent des étiquettes d’avertissement sur la désinformation à côté du contenu d’un flux d’informations que les utilisateurs peuvent rencontrer avant de décider de cliquer sur l’article.
  • Lewandowsky note dans son nouveau manuel sur la théorie de la conspiration publié en mars que lorsqu’il s’agit de certains contenus, comme les théories de conspiration anti-vaccination, on a constaté que la pré-information « est plus efficace que la désinformation » après coup.

3. Étiqueter la désinformation au niveau de la source : Afin d’éviter de poursuivre des milliers, voire des millions d’éléments de désinformation pendant une « infodémie », Steven Brill et Gordon Crovitz, co-PDG de NewsGuard, affirment qu’il est préférable d’évaluer les sources de désinformation qui sont des récidivistes, comme certains sites web ou auteurs, plutôt que les éléments de contenu eux-mêmes.

  • « Tous les sites web qui font aujourd’hui la promotion des canulars COVID-19, comme les causes de la 5G, publiaient il y a quelques mois des fausses news sur les causes 5G du cancer », explique M. Crovitz. « Cela souligne l’importance d’étiqueter la désinformation au niveau du domaine. Cela rend beaucoup plus difficile pour ces sites web canulars de réussir à promouvoir de nouveaux canulars ».
  • M. Brill note qu’en utilisant des humains pour évaluer manuellement les sources, ils sont en mesure d’éviter les critiques sur le manque de transparence que reçoivent souvent les plateformes pour avoir utilisé l’intelligence artificielle et des algorithmes opaques pour identifier la désinformation.
  • « C’est ainsi que l’on obtient une échelle, c’est-à-dire en évaluant la fiabilité des sites, et non en individualisant les articles », explique M. Crovitz.

4. Aller là où les fausses nouvelles se répandent : Selon Hall Jamieson, il est particulièrement important que les responsables de la santé diffusent le contexte dans des lieux où les gens reçoivent généralement des informations erronées.

  • C’est pour cette raison qu’elle affirme qu’Anthony Fauci est intelligent de participer à l’émission d’opinion de Sean Hannity sur la Fox News, ainsi qu’au programme d’information du dimanche de Chris Matthew.
  • « Si vous n’allez pas au même endroit que celui où la désinformation s’est répandue à l’origine, vous n’avez aucune chance d’atteindre le public qui l’a entendue à l’origine », dit-elle.

5. La règle des 10 % : Certains experts, dont Hall Jamieson, affirment qu’il vaut mieux attendre qu’une désinformation atteigne un niveau de pénétration de 10 % dans la population avant de la démystifier, sinon vous risquez de répandre involontairement la rumeur avant qu’elle n’atteigne un point où elle est vraiment problématique.

  • Brill et Crovitz repoussent cette règle, et affirment que s’il est possible de fournir un contexte à la désinformation avant qu’elle n’atteigne ce niveau de pénétration, vous devriez le faire.

6. Donner la priorité à la désinformation : Selon Hall Jamieson, en plus de comprendre ce qui constitue le seuil justifiant la désinformation, les responsables de la santé, les décideurs politiques, les organisations de presse et autres doivent évaluer à quel point certaines formes de désinformation sont problématiques lorsqu’ils déterminent combien ils doivent investir pour fournir un contexte.

  • La récente désinformation concernant les désinfectants utilisés pour arrêter le COVID-19 est un bon exemple du type de désinformation qui justifie un contexte immédiat et des ressources pour que les responsables de la santé puissent démystifier, par opposition à la désinformation concernant l’origine du virus, par exemple.

Oui, mais : Nombre de ces efforts ne tiennent pas compte du fait que les gens sont de plus en plus enclins à rechercher des informations, quelle que soit leur validité, qui soutiennent leur point de vue politique.

  • « La grande question concernant la désinformation en ce qui concerne le coronavirus serait de savoir dans quelle mesure elle a été politisée », déclare Joshua Tucker, professeur de politique et co-directeur du Centre pour les médias sociaux et la politique à l’Université de New York.
  • « Nous avons constaté dans nos recherches que les gens sont beaucoup moins susceptibles d’identifier correctement des nouvelles fausses ou trompeuses comme telles si elles correspondent à leurs propres préférences politiques ».

Soyez intelligent : dans une certaine mesure, les plateformes technologiques ont également suivi cette voie en supprimant les informations erronées qui, selon elles, pourraient causer des problèmes de santé dans le monde réel.

  • « Facebook se montre plus agressif en supprimant certains types de désinformation liée à COVID, et ne se contente pas de fournir des corrections, ce qui est une évolution bienvenue », explique Philip Napoli, professeur à la Sanford School of Public Policy de l’Université Duke.

La vue d’ensemble : Lorsque la société a commencé à s’intéresser sérieusement aux « fausses nouvelles » et à la désinformation après les élections de 2016, on a peut-être tenté d’imposer des solutions binaires en identifiant les informations comme étant vraies ou fausses, et en les bloquant ou en les supprimant en conséquence. Selon les experts, cela pose problème pour deux raisons :

L’effet de retour : Certains experts ont découvert que lorsqu’on leur présente une étiquette binaire, les consommateurs seront incités à cliquer sur quelque chose qui est étiqueté « faux » simplement par curiosité. Lewandowsky dit qu’il n’a jamais pu le prouver entièrement, mais a conclu que « si l’on présente aux gens des explications affirmant des faits ou réfutant des mythes, la croyance dans les faits peut être maintenue dans le temps ».

  • L’hypothèse selon laquelle tout a été évalué : « Lorsque quelqu’un voit quelque chose étiqueté comme faux, il suppose que tout le reste est vrai. Le problème est que beaucoup de choses qui ne sont pas vraies existent et n’ont pas encore été signalées », explique Hall Jamieson.

Entre les lignes : Les entreprises technologiques se sont efforcées de trouver le meilleur moyen de signaler les informations erronées sans inciter les gens à cliquer plus loin.

  • En 2017, Facebook a déclaré qu’il n’utiliserait plus les « Disputed Flags » – des drapeaux rouges à côté des faux articles – pour identifier les fausses nouvelles pour les utilisateurs parce que cela incitait plus de gens à cliquer sur les messages démasqués. Au lieu de cela, la société utilise maintenant des « étiquettes d’avertissement », et elles semblent fonctionner beaucoup mieux. Selon l’entreprise, seulement 5 % des personnes qui ont été exposées à ces étiquettes ont continué à voir le contenu original.
  • En janvier, Twitter a commencé à guider les utilisateurs vers des sources faisant autorité en utilisant une invite de recherche afin de faciliter la découverte de faits tout en parcourant les tweets dans leur chronologie. L’entreprise a également élargi ses politiques de vérification pour qu’il soit plus facile d’identifier quand l’information provient de sources crédibles.
  • YouTube a développé des panneaux d’information de vérification des faits qui offrent aux utilisateurs un contexte de désinformation lorsqu’ils la rencontrent par le biais de vidéos sur sa plateforme qui ne violent pas ses politiques de suppression.

Le résultat final : Il n’y a pas de solution miracle pour résoudre la crise de la désinformation liée à la pandémie de coronavirus, mais des recherches plus concluantes sur le sujet, et en particulier sur la façon dont il se rapporte à l’ère de l’internet, peuvent servir de feuille de route utile pour aller de l’avant.

Via Axios

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.