Réduire les déchets de notre vie numérique

Comment construire un nouveau mode de vie numérique afin de protéger l’internet pour que nos petits-enfants puissent en profiter interrogent Steven Weber, Ann Cleaveland, Sekhar Sarukkai et Sundar Sarukkai pour Noéma:

 

Les dommages causés par les déchets produits par des systèmes humains vastes et complexes sont devenus progressivement plus évidents au cours de l’histoire récente de l’humanité : plastique et autres déchets déversés dans les rivières et les océans, carbone et autres polluants crachés dans l’atmosphère, produits pharmaceutiques déversés dans les éviers et les toilettes qui se retrouvent ensuite dans les stocks de poissons. Le mouvement écologiste de la fin du XXe siècle a permis aux gens de prendre conscience de ces flux de déchets et, dans une large mesure, de la responsabilité de leurs propres modes de vie et actions. Il s’agissait d’une étape importante vers des changements de politique et de comportement visant à réduire les déchets et les dommages qui leur sont associés.

Ce n’est pas encore le cas pour les données et le monde numérique, où la notion de déchet et de responsabilité en la matière échappe encore à la plupart des gens. Nous produisons tous une grande quantité de déchets numériques dans notre vie quotidienne, mais (comme les émissions de carbone il y a cent ans) ils sont largement invisibles. Jusqu’à ce que, bien sûr, les préjudices associés à ces déchets retombent directement sur la personne qui les a créés.

Par déchets numériques, nous entendons les données, qu’elles soient brutes ou traitées – l’aspect immatériel du flux de déchets de l’économie numérique. (Ne sont pas incluses ici, bien qu’importantes, d’autres formes de déchets de l’économie numérique comme les émissions de carbone des centres de données ou la pollution due à la fabrication et à la mauvaise élimination des appareils électroniques). Par exemple, il est amusant et probablement utile pour les autres de poster une vidéo montrant comment vous utilisez certains outils dans votre atelier domestique pour régler les caméras de sécurité à l’extérieur de votre maison. Mais ce même flux de données peut facilement révéler où vous vivez, quand vous êtes susceptible d’être chez vous et où se trouvent les failles de votre système de sécurité – et permettre des déductions sur les maisons de vos voisins. Il s’agit d’une forme de gaspillage numérique, et c’est une conséquence répandue de nos activités.

Le flux de déchets provenant de nos vies numériques s’accumule depuis des décennies. Croyez-vous vraiment, par exemple, qu’une recherche rapide sur le dark web ne révélera pas votre numéro de sécurité sociale, le nom de jeune fille de votre mère et la ville où vous êtes né et où vous êtes allé au lycée ? Croyez-vous vraiment que les mots de passe que vous réutilisez sans cesse ne sont pas à la portée des pirates ?

« Croyez-vous vraiment qu’une recherche rapide sur le dark web ne révélerait pas votre numéro de sécurité sociale ? »

Le sentiment d’urgence à agir contre le gaspillage numérique est palpable à Washington, Bruxelles, Palo Alto et dans presque tous les autres centres de pouvoir politique et technologique. Les organes de presse sont remplis d’appels à l’action, qu’il s’agisse de législation nationale sur la protection de la vie privée, de mandats de divulgation des violations ou de sensibilisation. Certains sont des arguments raisonnés, d’autres sont simplement des appels émotionnels à briser les grandes entreprises technologiques.

Ce qui est clair, c’est qu’il n’existe aucune stratégie cohérente de réduction des risques qui soit plus grande que le jeu du chat et de la souris. Les entreprises plateformes comme Facebook et Google sont largement en mode réactif, semblant parfois essayer d’avancer dans une direction responsable et essayant parfois d’en faire juste assez pour soulager la pression aiguë. Les entreprises plateformes inventent certainement au fur et à mesure, que ce soit en matière de modération du contenu, de confidentialité des données ou de cybersécurité.

Il n’y a pas de meilleur exemple que les multiples dé-platformations de Donald Trump à la suite de l’attaque du 6 janvier au Capitole. L’expulser des plateformes n’était pas une décision prise conformément à une théorie de réduction des dommages plus large, cohérente et appliquée de manière constante ; les dommages continuent de se propager sur les mêmes plateformes et de nouveaux dommages apparaîtront certainement. Cette décision s’apparente davantage à un effort de nettoyage d’une marée noire – une action importante à mener au moment de la crise, mais qui ne s’inscrit pas dans une théorie plus large du changement.

Une fenêtre sur une solution potentielle à long terme réside dans la façon dont nous traitons la toute première étape de la sécurité numérique personnelle. Actuellement, la logique simple de l’authentification numérique veut que pour prouver à une banque ou à un hôpital que vous êtes bien celui que vous prétendez être, vous devez montrer un sous-ensemble de trois choses (facteurs) :

  • quelque chose que vous savez (un mot de passe),
  • quelque chose que vous avez (un code à usage unique envoyé sur votre téléphone)
  • et quelque chose que vous êtes (votre empreinte digitale).

Nous savons tous à quel point l’authentification à un facteur basée sur un mot de passe est devenue négligée et risquée. L’authentification à deux facteurs est plus sûre, mais plus contraignante et encore loin d’être infaillible.

L’authentification continue basée sur le comportement (CBBA) pousse le processus encore plus loin. La CBBA est un ensemble de technologies et de processus qui vous authentifie non pas une fois, mais en permanence, sur la base de ce que vous êtes.

Par exemple, chacun a des cadences légèrement différentes lorsqu’il tape sur un clavier, des réactions oculaires légèrement différentes aux flashs lumineux sur un écran, des allures légèrement différentes lorsque nous traversons une pièce. Même le son d’une respiration profonde, s’il est mesuré avec suffisamment de précision, peut être un élément d’authentification. Imaginez que vous puissiez combiner la mesure continue d’un certain nombre de ces caractéristiques distinctives d’une personne en un score de probabilité unique, mis à jour régulièrement. Ce score de probabilité pourrait être utilisé pour déterminer si une personne a le droit de retirer de l’argent à la banque, d’accéder à un dossier médical ou de voter à une élection.

La beauté de CBBA est qu’il fonctionne entièrement en arrière-plan de l’expérience de l’utilisateur – vous ne recevrez jamais d’invite pour un mot de passe, vous n’aurez jamais à vous inquiéter de savoir où se trouve votre téléphone, vous n’aurez jamais à offrir une image de votre visage ou les quatre derniers chiffres de votre numéro de sécurité sociale.

Au-delà de la commodité, la CBBA présente de nombreux avantages. Elle réduirait considérablement les possibilités de fraude, rendrait les attaques de phishing classiques presque obsolètes et réduirait la valeur des mots de passe volés à pratiquement zéro. Elle rééquilibrerait de manière significative le paysage de la cybersécurité en supprimant un grand nombre de voies d’attaque faciles pour les mauvais acteurs, et elle réduirait les coûts que les acteurs légitimes doivent aujourd’hui supporter. Imaginez un monde sans mécanismes de récupération des mots de passe et sans lignes d’assistance consacrées à ce processus. Il y a de quoi être satisfait.

Mais la CBBA présente également des risques et des inconvénients suffisamment importants pour être pris en compte. Les données relatives à votre localisation, à la dynamique de vos frappes au clavier, à votre voix ou à votre démarche – et la façon dont la combinaison de ces éléments et d’autres à un moment donné se comparent à ce qu’ils étaient dans le passé – comportent un risque de préjudice. Ils deviennent des déchets dès lors qu’ils ont été utilisés pour l’authentification. Et comme les fichiers ADN, c’est un problème de gaspillage à long terme. Vous pouvez changer votre mot de passe s’il est volé, mais vous ne pouvez pas changer votre démarche ou votre voix, du moins pas facilement.

Le problème de ce gaspillage à long terme dépasse la simple possibilité d’usurpation d’identité ou de chantage, puisque des systèmes CBBA sophistiqués peuvent réduire ces risques en interne. Ce qui est inquiétant, c’est ce que ces données peuvent être utilisées pour déduire de votre santé, de votre état mental ou d’autres caractéristiques que vous n’avez pas l’intention d’exposer. C’est particulièrement problématique lorsque les données CBBA sont combinées à d’autres informations qui circulent dans le flux des déchets. Si un pirate peut voir comment votre voix et votre cadence de frappe ont changé, et qu’il combine cela avec des données sur vos habitudes de sommeil et ce que vous achetez à l’épicerie, il sera presque certainement en mesure de déterminer que vous souffrez d’un épisode de dépression grave. Cela peut être utilisé pour causer un grand préjudice – et les données de la CBBA n’en sont qu’un exemple.

Alors comment réduire le flux de déchets à un niveau gérable et compatible avec l’objectif de maintenir un écosystème durable ? Voici quatre mesures simples, en utilisant l’exemple de la CBBA, qui y contribueraient à un niveau conceptuel.

Premièrement, arrêter de collecter les données CBBA au moment où le système atteint le seuil de confiance nécessaire à une fonction d’authentification particulière.

Deuxièmement, supprimez les anciennes données dont vous ne pouvez pas prouver qu’elles améliorent l’efficacité et la précision du système.

Troisièmement, au début, limitez le nombre d’acteurs qui collectent un type de données CBBA – un seul ou un petit nombre de fournisseurs de services d’ouverture de session est probablement plus sûr.

Quatrièmement, développer des modèles commerciaux autour des services d’authentification qui soutiennent ces changements de pratique. Ces modèles commerciaux doivent être suffisamment robustes pour dissuader les services CBBA de partager les données collectées avec des tiers – pour faire de la publicité, par exemple.

Comment convertir ces mesures conceptuelles de réduction des dommages en pratiques réelles ? Une réponse potentielle s’inspire des systèmes de plafonnement et d’échange de droits d’émission de carbone. L’essentiel est un mécanisme de tarification qui incite les acteurs du marché à se faire concurrence pour réduire les dommages liés au gaspillage de données.

La composante « plafond » est simple : Le gouvernement l’établirait comme un plafond global pour les dommages associés au gaspillage numérique, et il diminuerait d’un montant fixe – disons 1 % – sur une base annuelle. Cela encourage l’innovation dans son ensemble. La composante commerciale est la manière dont le système répartit la charge de la réduction des dommages là où elle peut être réalisée le plus efficacement à un moment donné. Par exemple, le gouvernement pourrait accorder des crédits aux algorithmes qui utilisent le moins de données et permettre que ces crédits soient échangés et donc vendus aux entreprises dont les algorithmes nécessitent plus de données. Cela encourage l’innovation sur une base individuelle et crée une pression concurrentielle avec des récompenses pour les moyens les plus efficaces de réduire les dommages.

D’autres moyens de tarification des pénalités pour l’émission de déchets numériques sont assez simples. Prenons l’exemple de la taxe Tobin, qui a été conçue à l’origine pour décourager le commerce rapide des devises. Une petite taxe similaire pourrait être imposée à chaque nouvelle entrée de données qu’un fournisseur de CBBA souhaite ajouter à son modèle. Si cette nouvelle entrée de données était réellement bénéfique en termes d’amélioration des performances du modèle, elle justifierait le paiement de la taxe. Mais si les données n’amélioraient pas suffisamment les performances, la taxe dissuaderait de collecter les données en premier lieu. Cette taxe pourrait également augmenter progressivement au fil du temps selon un calendrier prédéterminé afin de stimuler l’investissement et l’innovation dans la réduction des dommages causés par les données.

(…)

Une meilleure méthode dépend d’un processus institutionnalisé. Imaginez un partenariat public-privé sous la forme d’une commission mandatée par le Congrès et chargée de proposer une unité expérimentale pour les dommages causés par les données, en tenant compte des meilleures connaissances scientifiques à ce jour. La structure de la commission dépend de son personnel et de son mode de scrutin. Il faudrait l’inciter à nommer des personnes agissant de bonne foi et un système de vote qui penche vers les intérêts du bien commun.

Par exemple, disons qu’un tiers de la commission est nommé par le Congrès, un tiers par des ONG, des groupes de réflexion et des universités, et un tiers par une association industrielle représentant les entreprises technologiques. La commission serait chargée de formuler une recommandation sur une unité de dommage aux données à la fin d’une année de travail, et des sanctions seraient prévues pour toutes les parties en cas de désaccord. La sanction serait structurée en fonction des avantages que chaque partie tire de l’absence de traitement du gaspillage des données. L’unité sur laquelle la commission se mettrait d’accord serait traitée comme une expérience et utilisée pendant une période définie, tandis qu’une seconde commission composée de nouveaux membres serait nommée pour l’évaluer et l’affiner.

Il doit y avoir une menace crédible que si un consensus sur une expérience n’émerge pas, les sociétés bénéficiant d’un gaspillage de données non géré reçoivent les sanctions les plus sévères. Cette menace est-elle crédible ? Nous le pensons car, à l’heure actuelle, la société semble prête à prendre un tel engagement vis-à-vis des entreprises de plateformes. Du point de vue des entreprises, le choix est donc le suivant : Participer de manière constructive à un processus visant à trouver une unité raisonnable de préjudice numérique, une unité qui leur coûtera mais améliorera le résultat pour la société, ou bloquer ce processus et subir un coût beaucoup plus important.

(…)

Réduire les méfaits du gaspillage numérique est un objectif modeste, pas un appel à la révolution. Il ne satisfera pas les critiques les plus radicaux de l’économie de l’attention, du capitalisme de surveillance et d’autres qui ont conclu que l’échange de données personnelles contre des services avec paiement indirect par la publicité est une façon fondamentalement défectueuse, profondément menaçante ou purement antidémocratique de gérer une entreprise ou une économie. Un système de plafonnement et d’échange de droits d’émission de carbone ne satisfait pas non plus les critiques les plus sévères de l’industrie des combustibles fossiles. L’objectif est de mettre le monde sur une voie plus sûre et meilleure.

(…)

Tout cela peut sembler abstrait et distant pour la plupart des utilisateurs individuels de l’internet et des services numériques. Mais considérez-le comme une étape importante vers quelque chose de plus évocateur et de plus personnel. L’objectif à moyen terme devrait être de créer un style de vie autour de la réduction des déchets numériques, un peu comme certains endroits l’ont fait pour l’environnement au cours des 20 dernières années : recyclage, compostage, énergie renouvelable, transport électrique, réduction de la consommation. Il s’agit dans une certaine mesure de choix de luxe, mais le prix de chacun d’entre eux diminue, tandis que la prise de conscience augmente.

Lorsque vous ajoutez un élément d’équité intergénérationnelle à l’équation, il n’y a aucune raison intrinsèque pour que les entrepreneurs ne cherchent pas, au fil du temps, à structurer la réduction des dommages numériques de manière similaire. Personne n’empoisonne sciemment l’eau souterraine que boivent ses enfants. Ce nouveau mode de vie numérique consistera finalement à protéger l’internet pour que nos petits-enfants puissent en profiter, et la réduction des déchets numériques est un bon point de départ.

Un article à lire sur Noéma

(via Sentier)

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.