Le problème de la prédiction

Les scientifiques cognitifs et les entreprises considèrent l’esprit humain comme une machine à prédire. Vrai ou faux, ils vont changer notre façon de pense, rapporte Aeon.

La machine qu’ils ont construite est affamée. Déjà en 2016, les ingénieurs de Facebook pouvaient se vanter que leur création « ingère des milliards de points de données chaque jour » et produit « plus de 6 millions de prédictions par seconde ». Sans aucun doute, les moteurs de prédiction de Facebook sont encore plus puissants aujourd’hui, faisant d’incessantes conjectures sur votre fidélité à la marque, vos envies, l’arc de vos désirs. Le marché principal de l’entreprise est ce que la psychologue sociale Shoshana Zuboff décrit comme des « produits de prédiction » : des suppositions sur l’avenir, élaborées à partir d’incursions toujours plus profondes dans nos vies et nos esprits, et vendues à quelqu’un qui veut manipuler cet avenir.

Pourtant, Facebook et ses pairs ne sont pas les seules entités qui consacrent des ressources considérables à la compréhension des mécanismes de la prédiction. Au moment même où l’idée du contrôle prédictif est devenue dominante dans la sphère des entreprises, elle a également gagné un remarquable public dans la science cognitive. Selon une école de neuroscientifiques de plus en plus influente, qui s’oriente autour de l’idée du « cerveau prédictif », l’activité essentielle de notre organe le plus important est de produire un flux constant de prédictions : des prédictions sur les bruits que nous allons entendre, les sensations que nous allons ressentir, les objets que nous allons percevoir, les actions que nous allons effectuer et les conséquences qui en découleront. Prises ensemble, ces attentes tissent la tapisserie de notre réalité – en d’autres termes, nos suppositions sur ce que nous verrons dans le monde deviennent le monde que nous voyons. Il y a près de 400 ans, René Descartes affirmait, avec le dicton « Je pense, donc je suis », que la cognition était le fondement de la condition humaine. Aujourd’hui, la prédiction a pris sa place. Comme l’a dit le spécialiste des sciences cognitives Anil Seth : « Je me prédis, donc je suis ».

D’une certaine manière, la logique qui anime notre corps est la même que celle qui transforme notre corps politique. Le moteur de prédiction – l’outil conceptuel utilisé par les plus grands spécialistes du cerveau pour comprendre l’essence la plus profonde de notre humanité – est également celui des entreprises et des gouvernements les plus puissants d’aujourd’hui. Comment cela s’est-il produit et qu’est-ce que cela signifie ?

Une explication de cette étrange convergence émerge d’une tendance historique plus large : les humains ont souvent compris le système nerveux en fonction des technologies florissantes de leur époque, comme l’explique le scientifique et historien Matthew Cobb dans L’idée du cerveau(2020). Thomas Hobbes, dans son livre Leviathan (1651), a comparé les corps humains à des « automates », « des machines qui se déplacent par des ressorts et des roues comme une montre ». Qu’est-ce que le cœur, demandait Hobbes, sinon « un ressort, et les nerfs, mais tant de cordes… » ? De même, Descartes décrit des esprits animaux qui se déplacent dans les nerfs selon les mêmes propriétés physiques qui animent les machines hydrauliques qu’il a vues exposées dans les jardins royaux français.

L’essor des systèmes de communication électronique a accéléré cette tendance. Au milieu du 19ème siècle, le chirurgien et chimiste Alfred Smee a déclaré que le cerveau était constitué de batteries et de circuits photovoltaïques, permettant au système nerveux de mener une « communication électro-télégraphique » avec le corps. Vers le début du 20e siècle, le neuroscientifique Santiago Ramón y Cajal a décrit le positionnement de différentes structures neurales « un peu comme un poteau télégraphique soutient le fil conducteur ». Et, pendant la Première Guerre mondiale, les conférences de Noël de la British Royal Institution ont mis en vedette l’anatomiste et anthropologue Arthur Keith, qui a comparé les cellules du cerveau aux opérateurs dans un échange téléphonique.

Les technologies qui en sont venues à dominer nombre de nos vies aujourd’hui ne sont pas principalement hydrauliques ou photovoltaïques, ni même téléphoniques ou électro-télégraphiques. Elles ne sont même pas informatiques dans un sens simpliste. Elles sont prédictives, et leurs infrastructures construisent et limitent le comportement dans toutes les sphères de la vie. Les anciennes couches subsistent – le câblage électrique innerve les maisons et les lieux de travail, et l’eau s’écoule dans les éviers et les douches par la plomberie à l’abri des regards. Mais ces infrastructures sont désormais régies par des technologies prédictives, et elles ne guident pas seulement la fourniture de matériaux, mais aussi d’informations. Les modèles prédictifs construisent les flux que nous faisons défiler ; ils complètent automatiquement nos textes et nos e-mails, nous incitent à partir à l’heure au travail et choisissent les listes de lecture que nous écoutons sur le trajet qu’ils nous ont tracé. Les décisions qui en découlent dans les domaines policier, militaire et financier sont de plus en plus influencées par les évaluations automatisées qui sont crachées par des moteurs prédictifs propriétaires.

Ces moteurs de prédiction nous ont rendus réceptifs à l’idée du cerveau prédictif. Il en va de même pour la science de la psychologie elle-même, qui s’intéresse depuis sa création à la prédiction et au contrôle des êtres humains. Toutes les sciences naturelles ont pour but la prédiction et le contrôle pratiques, et aucune d’entre elles n’est autant concernée que la psychologie actuelle », a écrit le psychologue William James dans « A Plea for Psychology as a « Natural Science«  » (1892). Selon James, les psychologues sont un atout pour leur société si et seulement s’ils aident cette société à gérer ses habitants. Nous vivons entourés d’un énorme groupe de personnes qui sont très certainement intéressées par le contrôle des états d’esprit », dit James. Ce que chaque éducateur, chaque gardien de prison, chaque médecin, chaque membre du clergé, chaque directeur d’asile, demande à la psychologie, ce sont des règles pratiques ».

Le pilote ennemi était tellement confondu avec les machines que son statut d’humain-non-humain était flou.

Cette vision de l’humain comme fondamentalement quantifiable et prévisible a été cimentée par la lutte militaire de la Seconde Guerre mondiale. L’ennemi du temps de guerre a longtemps été caractérisé comme une bête ou un insecte ne pouvant être chassé et exterminé, ou comme une statistique lointaine. Mais il y avait maintenant quelque chose de nouveau à affronter : le pilote de chasse, le bombardier, le lanceur de missiles. C’était un ennemi, écrivait l’historien Peter Galison en 1994, à l’aise dans le monde de la stratégie, de la tactique et des manœuvres, tout en nous étant totalement inaccessible, séparé par un gouffre de distance, de vitesse et de métal. Aidée par la conception technologique, par les capteurs et les processeurs, l’attaque de cet ennemi était une proposition risquée. Chaque fois que vous avez essayé d’en savoir plus sur lui, chaque fois que vous avez essayé de prédire sa trajectoire et de le tuer, il en a appris plus sur vous. Cet ennemi, explique Galison, n’était pas une bête sous-humaine, mais « un Autre Ennemi mécanisé, généré dans les guerres scientifiques en laboratoire du MIT et d’une myriade d’universités aux États-Unis et en Grande-Bretagne ». Il était mi-humain, mi-machine – ce que nous pourrions appeler aujourd’hui un cyborg.

Les Alliés ont mobilisé toutes les sciences qu’ils pouvaient contre cet ennemi, y compris les sciences du comportement et l’informatique. L’une des idées les plus influentes de l’époque était un dispositif appelé « anti-aérien prédictif », conçu pour simuler un pilote ennemi, anticiper sa trajectoire et tirer. Il s’agit d’une invention de Norbert Wiener, mathématicien et scientifique du MIT. Avec son collègue Julian Bigelow, Wiener a développé non seulement un dispositif mais aussi une vision qui a été connue sous le nom de « cybernétique » : une façon de comprendre le monde par le biais de boucles de rétroaction de cause à effet, dans lesquelles les conséquences d’une action servent d’entrée pour une action ultérieure, permettant de corriger automatiquement les erreurs. Comme l’a écrit Galison :

le pilote ennemi était tellement fusionné avec la machine que son statut d’humain-non-humain était flou. En combattant cet ennemi cybernétique, Wiener et son équipe commencèrent à concevoir les opérateurs anti-aériens alliés comme ressemblant à l’ennemi, et il n’y avait qu’un pas entre cette élision de l’humain et du non-humain chez l’allié et le brouillage de la frontière homme-machine en général. L’ennemi servomécanique est devenu, dans la vision cybernétique des années 1940, le prototype de la physiologie humaine et, en fin de compte, de toute la nature humaine.

Pendant la guerre, de plus en plus de machines et d’armes ont incorporé des systèmes de rétroaction ; « une foule de nouvelles machines sont apparues qui ont agi avec des pouvoirs d’auto-ajustement et de correction jamais atteints auparavant », comme l’a dit le psychiatre et cybernéticien Ross Ashby dans son livre Design for a Brain (1952). Il s’agissait de « canons antiaériens, de roquettes et de torpilles », qui donnaient aux soldats et aux scientifiques l’impression que les machines pouvaient agir de manière intentionnelle. Essayez de les faire dévier de leur trajectoire et, comme un pilote ennemi dans un avion, ils corrigeraient et se dirigeraient vers vous. En continuant à étudier les processus de rétroaction, Wiener et ses collègues ont commencé à considérer les machines autorégulatrices et le comportement humain intentionnel comme une seule et même chose – expliquant même la dynamique biologique (comme l’homéostasie) et les phénomènes sociaux, en termes cybernétiques. Cela inclut le cerveau – dont la « fonction entière », selon Ashby, équivaut à une « correction d’erreur ».

L’ennemi était un type de sujet pour la prédiction et le contrôle. Le consommateur en est un autre. John B. Watson, un des fondateurs de la psychologie comportementaliste au début du 20e siècle, a affirmé que l’objectif théorique de sa discipline est la prédiction et le contrôle du comportement – au service des besoins de l’éducateur, du médecin, du juriste et de l’homme d’affaires. Après avoir été invité à démissionner de l’université Johns Hopkins en 1920 à la suite d’une liaison extraconjugale, Watson est devenu lui-même l’un de ces hommes d’affaires, rejoignant l’agence de publicité J Walter Thompson sur Madison Avenue.

Avant l’arrivée de Watson, la psychologie et la publicité étaient des mondes à part. Pourtant, après seulement quelques années en compagnie de Watson, selon son biographe David Cohen, le président de son agence a pu être trouvé en train de donner des conférences à des politiciens et des hommes d’affaires à Londres pour leur dire que « les actions de l’être humain en masse sont tout aussi soumises aux lois que les matériaux physiques utilisés dans la fabrication« . La première vision comportementaliste était que les humains étaient des machines d’entrée-sortie, liées par les lois de la stimulation-réponse. Il n’était pas question de modéliser, mais seulement les entrées et les sorties comportementales d’animaux et de consommateurs prévisibles. « L’acheteur potentiel était une sorte de machine », a écrit Cohen. Fournissez le bon stimulus et il vous obligera avec la bonne réaction, en fouillant profondément dans sa poche ». Les agences de publicité financeraient leurs propres expériences menées par des chercheurs tels que Watson pour tester les lois des machines de consommation qu’elles visaient, rationalisant ainsi leur compréhension de phénomènes tels que l’utilisation habituelle des produits, les messages ciblés et la fidélité à la marque.

Les agences de publicité n’ont pas seulement appliqué ces principes pour vendre des céréales et des cigarettes, mais aussi pour vendre des candidats politiques. Le publicitaire Harry Treleaven, par exemple, y a passé près de deux décennies avant de partir pour aider George H W Bush à remporter sa première élection en 1966, à la Chambre des représentants, avant d’aider Richard Nixon à gagner l’élection présidentielle américaine en 1968. Tant de cadres de l’agence ont suivi le même chemin que le New York Times a décrit comme « l’un des fournisseurs de main-d’œuvre les plus prolifiques de l’administration Nixon ».

Si le logiciel a mangé le monde, ses moteurs prédictifs l’ont digéré, et nous vivons dans la société qu’il a crachée

La première tentative de Nixon pour devenir président en 1960 a marqué un tournant majeur dans l’entreprise de prédiction et de contrôle des entreprises. La vie et la mort de la Simulmatics Corporation, décrite par l’historienne Jill Lepore dans son livre If Then (2020), est en quelque sorte emblématique de cette trajectoire. Lorsqu’ils ont ouvert leurs portes en février 1959, à un saut de puce de J Walter Thompson, les fondateurs de la société se préparaient à entrer en guerre. La politique était leur champ de bataille, Nixon leur « adversaire féroce ». Pour vaincre un ennemi aussi puissant, le président de la société, Edward L Greenfield, pensait que le candidat démocrate John F Kennedy avait besoin d’une arme secrète. La politique américaine moderne a commencé avec cette arme secrète », a écrit Lepore : des simulations prédictives, visant à influencer tout, du comportement du marché au vote.

Pour construire cette arme – les « simulations automatiques » qui ont donné son nom à la société – Simulmatics a réuni des scientifiques de haut niveau du MIT, de Johns Hopkins et de l’Ivy League. Selon M. Lepore, de nombreux universitaires « avaient été formés à la science de la guerre psychologique« . Le résultat a été la création d’une « machine de comportement électoral, une simulation informatique de l’élection de 1960« , qui a été « l’un des plus grands projets de recherche en sciences politiques jamais menés ». La simulation devait fournir des prévisions granulaires sur la manière dont certains segments de la population pourraient voter, compte tenu de leurs antécédents et des circonstances des campagnes politiques. La société a revendiqué la victoire de JFK, mais les représentants du président élu ont nié toute relation avec le « cerveau électronique », comme l’ont qualifié les journaux. Simulmatics a ensuite prédit bien d’autres choses : elle a simulé l’économie du Venezuela en 1963 dans le but de court-circuiter une révolution communiste, et s’est engagée dans des recherches psychologiques au Vietnam et des efforts pour prévoir les émeutes raciales. Peu après, l’entreprise a été la cible de protestations anti-guerre et a déposé son bilan à la fin de la décennie.

Pourtant, la vision du monde de Simulmatics s’est maintenue. Les fondateurs avaient la foi que, grâce à l’informatique, tout était possible et que « tout, un jour, pourrait être prédit – chaque esprit humain simulé et ensuite dirigé par des messages ciblés aussi infaillibles que des missiles ». Les sociétés prédictives mondialisées d’aujourd’hui ont rapproché ce principe de la réalité, en recueillant des données à grande échelle et en s’appropriant des concepts scientifiques pour rationaliser leur exploitation. Aujourd’hui, l’idée qui animait les fondateurs de la Simulmatics est devenue, selon les termes de Lepore :

la mission de presque toutes les entreprises. Collecter des données. Écrire un code : si/alors/sans. Détecter des modèles. Prévoir les comportements. Action directe. Encourager la consommation. Influencer les élections.

Si le logiciel a mangé le monde, ses moteurs prédictifs l’ont digéré, et nous vivons dans la société qu’il a crachée.

Le lien entre la façon dont nous comprenons notre biologie et la façon dont nous organisons la société existe depuis longtemps, et l’association fonctionne dans les deux sens. Lorsque les gens se rassemblent en tant que collectif, le corps qu’ils constituent est souvent compris en appliquant les mêmes concepts et les mêmes lois que nous appliquons aux individus ; les mots incorporation, corporation, société dérivent tous de la racine latine qui nous donne corps, corpus, corps. (Organe et organisation sont liés de façon similaire.) Dans le Léviathan, par exemple, Hobbes a affirmé que la société est une sorte de corps, où

La souveraineté est une âme artificielle, qui donne vie et mouvement à tout le corps ; les magistrats et autres officiers de justice et d’exécution, des joies artificielles ; la récompense et le châtiment (par lesquels, en jeûnant sur le siège de la souveraineté, chaque membre est poussé à accomplir son devoir) sont les nerfs, qui font de même dans le corps naturel.

À l’inverse, nous avons souvent imposé à notre propre corps la logique qui régit notre société. Dans la Création : A Philosophical Poem (1712), le médecin et poète Richard Blackmore a attribué aux esprits internes des animaux la cause de l’action et des sensations humaines. Dans la poésie de Blackmore, ces esprits étaient des « gardiens de l’esprit », recevant l’ordre de patrouiller les régions les plus éloignées du système nerveux, occupant leur poste à chaque « passage vers les sens ». Après avoir surveillé la « frontière », les « sentinelles vigilantes » de Blackmore retournaient au cerveau pour donner leur rapport et recevoir de nouveaux ordres sur la base de leurs impressions. Le corps, pour Blackmore, était animé par les mêmes citoyens et soldats que le monde politique dans lequel il était intégré, comme l’a fait valoir le savant Jess Keiser.

Aujourd’hui, de nombreux neuroscientifiques qui explorent le cerveau prédictif déploient l’économie contemporaine comme une sorte d’heuristique explicative similaire. Les scientifiques ont parcouru un long chemin pour comprendre comment « dépenser l’argent du métabolisme pour construire des cerveaux complexes est rentable dans la recherche de la réussite adaptative », remarque le philosophe Andy Clark, dans une étude remarquable sur le cerveau prédictif. L’idée du cerveau prédictif est logique car elle est rentable, du point de vue métabolique. De même, la psychologue Lisa Feldman Barrett décrit le rôle principal du cerveau prédictif comme étant la gestion d’un « budget corporel ». Selon elle, « votre cerveau est un peu comme le secteur financier d’une entreprise », qui alloue les ressources de manière prédictive, dépense de l’énergie, spécule et recherche le retour sur investissement. Pour Mme Barrett et ses collègues, le stress est comme un « déficit » ou un « retrait » du budget de l’organisme, tandis que la dépression est une faillite. À l’époque de Blackmore, le cerveau était composé de sentinelles et de soldats, dont la mélancolie collective devenait la tristesse de l’être humain qu’ils habitaient. Aujourd’hui, au lieu de soldats, nous imaginons le cerveau comme composé de statisticiens prédictifs, dont les erreurs deviennent nos névroses. Comme l’a dit le neuroscientifique Karl Friston : « Si le cerveau est une machine d’inférence, un organe de statistiques, alors quand il se trompe, il fait les mêmes erreurs qu’un statisticien ».

Les êtres humains ne sont pas des pièces de technologie, aussi sophistiquées soient-elles

La force de cette association entre l’économie prédictive et les sciences du cerveau est importante, car – si nous ne sommes pas prudents – elle peut nous encourager à réduire nos semblables à de simples machines. Nos cerveaux n’ont jamais été des processeurs informatiques, aussi utile qu’il ait pu être de les imaginer ainsi de temps en temps. Ils ne sont pas non plus des moteurs de prédiction à l’heure actuelle et, si cela devait se produire, ils ne seraient pas des ordinateurs quantiques. Nos corps ne sont pas des empires qui font la navette autour des sentrymen, ni des sociétés qui doivent rentabiliser leurs investissements. Nous ne sommes pas fondamentalement des consommateurs à tromper, des ennemis à traquer, ou des sujets à prédire et à contrôler. Que ce soit dans le domaine de la recherche scientifique ou de l’intelligence d’entreprise, il devient trop facile pour nous de glisser dans des cadres d’opposition et d’exploitation de l’être humain ; comme l’a écrit Galison, « les associations de la cybernétique (et du cyborg) avec les armes, les tactiques d’opposition et la conception de la nature humaine de la boîte noire ne disparaissent pas aussi facilement ».

La manière dont nous nous percevons est importante. Comme l’a expliqué la spécialiste féministe Donna Haraway, la science et la technologie sont « des réalisations humaines en interaction avec le monde ». Mais la construction d’une économie naturelle selon les rapports capitalistes, et son appropriation à des fins de reproduction de la domination, est profonde ». Les êtres humains ne sont pas des morceaux de technologie, aussi sophistiqués soient-ils. Mais en parlant de nous-mêmes en tant que tels, nous acceptons les entreprises et les gouvernements qui décident de nous traiter de cette façon. Lorsque les voyants du traitement prédictif saluent la prédiction comme la réalisation déterminante du cerveau, ils risquent de donner une crédibilité sans fondement aux systèmes qui automatisent cet acte – en attribuant la patine de l’intelligence à des prédicteurs artificiels, aussi grossiers ou nuisibles soient-ils, ou en réalisant eux-mêmes leurs prévisions. Ils menacent de légitimer tacitement les moyens par lesquels les moteurs prédictifs façonnent et manipulent le sujet humain et, en retour, ils nous encouragent à nous façonner à cette image.

Les scientifiques pourraient croire qu’ils ne font que construire des outils conceptuels et mécaniques pour l’observation et la compréhension – les télescopes et microscopes de l’ère des neurosciences. Mais les outils d’observation peuvent être fixés trop facilement au bout d’une arme et cibler des masses de personnes. Si les systèmes prédictifs ont commencé comme des armes destinées à rendre l’homme contrôlable sur le champ de bataille et sur le marché, cela nous donne une raison supplémentaire d’interroger ceux qui manient de telles armes aujourd’hui. Les scientifiques doivent réfléchir très attentivement au double usage de leurs théories et de leurs interprétations, en particulier lorsqu’il s’agit de « réorganiser la science sur le modèle du capitalisme de plate-forme », comme l’a affirmé l’historien et philosophe de la science Philip Mirowski.

Seth a écrit que « la perception sera toujours façonnée par des objectifs fonctionnels : percevoir le monde (et le soi) non pas « tel qu’il est », mais tel qu’il est utile de le faire ». Tant que cela continue, nous devons nous demander : quel est le but fonctionnel de nos tentatives de percevoir scientifiquement l’esprit humain maintenant ? Est-il encore ancré dans une généalogie de la prédiction et du contrôle ? Sommes-nous en train de nous enfoncer davantage dans la bouche de la machine, juste pour voir ce qu’elle produit ? Sur l’autorité de qui, au profit de qui et dans quel but ?

 

Via Aeon

1 commentaire sur “Le problème de la prédiction”

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.