La course à la création d’un détecteur de mensonges parfait – et les dangers de la réussite

L’IA et la technologie du scanner cérébral pourraient bientôt permettre de détecter de façon fiable les personnes qui mentent. Mais est-ce qu’on veut vraiment savoir ?

Nous apprenons à mentir quand nous sommes enfants, entre l’âge de deux et cinq ans. À l’âge adulte, nous sommes prolifiques. Nous mentons à nos employeurs, à nos partenaires et, surtout, à nos mères, selon une étude. Une personne entend en moyenne jusqu’à 200 mensonges par jour, selon une étude de Jerry Jellison, un psychologue de l’Université de Californie du Sud. La plupart des mensonges que nous racontons sont « blancs », les subtilités sans importance – « J’adore ta robe ! » – qui graissent les rouages de l’interaction humaine. Mais la plupart des gens racontent un ou deux « gros » mensonges par jour, dit Richard Wiseman, psychologue à l’Université du Hertfordshire. Nous mentons pour nous promouvoir, nous protéger et pour blesser ou éviter de blesser les autres.

Le mystère, c’est comment on s’en sort toujours. Nos corps nous exposent de toutes les façons. La course du cœur, les gouttes de sueur et les micro-expressions s’échappent des petits muscles du visage. On bégaye, on bredouille, on gagne du temps et on fait des glissades freudiennes. « Aucun mortel ne peut garder un secret », écrivait le psychanalyste en 1905. « Si ses lèvres sont silencieuses, il bavarde du bout des doigts. La trahison suinte de lui à chaque pore. »

Malgré tout, nous n’avons aucune chance de déceler la tromperie. En moyenne, dans 206 études scientifiques, les gens peuvent séparer la vérité des mensonges seulement 54 % du temps – à peine mieux que de lancer une pièce de monnaie. « Les gens sont mauvais dans ce domaine parce que les différences entre les diseurs de vérité et les menteurs sont généralement minimes et peu fiables « , a déclaré Aldert Vrij, un psychologue de l’Université de Portsmouth qui a passé des années à étudier les moyens de détecter la tromperie. Certaines personnes se raidissent et se figent lorsqu’on les met sur place, d’autres deviennent plus animées. Les menteurs peuvent filer des fils pleins de couleurs et de détails, et les révélateurs de vérité peuvent sembler vagues et évasifs.

Les humains tentent de surmonter ce problème depuis des millénaires. La recherche d’un détecteur de mensonges parfait a impliqué des tortures, des procès pénibles et, dans l’Inde antique, une rencontre avec un âne dans une chambre noire. Il y a trois mille ans, en Chine, les accusés étaient forcés de mâcher et de cracher du riz ; on pensait que les grains restaient dans la bouche sèche et nerveuse des coupables. En 1730, l’écrivain anglais Daniel Defoe suggère de prendre le pouls des pickpockets présumés. « La culpabilité entraîne toujours la peur avec elle », écrivait-il. « Il y a un tremblement dans le sang d’un voleur. » Plus récemment, la détection des mensonges a été en grande partie assimilée aux styles des ondulations de la machine à polygraphe – le détecteur de mensonges par excellence que les animateurs de télévision et les procédures policières adorent. Mais aucune de ces méthodes n’a permis d’établir une distinction fiable entre la fiction et les faits.

Cela pourrait bientôt changer. Au cours des deux dernières décennies, la montée de la puissance de calcul bon marché, des technologies de balayage cérébral et de l’intelligence artificielle a donné naissance à ce que beaucoup prétendent être une nouvelle génération puissante d’outils de détection des mensonges. Les startups, qui courent pour commercialiser ces développements, veulent nous faire croire qu’un détecteur de mensonges virtuellement infaillible est à portée de main.

Leurs inventions sont prises d’assaut par les forces de police, les organismes d’État et les nations qui cherchent désespérément à se protéger contre les menaces étrangères. Elles sont également utilisées par les employeurs, les compagnies d’assurance et les agents sociaux. « Nous avons constaté une augmentation de l’intérêt de la part du secteur privé et du gouvernement « , a déclaré Todd Mickelsen, PDG de Converus, qui fabrique un détecteur de mensonges basé sur les mouvements oculaires et les changements subtils dans la taille des pupilles.

La technologie de Converus, EyeDetect, a été utilisée par FedEx au Panama et Uber au Mexique pour filtrer les conducteurs ayant des antécédents criminels, et par l’agence de notation Experian, qui teste son personnel en Colombie pour s’assurer qu’il ne manipule pas la base de données de l’entreprise pour obtenir des prêts aux membres de sa famille. Au Royaume-Uni, la police de Northumbria mène un projet pilote qui utilise EyeDetect pour mesurer la réhabilitation des délinquants sexuels. Parmi les autres clients d’EyeDetect figurent le gouvernement afghan, McDonald’s et des dizaines de services de police locaux aux États-Unis. Bientôt, des programmes de détection des mensonges à grande échelle pourraient être mis en place aux frontières des États-Unis et de l’Union européenne, où ils identifieraient les voyageurs potentiellement trompeurs pour un nouvel interrogatoire.

Mais comme des outils comme EyeDetect s’infiltrent dans de plus en plus de domaines de la vie publique et privée, il est urgent de se poser des questions sur leur validité scientifique et leur utilisation éthique. À notre époque de haute surveillance et d’angoisse face aux IA toute-puissantes, l’idée qu’une machine puisse lire nos pensées les plus personnelles nous semble plus plausible que jamais pour nous en tant qu’individus, et pour les gouvernements et les entreprises qui financent la nouvelle vague de recherche sur la détection du mensonge. Mais que faire si les États et les employeurs en viennent à croire au pouvoir d’une technologie de détection des mensonges qui s’avère profondément biaisée – ou qui ne fonctionne pas vraiment ?

Et que faisons-nous de ces technologies si elles réussissent ? Une machine qui sépare de façon fiable la vérité du mensonge pourrait avoir de profondes implications pour la conduite humaine. Les créateurs de ces outils soutiennent qu’en éliminant la tromperie, ils peuvent créer un monde plus juste et plus sûr. Mais la façon dont les détecteurs de mensonges ont été utilisés dans le passé suggère que de telles affirmations peuvent être beaucoup trop optimistes.

Pour la plupart d’entre nous, la plupart du temps, mentir est plus éprouvant et plus stressant que l’honnêteté. Pour calculer le point de vue d’une autre personne, supprimer les émotions et se retenir de dire la vérité, il faut plus de réflexion et plus d’énergie que simplement être honnête. Elle exige que nous supportions ce que les psychologues appellent une charge cognitive. La plupart des théories de la détection des mensonges supposent que le fait de porter ce fardeau laisse des traces dans notre corps et dans nos actions.

Les technologies de détection des mensonges ont tendance à examiner cinq différents types de preuves. Les deux premières sont verbales : les choses que nous disons et la façon dont nous les disons. Jeff Hancock, un expert en communication numérique à Stanford, a découvert que les gens qui mentent dans leurs profils de rencontres en ligne ont tendance à utiliser les mots « je », « moi » et « mon » plus souvent, par exemple. L’analyse du stress vocal, qui vise à détecter la tromperie basée sur les changements de ton de la voix, a été utilisée lors de l’interrogatoire de George Zimmerman, qui a tiré sur l’adolescent Trayvon Martin en 2012, et par les conseils du Royaume-Uni entre 2007 et 2010 dans un programme pilote qui a tenté d’attraper les tricheurs de bénéfices par téléphone. Seules cinq des 23 collectivités locales où l’analyse de la voix a été testée l’ont jugée un succès, mais en 2014, elle était encore utilisée dans 20 conseils, selon les demandes de liberté d’information du groupe de campagne False Economy.

La troisième source de preuves – le langage corporel – peut aussi révéler des sentiments cachés. Certains menteurs font preuve de ce qu’on appelle le  » plaisir des super-héros « , une expression fugace de joie qui traverse le visage lorsqu’ils pensent s’en être tirés. La charge cognitive fait bouger les gens différemment, et les menteurs qui essaient d' »agir naturellement » peuvent finir par faire le contraire. Lors d’une expérience menée en 2015, des chercheurs de l’Université de Cambridge ont pu détecter la tromperie plus de 70 % du temps en utilisant une combinaison étanche pour mesurer combien de sujets bougeaient et se figeaient sous les questions.

Le quatrième type de preuve est physiologique. Le polygraphe mesure la tension artérielle, le rythme respiratoire et la sueur. La pléthysmographie pénienne teste les niveaux d’excitation des délinquants sexuels en mesurant l’engorgement du pénis à l’aide d’un brassard spécial. Les caméras infrarouges analysent la température du visage. Contrairement à Pinocchio, notre nez peut en fait rétrécir légèrement lorsque nous sommes couchés, car le sang chaud monte vers le cerveau.

Dans les années 1990, les nouvelles technologies ont ouvert une cinquième voie d’investigation, soi-disant plus directe : le cerveau. Dans la deuxième saison du documentaire de Netflix Making a Murderer, Steven Avery, qui purge une peine à perpétuité pour un meurtre brutal qu’il affirme ne pas avoir commis, subit un examen de « prise d’empreintes cérébrales », qui utilise un casque à électrodes appelé électroencéphalogramme, ou EEG, pour lire son activité neuronale et la traduire en ondes montant et descendant sur un graphique. L’inventeur du test, le Dr Larry Farwell, prétend qu’il peut détecter la connaissance d’un crime caché dans le cerveau d’un suspect en détectant une réponse neuronale à des phrases ou des images relatives au crime que seuls l’auteur et les enquêteurs pourraient reconnaître. Un autre test basé sur l’EEG a été utilisé en 2008 pour condamner une Indienne de 24 ans du nom d’Aditi Sharma pour le meurtre de son fiancé en mélangeant sa nourriture avec de l’arsenic, mais la sentence de Sharma a finalement été annulée en appel lorsque la Cour suprême indienne a jugé que le test pouvait violer les droits du sujet contre son auto-incrimination.

Après le 11 septembre 2001, le gouvernement américain – qui a longtemps parrainé avec enthousiasme la science de la tromperie – a commencé à financer d’autres types de travaux de détection des mensonges basés sur le cerveau par le biais de Darpa, la Defence Advanced Research Projects Agency. En 2006, deux sociétés – Cephos et No Lie MRI – offraient la détection des mensonges basée sur l‘imagerie par résonance magnétique fonctionnelle, ou IRMf. À l’aide d’aimants puissants, ces outils suivent le flux sanguin vers les régions du cerveau impliquées dans le calcul social, le rappel de la mémoire et le contrôle des impulsions.

Mais ce n’est pas parce qu’un outil de détection des mensonges semble technologiquement sophistiqué qu’il fonctionne. « Il est très simple de battre ces tests d’une manière qui est très difficile à détecter par un chercheur potentiel « , a déclaré le Dr Giorgio Ganis, qui étudie la détection des mensonges par EEG et IRMf à l’Université de Plymouth. En 2007, un groupe de recherche mis sur pied par la Fondation MacArthur a examiné des tests de déception basés sur l’IRMf. « Après avoir examiné la littérature, nous avons conclu que nous n’avons aucune idée si l’IRMf peut ou non détecter les mensonges « , a déclaré Anthony Wagner, psychologue de Stanford et membre du groupe MacArthur, qui a témoigné contre l’admissibilité de l’IRMf devant les tribunaux.

Une nouvelle frontière dans la détection des mensonges est en train d’émerger. De plus en plus de projets utilisent l’IA pour combiner plusieurs sources de preuves en une seule mesure de la tromperie. L’apprentissage automatique accélère la recherche sur la tromperie en repérant des modèles inédits dans des rames de données. Les scientifiques de l’Université du Maryland, par exemple, ont mis au point un logiciel qui, selon eux, peut détecter avec une précision de 88 % les images trompeuses provenant des salles d’audience.

Les algorithmes qui sous-tendent ces outils sont conçus pour s’améliorer continuellement au fil du temps et peuvent finir par fonder leur détermination de la culpabilité et de l’innocence sur des facteurs que même les humains qui les ont programmés ne comprennent pas. Ces tests sont mis à l’essai lors d’entretiens d’embauche, de passages aux frontières et d’entretiens avec la police, mais à mesure qu’ils se répandent, les groupes de défense des droits civils et les scientifiques sont de plus en plus préoccupés par les dangers qu’ils pourraient faire courir à la société.

Rien n’est plus clair que l’histoire du polygraphe, le test de tromperie le plus connu et le plus utilisé au monde, pour mettre en garde contre les menaces de la nouvelle génération de détecteurs de mensonges. Bien qu’elle ait près d’un siècle, la machine domine toujours la perception publique de la détection des mensonges et le marché des tests, avec des millions de tests polygraphiques effectués chaque année. Depuis sa création, il a été attaqué pour sa précision douteuse et pour la manière dont il a été utilisé comme outil de coercition. Mais la science imparfaite du polygraphe continue de jeter une ombre sur les technologies de détection des mensonges d’aujourd’hui.

Même John Larson, l’inventeur du polygraphe, en est venu à détester sa création. En 1921, Larson était un policier débutant de 29 ans qui travaillait au centre-ville de Berkeley, en Californie. Mais il avait aussi étudié la physiologie et la criminologie et, lorsqu’il n’était pas en patrouille, il travaillait dans un laboratoire de l’Université de Californie à mettre au point des moyens de mettre la science au service de la lutte contre le crime.

Au printemps 1921, Larson construisit un horrible appareil qui mesurait en continu la tension artérielle et le rythme respiratoire, et qui grattait les résultats sur un cylindre de papier à rouler. Il a ensuite conçu un examen basé sur une entrevue qui comparait la réponse physiologique d’un sujet lorsqu’il répondait par oui ou par non à des questions relatives à un crime avec les réponses du sujet à des questions de contrôle telles que « Is your name Jane Doe » ? Comme preuve de concept, il a utilisé le test pour résoudre un vol dans un dortoir pour femmes.

Larson a perfectionné son invention pendant plusieurs années avec l’aide d’un jeune homme entreprenant nommé Leonarde Keeler, qui envisageait des applications pour le polygraphe bien au-delà de l’application de la loi. Après le crash de Wall Street en 1929, Keeler a offert une version de la machine qui était dissimulée à l’intérieur d’une élégante boîte en noyer aux grandes organisations afin qu’elles puissent contrôler les employés suspectés de vol.

Peu de temps après, le gouvernement américain est devenu le plus grand utilisateur mondial de l’examen. Dans les années 1950, sous la  » red scare « , des milliers d’employés fédéraux ont été soumis à des polygraphes destinés à éradiquer les communistes. L’armée américaine, qui a créé sa première école de polygraphie en 1951, forme encore des examinateurs pour toutes les agences de renseignement au National Center for Credibility Assessment à Fort Jackson en Caroline du Sud.

Les entreprises ont également adopté la technologie. Pendant la majeure partie du siècle dernier, environ un quart des entreprises américaines ont fait passer des examens polygraphiques à leurs employés pour vérifier s’ils avaient des antécédents de consommation et de vol de drogue. McDonald’s utilisait la machine sur ses employés. Dans les années 1980, il y avait jusqu’à 10 000 examinateurs polygraphes formés aux États-Unis, effectuant 2 millions d’examens par an.

Le seul problème, c’est que le détecteur de mensonges n’a pas fonctionné. En 2003, l’Académie nationale des sciences des États-Unis a publié un rapport accablant qui a révélé que l’exactitude du polygraphe dans 57 études était « loin d’être satisfaisante ». L’histoire regorge d’exemples de criminels connus qui ont échappé à la détection en trichant au test. Aldrich Ames, un agent double du KGB, a passé deux polygraphes tout en travaillant pour la CIA à la fin des années 1980 et au début des années 1990. Avec un peu d’entraînement, il est relativement facile de battre la machine. Floyd « Buzz » Fay, qui a été faussement reconnu coupable de meurtre en 1979 après avoir échoué à un examen polygraphique, est devenu un expert en la matière pendant ses deux ans et demi en prison et a commencé à enseigner à d’autres détenus comment le vaincre. Après 15 minutes d’instruction, 23 sur 27 ont réussi. Les « contre-mesures » courantes, qui consistent à exagérer la réponse du corps aux questions de contrôle, consistent à penser à une expérience effrayante, à marcher sur une épingle cachée dans la chaussure, ou simplement à serrer l’anus.

Le résultat est que le polygraphe n’est pas et n’a jamais été un détecteur de mensonges efficace. Il n’y a aucun moyen pour un examinateur de savoir si une hausse de la tension artérielle est due à la peur d’être pris dans un mensonge ou à l’anxiété d’être accusé à tort. Différents examinateurs évaluant les mêmes tableaux peuvent obtenir des résultats contradictoires et il y a d’énormes différences dans les résultats selon le lieu, la race et le sexe. Dans un cas extrême, un examinateur de l’État de Washington a échoué à un point sur 20 pour avoir eu des rapports sexuels avec des animaux ; il a « découvert » 10 fois plus de bestialité que ses collègues et deux fois plus de pornographie juvénile.

Dès 1965, année de la mort de Larson, le Comité américain des opérations gouvernementales a rendu un verdict accablant sur le polygraphe. « Les gens ont été trompés par un mythe selon lequel une boîte de métal dans les mains d’un enquêteur peut détecter la vérité ou le mensonge « , conclut-il. À ce moment-là, les groupes de défense des droits civils soutenaient que le détecteur de mensonges violait les protections constitutionnelles contre l’auto-incrimination. En fait, malgré le statut culturel du polygraphe, aux États-Unis, ses résultats sont inadmissibles dans la plupart des tribunaux. Et en 1988, le Congrès américain a interdit l’utilisation du polygraphe par les employeurs, craignant qu’il ne fasse l’objet « d’abus », en invoquant la crainte qu’il ne soit utilisé à mauvais escient. D’autres détecteurs de mensonges de la seconde moitié du XXe siècle n’ont pas mieux réussi : les projets abandonnés du ministère de la Défense comprenaient la « chaise remuante », qui suivait secrètement les mouvements et la température corporelle pendant l’interrogatoire, et un système élaboré pour mesurer la fréquence respiratoire en visant un laser infrarouge sur la lèvre par un trou dans le mur.

Le détecteur de mensonges est cependant resté populaire – non pas parce qu’il était efficace, mais parce que les gens pensaient qu’il l’était. « Les personnes qui ont mis au point l’appareil de polygraphie savaient que son véritable pouvoir était de convaincre les gens de son efficacité « , a déclaré Andy Balmer, sociologue à l’Université de Manchester, qui a écrit un livre intitulé Lie Detection and the Law.

La menace d’être révélé par la machine était suffisante pour contraindre certaines personnes à se confesser. En 1975, un examinateur de Cincinnati a quitté la salle d’interrogatoire et aurait regardé, déconcerté, à travers un miroir sans tain, l’accusé arracher 1,8 mètre de papier de la machine et les manger. (Il n’était même pas nécessaire d’avoir la bonne machine : dans les années 1980, des policiers de Detroit ont extorqué des aveux en plaçant la main d’un suspect sur une photocopieuse qui crachait des feuilles de papier portant l’inscription « Il ment !) Cela était particulièrement intéressant pour les forces de l’ordre aux États-Unis, où il est beaucoup moins coûteux d’utiliser une machine pour obtenir des aveux d’une personne que pour la faire passer en jugement.

Mais d’autres personnes ont été poussées à admettre des crimes qu’elles n’avaient pas commis après que la machine les ait étiquetées à tort comme des menteurs. Le polygraphe est devenu une forme de torture psychologique qui a arraché de faux aveux aux personnes vulnérables. Bon nombre de ces personnes ont ensuite été inculpées, poursuivies et envoyées en prison – que ce soit par des policiers et des procureurs sans scrupules ou par ceux qui croyaient à tort au pouvoir du polygraphe.

Peut-être que personne n’a mieux compris le potentiel coercitif de sa machine que Larson. Peu avant sa mort en 1965, il écrivait : « Au-delà de mes espérances, par des facteurs incontrôlables, cette enquête scientifique est devenue pour des raisons pratiques un monstre de Frankenstein. »

La recherche d’un détecteur de mensonges véritablement efficace a gagné en urgence après les attentats terroristes du 11 septembre 2001. Plusieurs des pirates de l’air avaient réussi à entrer aux États-Unis après avoir réussi à tromper des agents des services frontaliers. Soudain, les services de renseignement et les services frontaliers ont voulu des outils qui fonctionnaient vraiment. Un afflux de nouveaux fonds gouvernementaux a fait de la détection des mensonges un nouvel enjeu pour les entreprises. « Tout a changé après le 11 septembre, écrit le psychologue Paul Ekman dans Telling Lies.

Ekman a été l’un des bénéficiaires de cette poussée. Dans les années 1970, il filmait des entretiens avec des patients psychiatriques lorsqu’il a remarqué qu’un bref éclair de désespoir traversait les traits de Mary, une femme suicidaire de 42 ans, lorsqu’elle a menti sur son rétablissement. Il passa les décennies suivantes à cataloguer comment ces petits mouvements du visage, qu’il appelait « micro-expressions« , peuvent révéler des vérités cachées.

Le travail d’Ekman a eu une influence considérable sur les psychologues et a même servi de base à l’émission Lie to Me, une émission de télévision diffusée aux heures de grande écoute qui a débuté en 2009 sous la direction de Tim Roth, inspiré par Ekman. Mais il a été mis à l’épreuve pour la première fois en 2006, dans le cadre d’une série de nouvelles mesures de sécurité mises en place pour lutter contre le terrorisme. Cette année-là, Ekman a passé un mois à enseigner aux agents d’immigration américains comment détecter la tromperie au contrôle des passeports en recherchant certaines micro-expressions. Les résultats sont instructifs : au moins 16 terroristes ont été autorisés à entrer aux États-Unis au cours des six années suivantes.

L’investissement dans la technologie de détection des mensonges « va par vagues », a déclaré le Dr John Kircher, un psychologue de l’Université de l’Utah qui a développé un système de notation numérique pour le polygraphe. Il y a eu des pics au début des années 1980, au milieu des années 1990 et au début des années 2000, qui ont été suivis de près par les administrations républicaines et les guerres étrangères. En 2008, sous le président George W. Bush, l’armée américaine a dépensé 700 000 $ pour 94 détecteurs de mensonges portatifs destinés à l’Irak et à l’Afghanistan. Le système d’évaluation préliminaire de la crédibilité comportait trois capteurs reliés à la main et reliés à un téléavertisseur standard qui clignote en vert pour la vérité, en rouge pour les mensonges et en jaune s’il ne pouvait pas décider. C’était à peu près aussi bon qu’une photocopieuse pour détecter la tromperie – et pour découvrir la vérité.

Certaines personnes croient qu’un détecteur de mensonges précis aurait permis aux patrouilles frontalières d’arrêter les pirates de l’air du 11 septembre. Larry Farwell, l’inventeur des empreintes cérébrales, a dit :  » Ces gens étaient déjà sur des listes de surveillance « . « La prise d’empreintes cérébrales aurait pu nous fournir les preuves nécessaires pour traduire les auteurs en justice avant qu’ils ne commettent le crime. » Une logique similaire a été appliquée dans le cas des terroristes européens qui revenaient de formation à l’étranger.

Par conséquent, une grande partie de la nouvelle technologie de détection des mensonges financée par le gouvernement se trouve en première ligne aux frontières des États-Unis et de l’Europe. En 2014, les voyageurs arrivant à Bucarest ont été interrogés par un agent frontalier virtuel appelé Avatar, un personnage en chemise blanche aux yeux bleus, qui s’est présenté comme  » l’avenir du contrôle des passeports « . En plus d’un scanner de passeport électronique et d’un lecteur d’empreintes digitales, l’unité Avatar dispose d’un microphone, d’une caméra infrarouge de suivi oculaire et d’un capteur Xbox Kinect pour mesurer les mouvements du corps. C’est l’un des premiers détecteurs de mensonges « multimodaux » – qui intègre un certain nombre de sources de preuves différentes – depuis le polygraphe.

Mais la « sauce secrète », selon David Mackstaller, qui met la technologie d’Avatar sur le marché via une société appelée Discern Science, est dans le logiciel, qui utilise un algorithme pour combiner tous ces types de données. La machine vise à envoyer un verdict à un garde-frontière humain dans un délai de 45 secondes, qui peut soit faire signe au voyageur, soit l’écarter pour un contrôle supplémentaire. M. Mackstaller a déclaré qu’il est en pourparlers avec les gouvernements – il ne dirait pas lesquels – au sujet de l’installation permanente d’Avatar après d’autres essais à Nogales, en Arizona, à la frontière entre les États-Unis et le Mexique, et avec des employés fédéraux à l’aéroport Reagan près de Washington DC. Les taux d’exactitude des déclarations de Discern Science dans leurs études préliminaires – y compris celle de Bucarest – se situent entre 83 % et 85 %.

Les essais de Bucarest ont été soutenus par Frontex, l’agence européenne des frontières, qui finance actuellement un système concurrent appelé iBorderCtrl, avec son propre garde-frontière virtuel. Un aspect de iBorderCtrl est basé sur Silent Talker, une technologie en développement à la Manchester Metropolitan University depuis le début des années 2000. Silent Talker utilise un modèle d’IA pour analyser plus de 40 types de microgestions du visage et de la tête ; il ne nécessite qu’une caméra et une connexion Internet pour fonctionner. Lors d’une récente visite au bureau de la société dans le centre de Manchester, un journaliste du Guardian a regardé des images vidéo d’un jeune homme mentant sur le fait de prendre de l’argent dans une boîte pendant une expérience criminelle fictive, tandis que dans le coin de l’écran un cadran passait du vert, au jaune et au rouge. En théorie, il pourrait être utilisé sur un smartphone ou sur des images télévisées en direct, peut-être même pendant les débats politiques, bien que le cofondateur James O’Shea ait déclaré que l’entreprise ne voulait pas s’engager dans cette voie – elle vise les services de police et les assurances.

O’Shea et son collègue Zuhair Bandar affirment que Silent Talker a un taux de précision de 75% dans les études réalisées jusqu’à présent. « Nous ne savons pas comment ça marche », a dit O’Shea. Ils ont souligné l’importance de garder un  » humain dans la boucle  » lorsqu’il s’agit de prendre des décisions basées sur les résultats de Silent Talker.

M. Mackstaller a déclaré que les résultats d’Avatar s’amélioreront à mesure que son algorithme apprendra. Il s’attend également à ce qu’il soit plus performant dans le monde réel parce que les pénalités pour se faire prendre sont beaucoup plus élevées, de sorte que les menteurs sont soumis à plus de stress. Mais la recherche montre que c’est peut-être le contraire qui est vrai : les études en laboratoire ont tendance à surestimer le succès dans le monde réel.

Avant que ces outils ne soient déployés à grande échelle, il faut des preuves plus claires qu’ils fonctionnent dans différentes cultures, ou avec des groupes de personnes comme les psychopathes, dont le comportement non verbal peut différer de la norme. Jusqu’à présent, une grande partie de la recherche a été menée sur les Européens et les Américains de race blanche. Des données provenant d’autres domaines, y compris la libération sous caution et l’emprisonnement, suggèrent que les algorithmes ont tendance à coder les préjugés des sociétés dans lesquelles ils ont été créés. Ces effets pourraient être accentués à la frontière, où se manifestent certaines des plus grandes craintes et préjugés de la société. De plus, la boîte noire d’un modèle d’IA n’est pas propice à une prise de décision transparente puisqu’elle ne peut expliquer son raisonnement. « Nous ne savons pas comment ça marche », a dit O’Shea. « Le système d’IA a appris à le faire tout seul. »

Andy Balmer, sociologue à l’Université de Manchester, craint que la technologie ne soit utilisée pour renforcer les préjugés existants sous une apparence scientifique douteuse, ce qui rendrait plus difficile la contestation des décisions par les membres de groupes vulnérables. « La science la plus réputée est claire : la détection des mensonges ne fonctionne pas, et pourtant elle persiste en tant que domaine d’étude où d’autres choses auraient probablement été abandonnées à l’heure actuelle « , a-t-il dit. « Ça nous dit ce qu’on en attend. »

La vérité n’a qu’un seul visage, écrit le philosophe français du XVIe siècle Michel de Montaigne, mais un mensonge « a cent mille formes et aucune limite définie ». La tromperie n’est pas un phénomène singulier et, jusqu’à présent, nous ne connaissons aucun signe révélateur de tromperie qui s’applique à tous, dans toutes les situations. Il n’y a pas de nez de Pinocchio. « C’est considéré comme le Saint-Graal de la détection des mensonges « , a déclaré le Dr Sophie van der Zee, psychologue juridique à l’Université Erasmus de Rotterdam. « Jusqu’à présent, personne ne l’a trouvé. »

Les taux d’exactitude de 80 à 90 % revendiqués par EyeDetect et Avatar semblent impressionnants, mais appliqués à l’échelle d’un passage frontalier, ils conduiraient à ce que des milliers de personnes innocentes soient signalées à tort pour chaque menace réelle qu’elles identifient. Cela pourrait aussi signifier que deux terroristes sur dix s’en sortent facilement.

L’histoire montre que de telles lacunes n’empêcheront pas l’utilisation de ces nouveaux outils. Après tout, le polygraphe a été largement démystifié, mais on estime à 2,5 millions le nombre d’examens polygraphiques effectués chaque année aux États-Unis. Il s’agit d’une industrie de 2,5 milliards de dollars. Au Royaume-Uni, le polygraphe est utilisé sur les délinquants sexuels depuis 2014 et, en janvier 2019, le gouvernement a annoncé son intention de l’utiliser sur les auteurs de violences domestiques en liberté conditionnelle. Le test « ne peut pas être tué par la science parce qu’il n’est pas né de la science », écrit l’historien Ken Alder dans son livre The Lie Detectors.

Les nouvelles technologies peuvent être plus difficiles à manipuler délibérément que le polygraphe pour des examinateurs sans scrupules, mais cela ne signifie pas qu’elles seront équitables. Les détecteurs de mensonges alimentés par l’IA s’attaquent à la tendance des individus et des gouvernements à faire confiance à l’œil soi-disant visionnaire de la science. Et plus ils s’approchent de la fiabilité parfaite, ou du moins plus ils semblent s’en rapprocher, plus ils deviendront dangereux, car les détecteurs de mensonges visent souvent les plus vulnérables de la société : les femmes dans les années 1920, les dissidents et homosexuels présumés dans les années 1960, les demandeurs d’asile dans les années 2000 et les migrants aujourd’hui. « Les scientifiques ne pensent pas beaucoup à savoir qui va utiliser ces méthodes, » dit Giorgio Ganis. « J’ai toujours pensé que les gens devraient être conscients des implications. »

À une époque de fausses nouvelles et de mensonges, il peut être tentant de chercher la certitude dans la science. Mais les détecteurs de mensonges ont tendance à faire surface aux « points de pression » en politique, lorsque les gouvernements réduisent leurs exigences en matière de rigueur scientifique, a déclaré Balmer. Dans cet environnement, de nouvelles techniques douteuses pourraient  » se glisser proprement dans le rôle que jouait autrefois le polygraphe « , prédit Alder.

Un jour, les améliorations de l’intelligence artificielle pourraient trouver un modèle fiable de tromperie en balayant de multiples sources de preuves, ou des technologies de balayage plus détaillées pourraient découvrir un signe sans ambiguïté qui se cache dans le cerveau. Dans le monde réel, cependant, les faussetés pratiquées – les histoires que nous nous racontons sur nous-mêmes, les mensonges qui forment le noyau de notre identité – compliquent les choses. « Nous avons cette énorme capacité de croire nos propres mensonges « , a déclaré Dan Ariely, un psychologue comportemental renommé de l’Université Duke. « Et une fois que nous croyons nos propres mensonges, bien sûr, nous ne donnons aucun signe d’acte répréhensible. »

Dans son roman de science-fiction The Truth Machine de 1995, James Halperin a imaginé un monde dans lequel quelqu’un réussit à construire un détecteur de mensonge parfait. L’invention permet d’unir les nations en guerre du monde en un gouvernement mondial et d’accélérer la recherche d’un remède contre le cancer. Mais les preuves des cent dernières années suggèrent que cela ne se passerait probablement pas comme ça dans la vraie vie. Les politiciens font à peine la queue pour utiliser les nouvelles technologies sur eux-mêmes. Terry Mullins, un examinateur polygraphiste privé de longue date – l’un des quelque 30 examinateurs au Royaume-Uni – a essayé en vain d’intéresser les forces de police et les services gouvernementaux à la technologie EyeDetect. « Vous ne pouvez pas obtenir l’appui du gouvernement », a-t-il dit. « Je pense qu’ils sont tous terrifiés. »

Daniel Langleben, le scientifique à l’origine de l’IRM sans mensonge, a dit au Guardian que l’un des organismes gouvernementaux qui l’ont approché ne s’intéressait pas vraiment aux taux de précision de son détecteur de mensonges basé sur le cerveau. Un appareil d’IRMf ne peut pas être emballé dans une valise ou apporté dans une salle d’interrogatoire de la police. L’enquêteur ne peut pas manipuler les résultats des tests pour faire pression sur un suspect non coopératif. L’agence voulait juste savoir s’il pouvait être utilisé pour former des agents à battre le détecteur de mensonges.

« La vérité n’est pas vraiment une marchandise », disait Langleben. « Personne n’en veut. »

Via The Guardian

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.