Voici comment nous saurons qu’une IA a une conscience

Voici un article de Joel Frohlich pour l’excellent magazine Nautilus au sujet de cette grande interrogation concernant le potentiel de l’IA de se rapprocher d’une forme d’humanité. A savoir que les différentes comparaisons mériteraient sans doute de s’y pencher encore davantage (zombies, aveugles). J’aurais, personnellement souhaité une comparaison avec la nature, les arbres, les plantes, les animaux (car je préfèrerai qu’on leur accorde une conscience à eux avant de le faire pour une IA) :

« Tout comme des tragédies éthiques surviennent lorsque nous débranchons des patients conscients mais sans réaction, des tragédies similaires surviendront si nous débranchons une conscience artificielle. Et tout comme mon laboratoire de l’UCLA établit un lien entre les mesures théoriques de la conscience et le comportement au lit d’hôpital des patients souffrant de lésions cérébrales, les futurs chercheurs devront établir un lien entre les mesures théoriques de la conscience artificielle et les performances d’une IA dans quelque chose qui ressemble à un test de Turing. (…)

Le philosophe australien David Chalmers s’est demandé si des « zombies philosophiques » étaient concevables, c’est-à-dire des personnes qui se comportent comme vous et moi mais qui n’ont pas d’expérience subjective. C’est une idée qui a suscité l’intérêt de nombreux chercheurs pour la conscience, dont moi-même. Le raisonnement est le suivant : si de tels zombies, ou des robots sophistiqués insensibles, sont concevables, alors les propriétés physiques seules – concernant le cerveau ou un mécanisme semblable au cerveau – ne peuvent expliquer l’expérience de la conscience. Au lieu de cela, des propriétés mentales supplémentaires doivent expliquer le sentiment d’être conscient. Comprendre comment ces propriétés mentales apparaissent est connu comme le « problème difficile » de la conscience.

Mais j’ai un léger problème avec les zombies de Chalmers. Les zombies sont censés être capables de poser n’importe quelle question sur la nature de l’expérience. Il convient toutefois de se demander comment une personne ou une machine dépourvue d’expérience pourrait réfléchir à une expérience qu’elle n’a pas. Dans un épisode du podcast Making Sense avec le neuroscientifique et auteur Sam Harris, Chalmers a abordé cette question. « Je ne pense pas qu’il soit particulièrement difficile de concevoir au moins un système faisant cela », a déclaré Chalmers à Harris. « Je veux dire, je suis en train de vous parler, et vous faites beaucoup de commentaires sur la conscience qui semblent fortement suggérer que vous l’avez. Pourtant, je peux au moins envisager l’idée que vous n’êtes pas conscient et que vous êtes un zombie qui ne fait en fait que faire tous ces bruits sans avoir aucune conscience à l’intérieur. »

Il ne s’agit pas d’une question strictement théorique. Si DeepMind de Google développe une IA qui commence à demander, par exemple, pourquoi la couleur rouge est rouge et pas autre chose, il n’y a que quelques explications possibles. Peut-être a-t-elle entendu la question de quelqu’un d’autre. Il est possible, par exemple, qu’une IA apprenne à poser des questions sur la conscience simplement en lisant des articles sur la conscience. Elle pourrait aussi avoir été programmée pour poser cette question, comme un personnage de jeu vidéo, ou bien elle pourrait avoir émis la question à partir d’un bruit aléatoire. Il est clair que le fait de poser des questions sur la conscience ne prouve rien en soi. Mais une IA zombie pourrait-elle formuler de telles questions par elle-même, sans les entendre d’une autre source ou les éructer à partir de sorties aléatoires ? Pour moi, la réponse est clairement non. Si j’ai raison, alors nous devrions sérieusement envisager qu’une IA puisse être consciente si elle pose des questions sur l’expérience subjective sans y être invitée. Comme nous ne saurons pas s’il est éthique de débrancher une telle IA sans savoir si elle est consciente, nous ferions mieux de commencer à écouter de telles questions dès maintenant.

Le XXIe siècle a grand besoin d’un test de Turing pour la conscience.

Nos expériences conscientes sont composées de qualia, les aspects subjectifs de la sensation – la rougeur du rouge, la douceur du doux. Les qualia qui composent les expériences conscientes sont irréductibles, incapables d’être mis en correspondance avec quoi que ce soit d’autre. Si je naissais aveugle, personne, aussi articulé soit-il, ne serait jamais capable de me donner une idée de la couleur que partagent le sang et les roses. Cela serait vrai même si je faisais partie d’un certain nombre d’aveugles qui développent ce qu’on appelle la cécité, c’est-à-dire la capacité d’éviter les obstacles et de deviner avec précision l’emplacement des objets sur un écran d’ordinateur malgré leur cécité.

La cécité semble démontrer que certains comportements peuvent être purement mécanisés, pour ainsi dire sans conscience subjective, faisant écho à la notion de zombie de Chalmers. Le cerveau des personnes atteintes de cécité semble exploiter des zones préconscientes du système visuel, ce qui permet d’obtenir un comportement de voyant sans expérience visuelle. Cela se produit souvent après qu’une personne a subi un accident vasculaire cérébral ou une autre lésion du cortex visuel, la partie du cortex cérébral qui traite les informations visuelles. Comme les yeux de la personne sont encore sains, ils peuvent transmettre des informations cachées à certaines régions du cerveau, comme le colliculus supérieur.

De même, il existe au moins quelques cas documentés de surdité auditive. L’un de ces cas, détaillé dans un rapport de Psychologie philosophique de 2017, est le patient LS, un homme sourd depuis la naissance, mais capable de discriminer les sons en fonction de leur contenu. Pour les personnes telles que LS, ce discernement se fait dans le silence. Mais si une personne sourde et malentendante posait le genre de questions que les personnes entendantes posent – « Ce son n’est-il pas étrangement cuivré ? » – nous aurions de bonnes raisons de penser que cette personne n’est pas sourde du tout. (Nous ne pourrions pas en être absolument sûrs, car la question pourrait être une farce.) De même, si une IA commençait à poser, sans y être invitée, le genre de questions que seul un être conscient pourrait poser, nous aurions de bonnes raisons de soupçonner que l’expérience subjective est en ligne.

Le XXIe siècle a grand besoin d’un test de Turing pour la conscience. L’IA apprend à conduire des voitures, à diagnostiquer le cancer du poumon et à écrire ses propres programmes informatiques. La conversation intelligente n’est peut-être plus qu’à une ou deux décennies de distance, et la future super-IA ne vivra pas en vase clos. Elle aura accès à l’Internet et à tous les écrits de Chalmers et d’autres philosophes qui ont posé des questions sur les qualia et la conscience. Mais si les entreprises technologiques testent les IA sur un intranet local, isolé de ces informations, elles pourraient mener un entretien de type test de Turing pour détecter si les questions sur les qualia ont un sens pour l’IA.

Que pourrions-nous demander à un esprit potentiel né de la Sillicon ? La façon dont l’IA répond à des questions comme « Et si mon rouge était ton bleu ? » ou « Pourrait-il y avoir une couleur plus verte que le vert ? » devrait nous en dire long sur ses expériences mentales, ou leur absence. Une IA ayant une expérience visuelle pourrait envisager les possibilités suggérées par ces questions, en répondant peut-être : « Oui, et je me demande parfois s’il n’existe pas aussi une couleur qui mélange le rouge du rouge et le froid du bleu ». D’un autre côté, une IA dépourvue de qualia visuelle pourrait répondre : « C’est impossible, le rouge, le vert et le bleu existent chacun sous la forme de longueurs d’onde différentes ». Même si l’IA tente de jouer le jeu ou de nous tromper, des réponses telles que « Intéressant, et si mon rouge est votre hamburger ? » montreraient qu’elle n’a pas compris.

(…)

Construire un détecteur de conscience n’est pas une mince affaire. Parallèlement à ce test de Turing, les chercheurs de demain appliqueront probablement les théories abstraites de la conscience d’aujourd’hui pour tenter de déduire l’existence de la conscience à partir du schéma de câblage d’un ordinateur. L’une de ces théories prend en compte la quantité d’informations intégrées par un cerveau ou un autre système, et est déjà appliquée pour déduire l’existence de la conscience chez des patients souffrant de lésions cérébrales et même dans des bancs de poissons. En effet, avant même que la motivation à détecter une conscience artificielle ne permette de mobiliser des fonds importants pour ce type de recherche, la nécessité de détecter la conscience chez les patients souffrant de lésions cérébrales a déjà effacé le mot « C » de la liste des tabous de la science.

Mon propre laboratoire, dirigé par Martin Monti à l’université de Californie à Los Angeles, s’efforce d’améliorer la vie des patients souffrant de lésions cérébrales en développant de meilleurs moyens de déduire la conscience à partir de l’activité électrique ou métabolique du cerveau. Tout comme des tragédies éthiques surviennent lorsque nous débranchons des patients conscients mais sans réaction, des tragédies similaires surviendront si nous débranchons la conscience artificielle. Et tout comme mon laboratoire de l’UCLA établit un lien entre les mesures théoriques de la conscience et le comportement des patients souffrant de lésions cérébrales sur leur lit d’hôpital, les futurs chercheurs devront établir un lien entre les mesures théoriques de la conscience artificielle et les performances d’une IA dans un domaine proche du test de Turing. Lorsque nous refermons le manuel à la fin de la journée, nous devons encore considérer la seule question à laquelle les zombies ne peuvent pas répondre.

Vous pouvez lire l’intégralité de l’article ici.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.