Qui va protéger l’intelligence Artificielle de l’humanité ?

Le trope de science-fiction commune est que l’AI devienne sensible et se retourne contre nous. Mais si nous pouvons créer des robots de pensée, quels droits auront-ils, et qui les appliquera ?

Les progrès récents dans la robotique et l’intelligence artificielle ont brouillé la ligne entre l’homme et la machine. Après plus de 50 années de recherche, l’intelligence artificielle (IA) n’est pas tout à fait adaptée à leurs analogues biologiques, mais ils sont en cours de rattrapage: le camion d’auto-conduite de Uber a conduit 2.000 caisses de bière à plus de 120 miles, Google sait presque exactement ce que nous recherchons avant que nous ayons tapé la requête intégrale ; et beaucoup d’ entre nous parlent naturellement à des assistants robots. Ceci n’est que le début.

Alors que la technologie s’améliore, notre vision du monde doit évoluer pour suivre le rythme. Il est temps de commencer à parler sérieusement de l’éthique dans l’IA.

L’ intelligence artificielle a toujours été séduisante et terrifiante à la fois. Pour certains, c’est une panacée qui va « faire du monde un meilleur endroit » ; pour d’ autres, elle laisse présager « notre invention finale », la boîte de Pandore moderne qui va commencer par nous rendre sans travail, et finir par anéantir notre espèce.

Il est donc important que les leaders de l’ industrie comme Google organisent des comités d’éthique pour guider la révolution à venir / apocalypse. Nous devons protéger notre vie privée et nous-mêmes. Pourtant , la science-fiction populaire comme Westworld et Ex Machina soulève une question difficile qui est souvent négligée dans les conversations sur l’ éthique AI: qui va protéger l’ intelligence artificielle de nous ?

La science-fiction fournit des exemples frappants de l’homme qui se comporte mal envers l’AI. Dans Ex Machina, Ava est un androïde féminine créée par un type inspiré de Zuckerberg. Elle possède des qualités remarquables de « l’ humanité » , y compris la sensibilité, la mémoire, et un désir de liberté, si bien que l’homme tombe amoureux d’elle. Mais il la tient prisonnière : son créateur tient sa captive, son essai comme un rat de laboratoire.

HBO Westworld a lieu dans un parc à thème futuriste où les invités humains et riches vivent leurs plus sombres fantasmes avec l’aide d’androïdes artificiellement intelligents appelés « hôtes ». Les hôtes sont utilisés comme des accessoires et des jouets pour soutenir les expériences des clients, tandis que le public les regarde développer quelque chose comme une conscience. Comme le spectacle et cette conscience naissante se déroulent, les hôtes commencent à remettre en question la nature de leur existence et leur but dans le parc.

Bien que nous soyons loin d’exister aux côtés de ce niveau de l’intelligence artificielle, la science-fiction peut inviter la pensée profonde dans les énigmes éthiques qui se présenteront bientôt pour l’AI.  Quelles sont nos responsabilités envers cette création?

Il n’y a pas de réponses faciles.

Une approche utile serait de travailler à l’envers des gens: pensez à la raison pour laquelle nous avons des droits, quelles sont les qualités inhérentes de nous faire « méritants » de ces droits, et si une IA pourrait jamais posséder ces qualités. En d’autres termes, qu’est-ce qui rend l’homme si spécial?

Certains diront que le croquis de l’ingénieur ci-dessus laisse à désirer, que les humains sont distincts des machines dans au moins un point fondamental: nous sommes vivants. Malheureusement, il n’y a pas de définition concrète pour « être en vie ». « La vie » est caractéristique des systèmes qui présentent plusieurs attributs, y compris l’organisation, la croissance, l’adaptation, la réponse à des stimuli, et la reproduction. Laissant l’ambiguïté dans la terminologie de côté, la « vie » ne peut pas être une condition suffisante pour la possession des droits parce qu’il y a des choses qui vivent: les plantes, les insectes, la plupart des animaux.

D’ autres soutiennent que l’élément fondamentale de l’expérience humaine, ce qui nous apporte nos droits inaliénables, est la conscience. La phrase la plus célèbre de la philosophie suggère : Cogito ergo sum -Je pense donc je suis. Ce sont les créatures conscientes de leur bien-être et de leur souffrance que nous cherchons à protéger. La racine du mot « animal » est « anima », apparenté latin du mot grec « psyché ». L’esprit conscient semble être l’essence de ce que nous sommes et ce que nous protégeons par des droits universels.

Mais la conscience est encore plus glissante que la vie. Elle est diversement définie comme la conscience subjective, la capacité d’éprouver le « sentiment » ou la compréhension du concept de « soi ». Toutes ces déclarations semblent vagues, inadéquates. C’est pour cette raison que la conscience a été appelée « l’aspect le plus familier et le plus mystérieux de notre vie ». Pourtant, si nous adhérons à la vision du monde matérialiste, nous devons admettre que la conscience naît de processus purement physiques. Il n’y a pas de magie.

Prenez un moment pour réfléchir sur les sentiments que nous sommes conscients de ressentir comme la douleur. Il y a une scène dans Terminator 2 où John Connor demande à son protecteur robotique, « est-ce que ça fait mal quand tu prends un coup ? » Terminator répond: « Je sens des blessures, les données pourraient être appelés douleur ». Les matérialistes comme Thomas Hobbes seraient probablement d’accord. Peut-être que la douleur est tout simplement la confluence de deux signaux: l’un indiquant un stimulus externe négatif et l’autre dans le but de l’auto-préservation. En ce moment, nous savons juste que ça fait mal. Physiologiquement, les sentiments, les pensées et les désirs tous émergent des interactions des neurones accumulés par l’esprit. Des créatures simples comme les fourmis travaillent ensemble pour créer des colonies d’une grande complexité , sans aucune instruction d’un plus haut niveau, de sorte que les neurones individuels du cerveau pourraient travailler ensemble pour donner naissance au phénomène de la conscience.

Dans l’apprentissage en profondeur, nous simulons (à des degrés de fidélité biologique variables) l’interaction des neurones tout le temps. Il n’y a aucune raison pour laquelle les neurones artificiels en silicium (ou quoi que nos futures puces seront faites) ne pourraient pas interagir de la même façon que les neurones biologiques de la chair. Ergo, la machine conscience est tout à fait plausible.

La langue est l’un des instruments les plus importants de la pensée.

Alan Turing, le père de l’informatique moderne, pensait de même. Le point crucial de son « jeu d’imitation , maintenant appelé le test de Turing, était qu’une machine pourrait être dite posséder l’intelligence et pourrait duper une personne en lui faisant croire qu’elle est humaine. Elle y parviendrait à travers une conversation en langage naturel. La pensée va: si on peut parler comme nous, on peut penser comme nous. Etape suivante: Si l’ on peut penser comme nous, on devrait partager nos droits. Le problème est de déterminer quand une IA a atteint la capacité de penser. À quel point une IA méritent des droits ? Même si nous en décidons via des critères comme la conscience, comment pouvons-nous la mesurer ? Il a été démontré, par exemple, que le test de Turing est insuffisant car il a été « adopté » par des systèmes simples comme le bot Eugene Goostman, un chatbot qui prétendait être un enfant 13 ans ukrainien. Il est alors essentiel d’un point de vue éthique de concevoir la prochaine génération de tests de Turing. L’antagoniste de Ex Machina a travaillé de manière obsessionnelle pour atteindre cet objectif, mais pour lui les extrémités justifient les terribles moyens.

Les efforts visant à mesurer la conscience de la machine seront compliqués par la possibilité que les machines puissent un jour penser, mais pas du tout comme nous. Nos esprits ont vu le jour grâce à des processus évolutifs qui nous ont adaptés pour la survie et l’interaction sociale. Il est presque impossible d’imaginer comment on pourrait penser si nous n’avions pas été façonnés par ces motifs, mais nous formons actuellement des systèmes d’IA à travers des mécanismes tout à fait différents. Ludwig Wittgenstein a dit: « Si un lion pouvait parler, nous ne pourrions pas le comprendre. » C’est peut être le cas avec l’AI. Wittgenstein en est venu à l’idée que la communication par le langage dépend beaucoup de points communs de référence. On ne sait pas ce qu’ils seront pour les humains et les machines. D’autre part, nous pouvons espérer que, sans le désir profond de survivre à tout prix, les machines intelligentes pourraient ne pas avoir l’intention de nous détruire comme la plupart des dystopies de science-fiction supposent.

Tout est étroitement lié à la conscience de la notion d’identité. Il semble qu’une grande partie de la valeur d’une vie humaine découle de son caractère unique. Une IA pourrait ne jamais être unique, en particulier si elle était produite en masse ? Encore une fois: qu’est-ce qui rend l’homme unique ? Au-delà du superficiel comme nos visages et les empreintes digitales, la principale source de notre individualité est la mémoire.

L’antagoniste AI dans Blade Runner dit : « J’ai vu des choses que vous les gens ne voulaient pas croire. » Les androïdes de Westworldprennent une étape importante vers la conscience au niveau humain quand ils acquièrent la capacité de se souvenir. Ces exemples de science-fiction nous rappellent qu’en tant qu’individus, nous sommes des collectionneurs de souvenirs. Nous consommons l’information, l’organisons, et l’ajoutons à nous – mêmes, comme nous le faisons métaboliquement avec de la matière et de l’ énergie. Les souvenirs ont un sens parce qu’ils nous changent, ils font une impression, avec toutes les connotations mécaniques de ce mot. Les souvenirs modifient la façon dont nous nous comportons et percevons les événements, et puisque chacun de nous commence à un endroit différent à un autre moment, la mémoire de chacun est unique.

Comme un enregistrement interne de l’expérience humaine, la mémoire présente également un pont intéressant entre l’homme et la machine. Considérez les thèmes en jeu dans « Be Right Back, » un épisode de la série Black Mirror. Un amant en deuil utilise un service qui recrée son fiancé mort pour marcher, parler, un android construit à partir des souvenirs et des clips audio. Cette histoire fictive est reflétée dans la vie réelle lorsqu’un entrepreneur a créé un chatbot de son ami décédé en utilisant un fond des messages texte de son ami pour le créer. Dans ces cas, un système artificiel simule ou active vraiment les hôtes ?. Il est un juste milieu qui fait clairement la possibilité que « l’ humanité » existe sur un spectre. Faut-il pour être un spectre similaire en droits, une simple couverture allant de personnes à des clones numériques en AI ? Encore une fois on se heurte à la question de la mesure.

Compte tenu de son rôle dans l’intelligence, il ne devrait pas être surprenant que la mémoire est l’ une des prochaines frontières pour l’ apprentissage en profondeur. Il a été constaté qu’un ensemble lisible et inscriptible de neurones « mémoire » peut augmenter considérablement la puissance de nos modèles à comprendre et à raisonner. Comme ces modèles apprennent et enregistrent leurs expériences en mémoire, deviennent-ils des individus dans un certain sens ? Gagnent-ils en identité ?

L’ histoire nous montre qu’il est dangereusement facile de nier l’identité et les droits de ceux que nous ne comprenons pas pleinement. Westworld et Ex Machina évincent notre tendance à traiter nos inventions comme notre propriété: Dolores est utilisée comme une coquille pour amateurs de sensations fortes à haut salaire ; Ava existe principalement pour prouver le génie de son créateur. Pour le meilleur ou le pire, nous prenons propriété des choses que nous créons. La clé sera de reconnaître quand l’AI aura suffisamment évolué au-delà de l’outil qu’elle est maintenant en une chose qui ne peut pas être possédée. Heureusement, nous avons le temps d’y penser, les androïdes de science-fiction ne sont pas encore élaborés dans un laboratoire quelque part. Mais un jour l’AI sera comme l’un de nos animaux de compagnie. Finalement, elles seront nos partenaires. Comme de bons parents, nous devons être vigilants, les nourrir à mesure qu’ils grandissent, et finalement les laisser aller.

 

Mais l’humain, à cette étape-là comment sera-t-il ? Quelle conscience pessimiste le rongera ? Ne souhaitera-t-il pas réduire ses émotions, ne souhaitera-t-il pas se libérer de ses tourments et désirer etre réduit à un robot ? Quelles grandes erreurs ne sont pas faites à cause de nos faiblesses humaines ? Dans un monde futur de performance, l’humain ne sera-t-il pas un déchet de la production ? Ne sera-t-il pas réduit à produire de l’art ? Domaine de communication que l’AI ne comprendra pas…

(FastCompagny)

3 commentaires sur “Qui va protéger l’intelligence Artificielle de l’humanité ?”

    1. C’est une reprise d’un article en effet. Sans doute ‘mal traduit’ car je ne souhaite pas toujours reprendre tous les éléments. Je m’inspire aussi sur Singularity Hub entre autres pour avancer certaines opinions personnelles.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.