En faisant la distinction entre les faits scientifiques et l’engouement pour la science: à quelle distance se situe la singularité?

Si/Quand les machines prennent le relais

Le terme « intelligence artificielle » vient tout juste d’être inventé il y a une soixantaine d’années, mais aujourd’hui, nous ne manquons pas de spécialistes qui réfléchissent à l’avenir de l’intelligence artificielle. La singularité technologique, moment où les machines atteignent un niveau d’intelligence supérieur à celui de l’homme, est au premier plan des thèmes abordés.

Aujourd’hui confinée à la science-fiction, la singularité ne semble plus sortir du domaine du possible. Qu’il s’agisse de grandes entreprises technologiques comme Google et IBM ou de dizaines de petites entreprises en démarrage, certaines des personnes les plus intelligentes au monde se consacrent à faire progresser les domaines de l’IA et de la robotique. Maintenant, nous avons des robots d’apparence humaine qui peuvent tenir une conversation, lire des émotions – ou du moins essayer de le faire – et s’engager dans un type de travail ou un autre.

Le meilleur parmi les experts de premier plan convaincus que la singularité est un avenir proche de l’inévitable est Ray Kurzweil, directeur de l’ingénierie de Google. Le futuriste et  » futur conteur  » très estimé prévoit que nous l’atteindrons avant 2045.

Pendant ce temps, le PDG de SoftBank Masayoshi Son, un futuriste bien connu, est convaincu que la singularité se produira au cours de ce siècle, peut-être dès 2047. Entre les acquisitions stratégiques de son entreprise, dont la startup en robotique Boston Dynamics, et les milliards de dollars en financement technologique, on peut dire sans se tromper qu’aucune autre personne n’est aussi désireuse d’accélérer le processus.

Cependant, tout le monde n’attend pas avec impatience la singularité. Certains experts craignent que des machines super-intelligentes ne mettent fin à l’humanité telle que nous la connaissons. Ces mises en garde viennent du physicien Stephen Hawking et du directeur général et fondateur de Tesla, Elon Musk, qui a pris des risques pour son attitude « apocalyptique » à l’égard de l’IA et de la singularité.

Manifestement, le sujet est source de discorde et c’est pourquoi le Futurisme a décidé de rassembler les réflexions d’autres experts dans l’espoir de séparer la science-fiction des développements actuels de l’IA. Voici à quel point ils pensent que nous sommes proches de la singularité.

Louis Rosenberg, PDG, AI à l’unanimité:

Mon point de vue, comme je l’ai décrit dans mon exposé sur la TED de cet été, est que l’intelligence artificielle deviendra consciente de soi-même et dépassera les capacités humaines, un jalon que beaucoup appellent la singularité. Pourquoi suis-je si sûr que ça va arriver? Simple. Mère Nature a déjà prouvé que l’intelligence sensible peut être créée en permettant à un nombre massif d’unités de traitement simples (c. -à-d. les neurones) de former des réseaux adaptatifs (c. -à-d. le cerveau).

Au début des années 1990, lorsque j’ai commencé à réfléchir à cette question, je croyais que l’IA dépasserait les capacités humaines vers 2050. À l’heure actuelle, je crois que cela se produira plus tôt, peut-être dès 2030. C’est très surprenant à mes yeux, car ce genre de prévisions s’éloignent généralement de plus en plus vers l’avenir à mesure que les limites de la technologie se rapprochent, mais celle-ci crie vers nous plus vite que jamais.

Pour moi, la perspective qu’une intelligence artificielle sensible soit créée sur Terre n’est pas moins dangereuse qu’une intelligence extraterrestre venant d’une autre planète. Après tout, elle aura ses propres valeurs, sa propre morale, ses propres sensibilités, et surtout ses propres intérêts.

Assumer que ses intérêts seront alignés sur les nôtres est absurdement naïf, et supposer qu’il ne fera pas passer ses intérêts avant tout – mettant en danger notre existence même – revient à ignorer ce que nous, les humains, avons fait à toutes les autres créatures de la Terre.

Nous devrions donc nous préparer à l’arrivée imminente d’une IA sensible avec le même niveau de prudence que l’arrivée imminente d’un vaisseau spatial venant d’un autre système solaire. Nous devons supposer que c’est une menace existentielle pour notre espèce.

Que pouvons-nous faire? Personnellement, je suis sceptique quant à la possibilité d’empêcher une IA sensible de se manifester. Nous, les humains, nous ne sommes tout simplement pas capables de contenir des technologies dangereuses. Ce n’est pas que nous n’avons pas de bonnes intentions, c’est que nous apprécions rarement les dangers de nos créations tant qu’elles ne se présentent pas ouvertement, alors qu’il est trop tard.

Ça veut dire qu’on est condamnés? Pendant longtemps, j’ai cru que nous étions – en fait, j’ai écrit deux romans graphiques de science-fiction au sujet de notre disparition imminente – mais maintenant, je crois que l’humanité peut survivre si nous nous rendons plus intelligents, beaucoup plus intelligents et rapides… en gardant une longueur d’avance sur les machines.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.