Publicités

La technique de l’intelligence artificielle qui pourrait donner aux machines la capacité de raisonner

La technique de l’intelligence artificielle qui pourrait donner aux machines la capacité de raisonner

Yann LeCun, scientifique en chef de l’IA sur Facebook, croit que l’apprentissage non supervisé entraînera la prochaine révolution de l’IA.

À l’âge de six mois, un bébé ne battra pas un cil si un camion-jouet sort d’une plate-forme et semble flotter dans les airs. Mais faites la même expérience deux à trois mois plus tard, et elle reconnaîtra instantanément que quelque chose ne va pas. Elle a déjà appris le concept de la gravité.

« Personne ne dit au bébé que les objets sont censés tomber « , a déclaré Yann LeCun, scientifique en chef de l’IA sur Facebook et professeur à NYU, lors d’un webinaire organisé jeudi par l’Association for Computing Machinery, un organisme industriel. Et parce que les bébés n’ont pas un contrôle moteur très sophistiqué, il émet l’hypothèse qu’une grande partie de ce qu’ils apprennent sur le monde passe par l’observation.

Cette théorie pourrait avoir des implications importantes pour les chercheurs qui espèrent repousser les limites de l’intelligence artificielle.

L‘apprentissage profond (deep learning), la catégorie d’algorithmes d’IA qui a donné le coup d’envoi de la plus récente révolution dans le domaine, a fait d’immenses progrès en donnant aux machines des capacités perceptuelles comme la vision. Mais elle n’a pas réussi à leur inculquer un raisonnement sophistiqué, fondé sur un modèle conceptuel de la réalité. En d’autres termes, les machines ne comprennent pas vraiment le monde qui les entoure, ce qui les empêche de s’y engager. De nouvelles techniques aident à surmonter cette limitation – par exemple, en donnant aux machines une sorte de mémoire de travail pour qu’en apprenant et en élaborant des faits et des principes de base, elles puissent les accumuler pour les utiliser dans leurs interactions futures.

Mais LeCun croit que ce n’est qu’une pièce du puzzle. « Manifestement, il nous manque quelque chose », a-t-il dit. Un bébé peut comprendre un éléphant après avoir vu deux photos, tandis que les algorithmes d’apprentissage profond ont besoin de voir des milliers, voire des millions. Un adolescent peut apprendre à conduire en toute sécurité en pratiquant pendant 20 heures et réussir à éviter les accidents sans en subir un au préalable, tandis que les algorithmes d’apprentissage du renforcement (une sous-catégorie de l’apprentissage profond) doivent passer par des dizaines de millions d’essais, dont de nombreux échecs flagrants.

La réponse, pense-t-il, se trouve dans la sous-catégorie sous-estimée de l’apprentissage profond, connue sous le nom d’apprentissage non supervisé. Alors que les algorithmes basés sur l’apprentissage supervisé et le renforcement sont enseignés pour atteindre un objectif par le biais de l’apport humain, les algorithmes non supervisés extraient des modèles de données entièrement de leur propre initiative. (LeCun préfère le terme « apprentissage autogéré – self-supervised learning » parce qu’il utilise essentiellement une partie des données de formation pour prédire le reste des données de formation.)

Ces dernières années, ces algorithmes ont acquis une grande popularité dans le traitement du langage naturel en raison de leur capacité à trouver les relations entre des milliards de mots. Cela s’avère utile pour construire des systèmes de prédiction de texte comme l’auto-complétion ou pour générer une prose convaincante. Mais la grande majorité de la recherche sur l’IA dans d’autres domaines s’est concentrée sur l’apprentissage supervisé ou renforcé.

LeCun croit que l’accent devrait être mis sur un autre aspect. « Tout ce que nous apprenons en tant qu’êtres humains – presque tout – s’apprend par un apprentissage autogéré. Il y a une mince couche que nous apprenons par l’apprentissage supervisé, et une infime quantité que nous apprenons par l’apprentissage de renforcement « , dit-il. « Si l’apprentissage machine, ou l’IA, est un gâteau, la grande majorité du gâteau est un apprentissage autogéré. »

A quoi cela ressemble-t-il en pratique ? Les chercheurs devraient commencer par se concentrer sur la prédiction temporelle. En d’autres termes, former de grands réseaux neuronaux pour prédire la seconde moitié d’une vidéo lorsqu’on lui donne la première. Bien que tout ne puisse pas être prédit dans notre monde, c’est la compétence de base derrière la capacité d’un bébé de réaliser qu’un camion jouet devrait tomber. « C’est une sorte de simulation de ce qui se passe dans votre tête, si vous voulez, dit LeCun.

Une fois que le domaine aura mis au point des techniques qui permettront d’affiner ces capacités, elles auront aussi d’importantes applications pratiques. « C’est une bonne idée de faire une prédiction vidéo dans le contexte de la conduite automobile, car vous voudrez peut-être savoir à l’avance ce que les autres voitures dans la rue vont faire « , dit-il.

En fin de compte, l’apprentissage non supervisé aidera les machines à mettre au point un modèle du monde qui pourra ensuite prédire l’état futur du monde, a-t-il dit. C’est une noble ambition qui a échappé à la recherche sur l’IA, mais qui ouvrirait la voie à une foule de capacités entièrement nouvelles. LeCun est confiant : « La prochaine révolution de l’IA ne sera pas supervisée. »

Via TechReview

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :