Un pionnier de l’IA veut que ses algorithmes comprennent le  » pourquoi « 

L’apprentissage en profondeur ou deep learning est bon pour trouver des modèles dans des rames de données, mais ne peut pas expliquer comment elles sont reliées. Yoshua Bengio, lauréat du prix Turing, veut changer cela, raconte Wired.

En mars, Yoshua Bengio a reçu une part du prix Turing, la plus haute distinction en informatique, pour sa contribution au développement de l’apprentissage profond – la technique qui a déclenché une renaissance de lintelligence artificielle, entraînant des progrès dans la conduite automobile, la traduction vocale en temps réel et la reconnaissance faciale.

Maintenant, Bengio dit que le deep learning doit être réparé. Il croit qu’il ne réalisera pas tout son potentiel et qu’il ne produira pas une véritable révolution de l’IA tant qu’il ne pourra pas aller au-delà de la reconnaissance de formes et en apprendre davantage sur les causes et les effets. En d’autres termes, dit-il, l’apprentissage profond doit commencer à se demander pourquoi les choses arrivent.

Le professeur de 55 ans de l’Université de Montréal dit que l’apprentissage profond fonctionne bien dans des situations idéalisées, mais qu’il ne parvient pas à reproduire l’intelligence humaine sans être capable de raisonner sur les relations causales. « C’est important d’intégrer la[causalité] à l’IA « , dit Bengio. « Les approches actuelles de l’apprentissage machine supposent que le système d’IA formé sera appliqué sur le même type de données que les données de formation. Dans la vraie vie, ce n’est souvent pas le cas. »

Les systèmes d’apprentissage machine, y compris l’apprentissage profond, sont très spécifiques, formés pour une tâche particulière, comme la reconnaissance des chats dans les images, ou les commandes vocales dans l’audio. Depuis son apparition sur la scène vers 2012, l’apprentissage en profondeur a démontré une capacité particulièrement impressionnante à reconnaître les tendances dans les données ; il a été utilisé à de nombreuses fins pratiques, de la détection des signes de cancer dans les scanners médicaux à la découverte de la fraude dans les données financières.

Mais l’apprentissage profond est fondamentalement aveugle à la cause et à l’effet. Contrairement à un vrai médecin, un algorithme d’apprentissage profond ne peut pas expliquer pourquoi une image particulière peut suggérer une maladie. Cela signifie que l’apprentissage en profondeur doit être utilisé avec prudence dans les situations critiques.

Comprendre les causes et les effets rendrait les systèmes d’IA existants plus intelligents et plus efficaces. Un robot qui comprend que c’est en laissant tomber des objets qu’ils se brisent n’aurait pas besoin de jeter des douzaines de vases sur le sol pour voir ce qui lui arrive.

Bengio dit que l’analogie s’étend aux voitures qui se conduisent seules. « Les humains n’ont pas besoin de vivre avec de nombreux exemples d’accidents pour conduire prudemment « , dit-il. Ils n’ont qu’à imaginer les accidents, « pour se préparer mentalement si c’était le cas ».

La question est de savoir comment donner cette capacité aux systèmes d’IA.

Dans son laboratoire de recherche, Bengio travaille sur une version de l’apprentissage profond capable de reconnaître de simples relations de cause à effet. Lui et ses collègues ont récemment publié un document de recherche décrivant l’approche. Ils ont utilisé un ensemble de données qui cartographient les relations de cause à effet entre des phénomènes du monde réel, comme le tabagisme et le cancer du poumon, en termes de probabilités. Ils ont également généré des ensembles de données synthétiques sur les relations causales.

L’algorithme utilisé dans cet article forme essentiellement une hypothèse sur les variables en relation de cause à effet, puis teste l’adéquation entre les changements des différentes variables et la théorie. Le fait que le tabagisme n’est pas seulement lié au cancer, mais qu’il en est la cause, par exemple, devrait toujours être apparent même si le cancer est lié à d’autres facteurs, comme les visites à l’hôpital.

Un robot pourrait éventuellement utiliser cette approche pour former une hypothèse sur ce qui se passe lorsqu’il laisse tomber quelque chose, puis confirmer son intuition lorsqu’il voit plusieurs choses s’écraser sur le sol.

Bengio a déjà transformé l’IA une fois. Au cours des dernières décennies, il a aidé à développer les idées et les techniques d’ingénierie qui ont libéré le potentiel de l’apprentissage profond, en collaboration avec les autres lauréats du Prix Turing de cette année : Geoffrey Hinton, de l’Université de Toronto et Google, et Yann LeCun, qui travaille à NYU et sur Facebook.

L’apprentissage profond utilise des réseaux neuronaux artificiels pour se rapprocher mathématiquement de la façon dont les neurones et les synapses humains apprennent en formant et en renforçant les connexions. Les données d’entraînement, telles que les images ou l’audio, sont transmises à un réseau neuronal, qui est progressivement ajusté jusqu’à ce qu’il réagisse correctement. Un programme d’apprentissage en profondeur peut être entraîné à reconnaître des objets sur des photographies avec une grande précision, à condition qu’il voit beaucoup d’images d’apprentissage et qu’il dispose d’une grande puissance de calcul.

Mais les algorithmes d’apprentissage profond ne sont pas bons pour généraliser ou pour appliquer ce qu’ils ont appris dans un contexte à un autre. Ils capturent aussi des phénomènes qui sont corrélés – comme le chant du coq et le lever du soleil – sans égard à la cause de l’autre.

La causalité a longtemps été étudiée dans d’autres domaines, et des techniques mathématiques sont apparues au cours des dernières décennies pour explorer les relations causales, contribuant à révolutionner l’étude de domaines comme les sciences sociales, l’économie et l’épidémiologie. Un petit groupe de chercheurs travaille à combiner causalité et apprentissage machine.

Judea Pearl, qui a remporté le Prix Turing en 2011 pour son travail sur le raisonnement causal, se dit impressionné par les idées de Bengio, bien qu’il ne les ait pas étudiées attentivement. Un livre récent co-écrit par Pearl, The Book of Why : La nouvelle science des causes et des effets démontre que l’IA sera fondamentalement limitée sans une certaine capacité de raisonnement causal.

Les expériences en sciences cognitives montrent également que la compréhension des causes et des effets est fondamentale pour le développement humain et l’intelligence, bien qu’il ne soit pas clair comment les humains forment ces connaissances.

Le travail de Bengio sur la causalité est peut-être un petit pas vers la réponse à cette question, mais il reflète aussi plus de réalisme autour de l’apprentissage profond. Même si les applications de la technique se sont multipliées, un nombre croissant d’experts ont souligné les limites de la technologie dans des domaines critiques comme la compréhension du langage.

Dans l’interview, Bengio a également exprimé une certaine frustration face à la façon dont les entreprises exagèrent les capacités de l’IA et de l’apprentissage profond. « Je pense que ce serait une bonne chose s’il y avait une correction dans le monde des affaires, parce que c’est là que le battage médiatique se fait sentir « , dit-il.

D’autres croient que l’accent mis sur l’apprentissage profond peut faire partie du problème. Gary Marcus, professeur émérite à l’Université de New York et auteur d’un livre récent, top 1 des ventes, qui souligne les limites de l’apprentissage profond, Rebooting AI : Building Artificial Intelligence We Can Trust, dit que l’intérêt de Bengio pour le raisonnement causal indique un changement bienvenu dans sa pensée.

« Trop d’apprentissage en profondeur s’est concentré sur la corrélation sans causalité, ce qui laisse souvent les systèmes d’apprentissage en profondeur perdus lorsqu’ils sont testés dans des conditions qui ne sont pas tout à fait les mêmes que celles sur lesquelles ils ont été formés,  » dit-il.

Marcus ajoute que la leçon de l’expérience humaine est évidente. Quand les enfants demandent  » pourquoi « , ils s’interrogent sur la causalité, dit-il. « Quand les machines commenceront à demander pourquoi, elles seront beaucoup plus intelligentes. »

Via Wired

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.