Les chercheurs de Google ont mis au point une façon de regarder dans l’esprit des systèmes d’apprentissage en profondeur, et les résultats sont curieusement bizarres.

Ce qu’ils ont fait: L’équipe a mis au point un outil qui combine plusieurs techniques pour donner aux gens une idée plus claire de la façon dont les réseaux neuronaux prennent les décisions. Appliqué à la classification des images, il permet de visualiser comment le réseau développe sa compréhension de ce qu’est, par exemple, un chaton ou un Labrador. Les visualisations ci-dessus sont… étranges.

Pourquoi est-ce important: L’apprentissage profond est puissant, mais opaque. C’est un problème si on veut, par exemple, qu’une voiture nous conduise. Le fait de pouvoir visualiser les décisions qui sous-tendent la reconnaissance d’images pourrait aider à comprendre pourquoi un véhicule autonome a commis une grave erreur. De plus, les humains ont tendance à vouloir savoir pourquoi une décision a été prise, même si elle était correcte.

Mais: tout le monde ne pense pas que les machines doivent s’expliquer. Lors d’un récent débat, Yann Lecunn, qui dirige la recherche sur l’IA de Facebook, a soutenu que nous devrions simplement nous concentrer sur leur comportement. Après tout, on ne peut pas toujours expliquer les décisions que prennent les humains.

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.