Les chercheurs de Google ont mis au point une façon de regarder dans l’esprit des systèmes d’apprentissage en profondeur, et les résultats sont curieusement bizarres.

Ce qu’ils ont fait: L’équipe a mis au point un outil qui combine plusieurs techniques pour donner aux gens une idée plus claire de la façon dont les réseaux neuronaux prennent les décisions. Appliqué à la classification des images, il permet de visualiser comment le réseau développe sa compréhension de ce qu’est, par exemple, un chaton ou un Labrador. Les visualisations ci-dessus sont… étranges.

Pourquoi est-ce important: L’apprentissage profond est puissant, mais opaque. C’est un problème si on veut, par exemple, qu’une voiture nous conduise. Le fait de pouvoir visualiser les décisions qui sous-tendent la reconnaissance d’images pourrait aider à comprendre pourquoi un véhicule autonome a commis une grave erreur. De plus, les humains ont tendance à vouloir savoir pourquoi une décision a été prise, même si elle était correcte.

Mais: tout le monde ne pense pas que les machines doivent s’expliquer. Lors d’un récent débat, Yann Lecunn, qui dirige la recherche sur l’IA de Facebook, a soutenu que nous devrions simplement nous concentrer sur leur comportement. Après tout, on ne peut pas toujours expliquer les décisions que prennent les humains.

Laisser un commentaire