La façon dont nous formons l’IA est fondamentalement imparfaite

Si vous voulez avoir une bonne idée (ou une nouvelle preuve) du type d’IA à un stade précoce (à moitié préparée ?) qui est créé et utilisé dans la société en ce moment, celle-ci est excellente. Le problème connu sous le nom de « data shift » (décalage entre les tests et les données réelles) est déjà bien connu. Aujourd’hui, 40 chercheurs de Google constatent que la sous-spécification est un problème important. Dans un domaine qui rappelle les discussions autour des boîtes noires, ils ont découvert que de nombreux modèles peuvent être testés avec succès, mais se révèlent ensuite totalement inefficaces ou présentent des performances très variables dans le monde réel. Parfois simplement parce que les données de l’entraînement aléatoire étaient légèrement différentes. Conclusion peu surprenante : ils doivent tester beaucoup plus et s’améliorer dans la spécification des exigences à l’avance. « D’uh ! » Ça me vient à l’esprit.

Le processus d’apprentissage peut produire de nombreux modèles différents qui passent tous le test, mais – et c’est la partie cruciale – ces modèles différeront de manière petite et arbitraire, en fonction de choses comme les valeurs aléatoires données aux nœuds dans un réseau de neurones avant le début de l’apprentissage, la manière dont les données d’apprentissage sont sélectionnées ou représentées, le nombre d’entraînements, etc.

En d’autres termes, le processus utilisé pour construire la plupart des modèles d’apprentissage machine aujourd’hui ne peut pas dire quels modèles fonctionneront dans le monde réel et lesquels ne fonctionneront pas.

Via Techreview

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.