L’IA est confrontée à une crise de réplication

Le mois dernier, Nature a publié une réponse accablante écrite par 31 scientifiques à une étude de Google Health qui avait été publiée dans le journal plus tôt cette année. Google décrivait les essais réussis d’une IA qui recherchait des signes de cancer du sein sur des images médicales. Mais selon ses détracteurs, l’équipe de Google a fourni si peu d’informations sur son code et sur la manière dont il a été testé que l’étude n’est rien d’autre qu’une promotion d’une technologie propriétaire.

« Nous n’en pouvions plus », déclare Benjamin Haibe-Kains, l’auteur principal de la réponse, et l’un des scientifiques, de plus en plus nombreux, qui s’élèvent contre le manque de transparence perçu dans la recherche sur l’IA.

La science repose sur une base de confiance, ce qui implique généralement de partager suffisamment de détails sur la manière dont la recherche est menée pour permettre à d’autres de la reproduire, en vérifiant les résultats par eux-mêmes. C’est ainsi que la science s’autocorrige et élimine les résultats qui ne résistent pas. La reproduction permet également aux autres de s’appuyer sur ces résultats, ce qui contribue à faire progresser le domaine.

Le problème n’est pas seulement académique. Un manque de transparence empêche les nouveaux modèles et techniques d’IA d’être correctement évalués en termes de robustesse, de partialité et de sécurité. L’IA passe rapidement des laboratoires de recherche aux applications du monde réel, avec un impact direct sur la vie des gens. Mais les modèles d’apprentissage machine qui fonctionnent bien en laboratoire peuvent échouer dans la nature, avec des conséquences potentiellement dangereuses.

Lire l’article complet.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.