L’intelligence artificielle, plus que la plupart des autres domaines de recherche, est dominée par les entreprises. Et aucune entreprise n’est plus dominante dans le domaine de l’IA qu’Alphabet, la société mère de Google et son laboratoire frère DeepMind, spécialisé dans l’IA. Ensemble, les laboratoires de ces sociétés représentent deux fois plus de recherches publiées lors de conférences sur l’IA comme NeurIPS que toute autre société ou université.
Mais ces dernières semaines ont fourni une étude de cas sur les dangers de confier tant de recherches en IA à des entreprises de Big Tech. Le 30 novembre, DeepMind a annoncé une percée dans son modèle de prédiction du repliement des protéines AlphaFold. La société s’est attiré les critiques des universitaires parce qu’elle a fait sa déclaration sans publier ses résultats dans un article révisé par des pairs. Puis le 3 décembre, le célèbre éthicien de l’IA Timnit Gebru a annoncé que Google l’avait écartée de son poste de co-directrice de l’équipe d’intelligence artificielle éthique de la société. Ces deux histoires soulèvent des questions de responsabilité, mais en raison des coûts de calcul massifs associés à la formation des modèles d’IA, la recherche se concentre dans les mains d’un petit nombre d’institutions.