🧹 L’avenir proche

L’optimisation algorithmique entraĂźne une amĂ©lioration exponentielle des performances de l’IA plus rapidement que la loi de Moore, affirme le groupe de recherche sur l’IA, OpenAI. Il faut dĂ©sormais quarante-quatre fois moins de calculs pour construire un rĂ©seau neuronal Ă  la puissance de la percĂ©e 2012 AlexNet. « Les progrĂšs algorithmiques ont permis d’obtenir plus de gains que l’efficacitĂ© matĂ©rielle classique. »

Le point critique ici est que nous constatons des amĂ©liorations de performance sur quatre axes diffĂ©rents dans le calcul de l’apprentissage machine : une efficacitĂ© algorithmique accrue, des amĂ©liorations de l’architecture matĂ©rielle (comme le matĂ©riel d’IA dĂ©diĂ© de firmes comme Cerebras et Graphcore), des amĂ©liorations de l’architecture des systĂšmes (comme l’apprentissage fĂ©dĂ©rĂ©, qui est combinĂ© avec l’amĂ©lioration du silicium en bout de chaĂźne comme les puces A13 d’Apple ou les puces analogiques pour l’apprentissage machine) et les vastes ressources disponibles dans le nuage.

En ce qui concerne l’intĂ©gration de plus de composants sur une mĂȘme plaquette de silicium, la loi de Moore peut ĂȘtre bĂ©gaiement, l’amĂ©lioration exponentielle de la capacitĂ© de traitement ne l’est pas.

Via OpenAI

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.