Publicités

À l’avant-garde de la technologie, on s’inquiète d’une concentration du pouvoir

À l’avant-garde de la technologie, on s’inquiète d’une concentration du pouvoir

Chaque grand pas en avant dans l’informatique – de l’ordinateur central à l’ordinateur personnel, en passant par l’Internet et le téléphone intelligent – a ouvert des possibilités à un plus grand nombre de personnes d’inventer à la frontière numérique.

Mais on s’inquiète de plus en plus du fait que la tendance s’inverse à l’égard de l’intelligence artificielle, la nouvelle technologie de pointe de la technologie.

Les informaticiens affirment que la recherche en I.A. devient de plus en plus coûteuse, nécessitant des calculs complexes effectués par des centres de données géants, laissant moins de gens avec un accès facile à la puissance de feu informatique nécessaire pour développer la technologie derrière des produits futuristes comme les voitures auto-pilotantes ou les assistants numériques qui peuvent voir, parler et raisonner.

Le danger, disent-ils, est que la recherche pionnière en intelligence artificielle soit un domaine de nantis et de démunis. Et les nantis seront principalement quelques grandes entreprises technologiques comme Google, Microsoft, Amazon et Facebook, qui dépensent chacune des milliards par an pour construire leurs centres de données.

Dans le camp des démunis, préviennent-ils, il y aura des laboratoires universitaires, qui ont traditionnellement été une source d’innovations qui alimenteront éventuellement de nouveaux produits et services.

« Les énormes ressources informatiques dont disposent ces entreprises représentent une menace – les universités ne peuvent pas être compétitives « , a déclaré Craig Knoblock, directeur exécutif du Information Sciences Institute, un laboratoire de recherche de l’Université de Californie du Sud.

Les mises en garde des chercheurs scientifiques s’inscrivent dans un contexte d’inquiétude croissante quant à la puissance des grandes entreprises de technologie. L’accent a surtout été mis sur la génération actuelle de technologies – recherche, publicité en ligne, médias sociaux et commerce électronique. Mais les scientifiques s’inquiètent d’un obstacle à l’exploration de l’avenir technologique, alors que cela nécessite des quantités astronomiques d’ordinateurs.

Les centres de données modernes des grandes entreprises technologiques sont tentaculaires et secrets. Les bâtiments ont la taille d’un terrain de football, ou plus grand, et abritent des centaines de milliers d’ordinateurs. Les portes sont pare-balles. Les murs sont ignifugés. Les étrangers sont rarement autorisés à entrer.

Ce sont les salles des machines du cloud computing. Elles permettent d’offrir une multitude de divertissements et d’informations aux smartphones et aux ordinateurs portables, et elles permettent à des millions de développeurs d’écrire des applications logicielles basées sur le Cloud.

Mais les chercheurs en intelligence artificielle, en dehors des grandes entreprises technologiques, constatent une tendance inquiétante dans leur domaine. Un rapport récent de l’Allen Institute for Artificial Intelligence, travaillant avec des données d’OpenAI, un autre laboratoire d’intelligence artificielle, a observé que le volume des calculs nécessaires pour être un leader dans des tâches d’I.A. comme la compréhension du langage, le jeu et le raisonnement de bon sens a augmenté d’environ 300.000 fois au cours des six dernières années.

Tout ce carburant informatique est nécessaire pour turbocompresser les modèles de logiciels dits à apprentissage profond, dont les performances s’améliorent avec plus de calculs et plus de données. L’apprentissage profond ou deep learning a été le principal moteur des percées de l’I.A. au cours des dernières années.

« Lorsqu’elle est couronnée de succès, les avantages sont énormes « , a déclaré Oren Etzioni, directeur général de l’Allen Institute, fondé en 2014 par Paul Allen, le cofondateur milliardaire de Microsoft. « Mais le coût de la recherche augmente de façon exponentielle. En tant que société et économie, nous souffrons s’il n’y a qu’une poignée d’endroits où l’on peut être à la pointe du progrès. »

L’évolution d’OpenAI montre l’évolution de l’économie, ainsi que la promesse d’une technologie d’I.A. à apprentissage profond.

Fondé en 2015, avec le soutien d’Elon Musk, OpenAI a commencé comme un laboratoire de recherche à but non lucratif. Son ambition était de développer des technologies à la frontière de l’intelligence artificielle et d’en partager les bénéfices avec le reste du monde. C’était une vision qui suggérait la tradition informatique d’un programmeur inspiré, travaillant seul sur un ordinateur portable, ayant une grande idée.

Ce printemps, OpenAI a utilisé sa technologie pour vaincre l’équipe championne du monde de joueurs humains dans un jeu vidéo complexe appelé Dota 2. Son logiciel a appris le jeu par essais et erreurs constants pendant des mois, l’équivalent de plus de 45 000 ans de jeu.

Les scientifiques d’OpenAI ont réalisé qu’ils sont engagés dans une entreprise plus proche de la physique des particules ou de la simulation météorologique, domaines qui exigent d’énormes ressources informatiques. Pour gagner à Dota 2, par exemple, il a fallu dépenser des millions de dollars pour louer l’accès à des dizaines de milliers de puces informatiques dans les centres de données en cloud gérés par des sociétés comme Google et Microsoft.

« En tant que société et économie, nous souffrons s’il n’y a qu’une poignée d’endroits où vous pouvez être à la fine pointe de la technologie « , a déclaré Oren Etzioni, directeur général de l’Allen Institute pour The New York Times

Plus tôt cette année, OpenAI s’est transformée en une société à but lucratif pour attirer du financement et, en juillet, a annoncé que Microsoft faisait un investissement de 1 milliard de dollars. La majeure partie de l’argent, a dit OpenAI, serait dépensée sur la puissance de calcul dont il avait besoin pour poursuivre ses objectifs, qui incluent toujours le partage des avantages de l’I.A., après avoir remboursé leurs investisseurs.

Dans le cadre de l’accord d’OpenAI avec Microsoft, le géant du logiciel deviendra à terme l’unique source informatique du laboratoire.

« Si vous n’avez pas assez de calcul, vous ne pouvez pas faire une percée », a déclaré Ilya Sutskever, scientifique en chef d’OpenAI.

Les universitaires s’inquiètent également de la puissance consommée par les logiciels d’I.A. avancés. La formation d’un grand modèle d’apprentissage en profondeur peut générer la même empreinte carbone que la durée de vie de cinq voitures américaines, y compris le gaz, trois informaticiens de l’Université du Massachusetts, Amherst, estimé dans un récent article de recherche. (Les grandes entreprises de technologie disent qu’elles achètent autant d’énergie renouvelable qu’elles le peuvent, réduisant ainsi l’impact environnemental de leurs centres de données.)

M. Etzioni et ses coauteurs de l’Institut Allen affirment que l’on pourrait peut-être répondre au moins en partie aux deux préoccupations – au sujet de la consommation d’énergie et du coût de l’informatique – en modifiant la façon dont le succès de la technologie d’I.A. est mesuré.

Selon eux, l’accent mis sur l’exactitude dans ce domaine biaise la recherche le long d’un chemin trop étroit.

L’efficacité devrait également être prise en compte. Ils suggèrent que les chercheurs fassent également état du « coût de calcul » de l’obtention d’un résultat dans le cadre d’un projet.

Depuis la publication de leur article « Green A.I. » en juillet, leur message a trouvé un écho dans la communauté des chercheurs.

Henry Kautz, professeur d’informatique à l’Université de Rochester, a noté que la précision n’est  » en réalité qu’une dimension qui nous intéresse en théorie et en pratique « . D’autres, dit-il, comprennent la quantité d’énergie utilisée, la quantité de données requises et l’effort humain qualifié nécessaire pour que la technologie d’I.A. fonctionne.

Une vision plus multidimensionnelle, a ajouté M. Kautz, pourrait aider à uniformiser les règles du jeu entre les chercheurs universitaires et les informaticiens des grandes entreprises technologiques, si les projets de recherche reposaient moins sur la puissance de calcul brute.

Les grandes entreprises technologiques cherchent à accroître l’efficacité de leurs centres de données et de leurs logiciels d’intelligence artificielle, ce qui, selon elles, rendra la puissance de calcul plus accessible aux développeurs et aux universitaires de l’extérieur.

John Platt, un éminent scientifique de la division d’intelligence artificielle de Google, souligne le développement récent de modèles d’apprentissage profond, EfficientNets, qui sont 10 fois plus petits et plus rapides que les modèles classiques. « Cela démocratise l’utilisation », a-t-il dit. « Nous voulons que ces modèles soient formables et accessibles au plus grand nombre. »

Les grandes entreprises technologiques ont donné des millions de dollars en subventions et en dons aux universités au fil des ans, mais certains informaticiens disent qu’ils devraient faire plus pour combler l’écart entre les nantis et les démunis en recherche sur l’I.A. Aujourd’hui, disent-ils, la relation que les géants de la technologie entretiennent avec les universités est en grande partie une relation d’acheteur, d’embauche de professeurs, d’étudiants diplômés et même d’étudiants de premier cycle.

Les entreprises seraient avisées de fournir également un soutien substantiel à la recherche universitaire, y compris un accès beaucoup plus large à leur richesse informatique – de sorte que la concurrence pour les idées et les percées s’étend au-delà des murs des entreprises, a déclaré Ed Lazowska, un professeur à l’Université de Washington.

Selon M. Lazowska, une relation plus solidaire serait dans l’intérêt de l’entreprise. Sinon, a-t-il dit,  » nous verrons une dilution importante de la capacité de la communauté universitaire à produire la prochaine génération d’informaticiens qui alimenteront ces entreprises « .

À l’Institut Allen de Seattle, a dit M. Etzioni, l’équipe étudiera des techniques pour améliorer l’efficacité de la technologie de l’intelligence artificielle. « C’est un grand coup de pouce pour nous », a-t-il dit.

Mais M. Etzioni a souligné que ce qu’il appelait l’I.A. verte devrait être considérée comme « une opportunité d’ingéniosité supplémentaire, pas une contrainte  » – ou un substitut à l’apprentissage profond, qui repose sur une grande puissance informatique, et qu’il appelle l’I.A. rouge.

En effet, l’Institut Allen vient tout juste d’atteindre un jalon de l’I.A. en répondant correctement à plus de 90 % des questions d’un test scientifique standard de huitième année. Cet exploit a été réalisé avec les outils d’I.A. rouges de l’apprentissage profond.

Via New York Times

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :