Publicités

Pourquoi Intel voit son avenir dans l’informatique hétérogène

Pourquoi Intel voit son avenir dans l’informatique hétérogène

En 1936, Alan Turing a publié un article révolutionnaire décrivant un ordinateur universel qui pouvait être programmé pour accomplir n’importe quelle tâche. Essentiellement, il a fait valoir que plutôt que d’avoir des machines différentes pour des tâches différentes, une seule machine, utilisant un système de un et de zéros, pourrait être programmée pour faire n’importe quelle tâche.

Aujourd’hui, nous pouvons voir la vision de Turing en grand. La technologie numérique imprègne à peu près tout ce que nous faisons, de la production de documents à la navigation dans le monde physique. Bien que la technologie de base ait évolué des tubes à vide aux transistors en passant par les circuits intégrés, les ordinateurs modernes sont essentiellement des versions à grande échelle de cette idée initiale.

Pourtant, même les idées les plus puissantes ont leurs limites. S’il est vrai que les ordinateurs numériques peuvent accomplir presque toutes les tâches d’information, la technologie s’approche des barrières théoriques et nous ne pouvons plus compter sur une seule technologie pour alimenter l’avenir. Chez Intel, les scientifiques travaillent à créer une nouvelle vision dans laquelle l’informatique n’est plus universelle, mais hétérogène.

Le défi d’Intel

Peu d’entreprises ont bénéficié de la vision de Turing que Intel. En 1959, Robert Noyce, cofondateur de l’entreprise, a contribué à la création du circuit intégré. En 1965, Gordon Moore a présenté sa loi éponyme qui prévoyait que le nombre de transistors sur une micropuce doublerait tous les deux ans. Depuis un demi-siècle, l’entreprise prospère en entassant de plus en plus de transistors sur des plaquettes de silicium.

Pourtant, chaque technologie finit par atteindre des limites théoriques et c’est là que la loi de Moore s’applique aujourd’hui. Il y a des limites physiques au nombre de transistors qui peuvent tenir dans un espace limité et à la vitesse à laquelle nous pouvons envoyer l’information à travers eux. Nous atteindrons probablement ces limites au cours des 5 à 10 prochaines années.

En règle générale, les entreprises qui doivent leur succès à une seule idée ou technologie ne survivent pas au-delà de sa pertinence. Kodak, malgré ce que beaucoup supposent, a investi d’importantes ressources dans la photographie numérique, mais n’a pas pu remplacer les énormes bénéfices qu’il a pu tirer du développement du film. Lorsque l’entreprise de photocopieuses de Xerox a été perturbée, elle a perdu sa position dominante. La liste est longue.

Les chances semblent s’opposer à Intel, mais l’entreprise s’est lancée dans un plan de plusieurs décennies pour atteindre des sommets encore plus élevés. La stratégie repose sur trois piliers fondamentaux : l’optimisation des architectures traditionnelles de puces pour des tâches spécifiques, la réduction de la distance entre les puces et l’invention de nouvelles architectures informatiques.

Optimisation des architectures numériques

Bien que Turing ait prouvé qu’un ordinateur universel pouvait effectuer n’importe quel calcul, cela ne signifie pas que c’est la meilleure ou la plus efficace façon de le faire. Pensez à tout ce que nous faisons aujourd’hui avec un ordinateur, de la rédaction de documents à la préparation d’analyses, en passant par le visionnage de vidéos et les jeux, et il devient évident que nous pouvons améliorer nos performances par la spécialisation.

Intel a investi dans deux technologies qui optimisent l’architecture des puces pour des tâches spécifiques. Le premier, appelé ASIC, est basé sur le matériel. La puce est conçue en usine pour exécuter une fonction particulière, telle que l’exécution d’un algorithme AI ou d’un bitcoin de mine. Cela peut augmenter considérablement l’efficacité, mais réduit évidemment la flexibilité.

La deuxième technologie, appelée FPGA, est basée sur un logiciel qui offre une plus grande flexibilité. Ainsi, par exemple, dans un centre de données de commerce électronique, une puce peut être optimisée pour traiter les transactions pendant la journée, puis reprogrammée, en microsecondes, pour analyser les tendances marketing la nuit. Le déploiement de puces ASIC et FPGA peut améliorer les performances de 30% à 50%.

Dans un environnement informatique hétérogène, les ASIC et les FPGA jouent des rôles très différents. Les ASIC sont les mieux adaptés aux applications pour lesquelles il existe un vaste marché adressable, c’est pourquoi Google et Microsoft les utilisent pour exécuter leurs algorithmes d’IA. Les FPGA sont plus utiles pour les applications à plus petite échelle dans lesquelles l’économie ne favorise pas le fait de consacrer une usine entière à leur fabrication.

Intégration du circuit intégré

L’architecture von Neumann a longtemps été la norme pour la façon dont les ordinateurs sont utilisés. Il se compose d’un ensemble de puces, y compris une unité centrale de traitement, une unité de commande et des puces mémoire, ainsi que d’autres types de puces qui fournissent un stockage de données à long terme, une capacité graphique, etc.

Ces derniers offrent toutes les fonctionnalités d’un ordinateur, mais sont livrés avec un problème intégré. Il faut du temps pour que l’information passe d’une puce à l’autre. Au début, ce n’était pas grand-chose, mais comme les puces sont devenues de plus en plus rapides, elles doivent attendre de plus en plus longtemps, en termes de cycles de calcul, pour obtenir les informations dont elles ont besoin pour faire leur travail.

Ce problème, connu sous le nom de goulot d’étranglement de von Neumann, a bloqué les informaticiens pendant des décennies. Pourtant, en janvier, Intel a annoncé qu’elle avait résolu le problème avec sa nouvelle technologie Foveros, basée sur des décennies de recherche, qui utilise une méthode appelée empilement 3D.

Essentiellement, l’empilement 3D intègre le circuit intégré. Dans un chipset typique, différents types de chipset, tels qu’un CPU, une puce mémoire et une puce graphique, sont installés côte à côte. La nouvelle technologie Foveros de l’entreprise permet toutefois d’empiler les puces verticalement, ce qui réduit considérablement la distance entre les puces et améliore les performances globales.

Inventer de nouvelles architectures

Le troisième pilier, le plus ambitieux, est l’invention d’architectures informatiques totalement nouvelles, où l’entreprise investit dans deux technologies futuristes : l’informatique neuromorphe et l’informatique quantique.

Le calcul neuromorphique fait appel à des puces basées sur le cerveau humain. Parce que ces puces ne calculent pas de manière linéaire comme les puces conventionnelles, mais sont massivement parallèles, elles sont potentiellement des milliers de fois plus efficaces sur le plan informatique pour certaines applications et des millions de fois plus économes en énergie. Les applications probables comprennent la robotique et l’informatique de pointe.

L’informatique quantique exploite les effets quantiques, tels que la superposition et l’enchevêtrement, pour créer des espaces de calcul d’une taille presque inimaginable, capables de gérer une énorme complexité. Les applications potentielles incluent des simulations importantes et complexes, telles que celles des systèmes chimiques et biologiques, des problèmes d’optimisation importants, comme en logistique et en intelligence artificielle.

Ces deux technologies ont le potentiel d’alimenter l’informatique pour les décennies à venir, mais ni l’une ni l’autre n’est viable sur le plan commercial aujourd’hui. Les dirigeants d’Intel ont dit qu’ils s’attendaient à ce que les puces neuromorphes commencent à avoir un impact d’ici cinq ans, mais que l’informatique quantique pourrait prendre jusqu’à 10-15 ans.

Se préparer à relever le défi de l’avenir

Dans quelques décennies, nous verrons probablement la révolution numérique comme une époque pittoresque et plus simple. Toutes les quelques années, une nouvelle génération de puces d’ordinateur arrivait de la ligne qui fonctionnait exactement de la même manière que la génération précédente, mais qui était meilleure, plus rapide et ouvrait des possibilités entièrement nouvelles. Les entrepreneurs et les concepteurs de produits disposaient ainsi d’un haut niveau de prévisibilité.

Par exemple, lorsque Steve Jobs a imaginé l’iPod comme « un millier de chansons dans ma poche », il savait que ce n’était pas techniquement possible. Mais il savait aussi que ce serait dans quelques années. Il a donc attendu un disque dur avec les spécifications techniques dont il avait besoin pour arriver sur le marché et, lorsqu’il l’a fait, il a acheté l’ensemble du cycle de production.

Pourtant, ces jours sont révolus. « Nous voyons l’avenir comme une informatique hétérogène « , dit Mike Davies, directeur du Neuromorphic Computing Lab chez Intel. « A l’avenir, nous utiliserons différentes architectures, telles que les puces quantiques, neuromorphiques, numériques classiques, etc. pour différentes applications. Cela nous permettra d’adapter l’outil au travail de manière beaucoup plus efficace. »

Cette idée est très prometteuse, mais elle présente aussi de grands défis. Nous devrons concevoir des systèmes qui optimisent des opérations spécifiques, mais qui ne sont pas si rigides que nous ne puissions pas les mettre à l’échelle. Avec de nouvelles architectures comme la neuromorphie et la quantique, nous devrons également développer de nouveaux langages de programmation et de nouvelles approches algorithmiques.

C’est le défi que représente l’informatique hétérogène. Il inaugurera une nouvelle ère technologique beaucoup plus puissante, mais aussi beaucoup plus complexe que tout ce que nous avons jamais vu auparavant.

Via Digital Tonto

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :