Les quatre technologies convergentes qui donnent naissance au Web spatial

La façon dont chacun d’entre nous voit le monde est sur le point de changer radicalement.

Tout au long de l’histoire de l’humanité, l’expérience de regarder le monde a été à peu près la même pour tous. Mais les frontières entre le numérique et le physique commencent à s’estomper.

Le monde qui nous entoure s’enrichit de plus en plus d’informations numérisées, virtuellement superposées, ce qui le rend riche, significatif et interactif. Par conséquent, nos expériences respectives d’un même environnement deviennent très différentes, personnalisées en fonction de nos objectifs, de nos rêves et de nos désirs.

Bienvenue sur le Web 3.0, ou le Web spatial. Dans la version 1.0, les documents statiques et les interactions en lecture seule limitaient Internet aux échanges à sens unique. Le Web 2.0 a fourni une mise à niveau considérable en introduisant du contenu multimédia, des pages Web interactives et des médias sociaux participatifs. Pourtant, tout cela était encore médiatisé par des écrans bidimensionnels.

Aujourd’hui, nous assistons à la montée du Web 3.0, à la convergence de la connectivité 5G haut débit, à l’évolution rapide des lunettes AR, à l’émergence d’une économie de milliards de capteurs et à la puissante intelligence artificielle.

Par conséquent, nous serons bientôt en mesure de superposer de l’information numérique sur n’importe quel environnement physique, libérant nos yeux de la tyrannie de l’écran, nous immergeant dans des environnements intelligents et rendant notre monde infiniment dynamique.

Dans le troisième article (le premier est ici) de la série en cinq parties sur la réalité augmentée, Singularity Hub explore la convergence de l’AR, de l’AI, des capteurs et de la blockchain et nous plonge dans les implications à travers un cas d’utilisation clé dans la fabrication.

Une histoire de convergence

Déconstruisons tout ce qui se trouve sous l’écran de l’AR.

Tout commence avec les processeurs graphiques (GPU), des circuits électriques qui effectuent des calculs rapides pour rendre des images. (Les GPU se trouvent dans les téléphones portables, les consoles de jeux et les ordinateurs.)

Cependant, étant donné que la RA nécessite une telle puissance de calcul, un seul GPU ne suffira pas. Au lieu de cela, la blockchain peut maintenant permettre une puissance de traitement GPU distribuée, et les blockchains spécifiquement dédiées au traitement holographique des RA sont en augmentation.

Ensuite, les caméras et les capteurs regrouperont les données en temps réel de n’importe quel environnement pour intégrer de façon transparente les mondes physiques et virtuels. Pendant ce temps, les capteurs de suivi du corps sont essentiels pour aligner le rendu automatique d’un utilisateur dans la RA avec un environnement virtuellement amélioré. Les capteurs de profondeur fournissent ensuite des données pour des cartes spatiales en 3D, tandis que les caméras absorbent davantage de données visuelles détaillées au niveau de la surface. Dans certains cas, les capteurs peuvent même recueillir des données biométriques, comme la fréquence cardiaque et l’activité cérébrale, afin d’incorporer les réactions liées à la santé dans nos interfaces quotidiennes de RA et nos moteurs de recommandation personnelle.

La prochaine étape dans la filière n’implique rien d’autre que l’IA. En traitant instantanément d’énormes volumes de données, les algorithmes d’intelligence artificielle intégrés permettront de personnaliser les expériences d’intelligence artificielle, qu’il s’agisse de superpositions artistiques virtuelles ou d’annotations diététiques personnalisées.

Dans le commerce de détail, les IA utiliseront votre historique d’achats, votre inventaire actuel de placards et peut-être même des indicateurs d’humeur pour afficher les articles rendus numériquement les mieux adaptés à votre garde-robe, adaptés à vos mesures.

Dans le domaine des soins de santé, les lunettes intelligentes de RA fourniront aux médecins une information immédiatement accessible et pertinente (analysée à partir de l’ensemble des dossiers médicaux des patients et de la recherche actuelle) pour aider à établir des diagnostics et des traitements précis, libérant ainsi les médecins des tâches plus humaines d’établissement de la confiance, d’éducation des patients et de démonstration d’empathie.

Convergence dans le secteur manufacturier

L’un des cas d’utilisation à court terme de la RA est celui de la fabrication, alors que les grands producteurs commencent à consacrer des capitaux aux casques antirétroviraux d’entreprise. Et au cours des dix prochaines années, la RA convergera avec la RA, les capteurs et la blockchain pour multiplier la productivité du fabricant et l’expérience des employés.

(1) Convergence avec l’IA

Lors de l’application initiale, les guides numériques superposés aux tables de production amélioreront considérablement la précision et la rapidité des employés, tout en minimisant les taux d’erreur.

Déjà, l’Association du transport aérien international (IATA) – dont les compagnies aériennes fournissent 82 % des voyages aériens – a récemment mis en œuvre les casques d’écoute AR de la société de technologie industrielle Atheer dans la gestion du fret. Et avec à peine quelques retards, l’IATA a fait état d’une énorme amélioration de 30 % de la vitesse de manutention du fret et d’une réduction de pas moins de 90 % des erreurs.

Avec des taux de succès similaires, Boeing a introduit sur la piste les lunettes intelligentes AR de Skylight, maintenant utilisées dans la fabrication de centaines d’avions. Certes, le géant de l’aérospatiale a vu son temps de production diminuer de 25 % et ses taux d’erreur presque nuls.

Au-delà de la gestion du fret et des voyages aériens, cependant, les casques intelligents permettent également une formation en cours d’emploi sans réduire la productivité d’autres travailleurs ou sacrifier du matériel. Jaguar Land Rover, par exemple, a mis en œuvre la solution Re’flekt One AR de Bosch pour les techniciens, un système façon vision « rayons X », leur permettant de visualiser l’intérieur des véhicules Range Rover Sport sans retirer les tableaux de bord.

Et comme les capacités de l’entreprise ne cessent de croître, les IA deviendront bientôt des experts incontournables, offrant un soutien aux fabricants qui ont besoin d’aide en matière d’assemblage. Un guidage instantané et une rétroaction en temps réel réduiront considérablement les temps d’arrêt de production, augmenteront le rendement global et aideront même les clients aux prises avec des problèmes d’assemblage par DIY.

Peut-être l’une des opportunités d’affaires les plus rentables, l’orientation en matière de RA par le biais de systèmes centralisés de RA permettra également d’atténuer les inefficacités de la chaîne d’approvisionnement à une échelle extraordinaire. En coordonnant les pièces mobiles, en éliminant le besoin de scanners habités à chaque point de contrôle et en dirigeant le trafic à l’intérieur des entrepôts, les systèmes AI-AR communs amélioreront considérablement le flux de travail tout en supervisant l’assurance qualité.

Après sa mise en œuvre initiale de l’AR « vision picking » en 2015, la société de messagerie leader DHL a récemment annoncé qu’elle continuerait à utiliser le plus récent smart lens de Google dans les entrepôts à travers le monde. Motivée par l’augmentation de 15 % de la productivité du groupe initial, la décision de DHL s’inscrit dans le cadre de l’investissement de 300 millions de dollars du géant de la logistique dans les nouvelles technologies.

Et comme le commerce électronique direct au consommateur transforme fondamentalement le secteur de la vente au détail, l’optimisation de la chaîne d’approvisionnement ne peut que devenir de plus en plus vitale. L’AR pourrait très bien s’avérer l’étape décisive pour obtenir un avantage concurrentiel en termes de vitesse de livraison.

Comme l’explique Ash Eldritch, PDG de Vital Enterprises : « Toutes ces technologies qui se rassemblent autour de l’intelligence artificielle vont augmenter les capacités du travailleur et c’est très puissant. Voici l’Intelligence Augmentée. L’idée est que vous pouvez prendre quelqu’un d’un certain niveau de compétence et en l’enrichissant d’intelligence artificielle via la réalité augmentée et l’Internet des objets, vous pouvez élever le niveau de compétence de ce travailleur. »

Déjà, de grands producteurs comme Goodyear, thyssenkrupp et Johnson Controls utilisent l’HoloLens 2 de Microsoft au prix de 3 500 $ le casque pour la fabrication et la conception.

Le résultat peut-être le plus encourageant de la convergence AI-AR est que, plutôt que de remplacer les humains dans la fabrication, la RA est une interface idéale pour la collaboration humaine avec la GA. Et à mesure que l’intelligence artificielle fusionne avec le capital humain, préparez-vous à voir des améliorations exponentielles de la productivité, de la formation professionnelle et de la qualité des produits.

(2) Convergence avec les capteurs

Sur le plan matériel, ces systèmes AI-AR nécessiteront une prolifération massive de capteurs pour détecter l’environnement externe et appliquer la vision par ordinateur à la prise de décision.

Pour mesurer la profondeur, par exemple, certains capteurs de profondeur à balayage projettent un motif structuré de points de lumière infrarouge sur une scène, détectant et analysant la lumière réfléchie pour générer des cartes 3D de l’environnement. L’imagerie stéréoscopique, utilisant deux lentilles, a également été couramment utilisée pour les mesures de profondeur. Mais des technologies de pointe comme l’HoloLens 2 de Microsoft et la caméra RealSense 400 d’Intel mettent en œuvre une nouvelle méthode appelée « temps de vol progressif » (ToF).

En détection ToF, l’HoloLens 2 utilise de nombreux lasers, chacun d’une puissance de 100 milliwatts (mW), en rafales rapides. La distance entre les objets à proximité et l’utilisateur du casque est alors mesurée par la quantité de lumière dans le faisceau de retour qui s’est décalée par rapport au signal d’origine. Enfin, la différence de phase révèle l’emplacement de chaque objet dans le champ de vision, ce qui permet un suivi manuel précis et une reconstruction de surface.

Avec une puissance de calcul nettement inférieure, le capteur ToF phasé est également plus durable que le capteur stéréoscopique, qui repose sur l’alignement précis de deux prismes. La base en silicium du capteur ToF phasé le rend également facile à produire en série, ce qui fait de l’HoloLens 2 un bien meilleur candidat pour une large adoption par les consommateurs.

Pour appliquer la mesure inertielle – typiquement utilisée dans les avions et les engins spatiaux – l’HoloLens 2 utilise en plus un accéléromètre, un gyroscope et un magnétomètre intégrés. En outre équipé de quatre  » caméras de compréhension de l’environnement  » qui suivent les mouvements de la tête, le casque utilise également une caméra vidéo photographique HD 2,4MP et un capteur de lumière ambiante qui fonctionnent de concert pour permettre une vision par ordinateur avancée.

Pour des expériences visuelles naturelles, le suivi du regard fourni par les capteurs crée de plus en plus de profondeur dans les écrans numériques. Les travaux de Nvidia sur Foveated AR Display, par exemple, mettent l’accent sur la zone fovéale primaire, tandis que les régions périphériques tombent dans un arrière-plan plus doux – imitant la perception visuelle naturelle et concentrant la puissance de calcul sur la zone qui en a le plus besoin.

Des capteurs de suivi du regard sont également prévus pour permettre aux utilisateurs de contrôler leurs écrans (désormais immersifs) sans aucun geste de la main. Conduire des repères visuels simples, même en fixant un objet pendant plus de trois secondes, activera les commandes instantanément.

Et notre exemple de fabrication ci-dessus n’est pas le seul. La convergence empilée de la blockchain, des capteurs, de l’IA et de l’EI perturbera presque toutes les grandes industries.

Prenons l’exemple des soins de santé, où les capteurs biométriques personnaliseront bientôt l’expérience des utilisateurs en matière de RA. Déjà, le groupe Deep Reality du MIT Media Lab a créé une expérience de relaxation VR sous-marine qui répond à l’activité cérébrale en temps réel détectée par une version modifiée de l’EEG Muse. L’expérience s’adapte même aux données biométriques des utilisateurs, de la fréquence cardiaque à l’activité électrodermique (saisie sur un bracelet Empatica E4).

Désormais rapidement dématérialisés, les capteurs convergeront vers l’AR pour améliorer l’intégration physique-numérique des surfaces, les commandes manuelles et oculaires intuitives, et un monde de plus en plus personnalisé. Gardez un œil sur des entreprises comme MicroVision, qui font maintenant d’énormes bonds en avant dans la technologie des capteurs.

Voici la façon dont nous pourrions alimenter les mondes augmentés par les capteurs et l’intelligence artificielle.

(3) Convergence avec la Blockchain

Parce que la RA nécessite beaucoup plus de puissance de calcul que les expériences 2D typiques, les GPU centralisés et les systèmes de cloud computing sont à pied d’œuvre pour fournir l’infrastructure nécessaire. Néanmoins, la charge de travail est lourde et la blockchain peut s’avérer la meilleure solution.

Acteur majeur dans cette poursuite, Otoy vise à créer le plus grand réseau GPU distribué au monde, appelé Render Network RNDR. Construit spécifiquement sur la chaîne Ethereum pour les supports holographiques, et en cours de test bêta, ce réseau est destiné à révolutionner l’accessibilité au déploiement de la RA.

Le président d’Alphabet, Eric Schmidt (un investisseur dans le réseau d’Otoy), a même déclaré : « J’avais prédit que 90% de l’informatique résiderait finalement dans le cloud basé sur le web… Otoy a créé une technologie remarquable qui déplace ce dernier 10% – processus graphique haut de gamme – entièrement vers le cloud. Il s’agit là d’une réalisation importante et perturbatrice. À mon avis, c’est le point de basculement où le Web remplace le PC en tant que plate-forme informatique dominante de l’avenir. »

Tirant profit de la foule, RNDR permet à toute personne disposant d’un GPU de contribuer leur puissance au réseau pour une commission allant jusqu’à 300 $ par mois en jetons RNDR. Celles-ci peuvent ensuite être échangées en espèces ou utilisées pour créer le propre contenu AR des utilisateurs.

Dans une double victoire, le réseau de blockchain d’Otoy et les itérations similaires permettent non seulement aux concepteurs de tirer profit lorsqu’ils n’utilisent pas leurs GPU, mais aussi de démocratiser l’expérience pour les artistes les plus récents dans ce domaine.

Et au-delà des fournisseurs d’énergie de ces réseaux, la distribution de la puissance de traitement GPU permettra à un plus grand nombre d’entreprises manufacturières d’accéder aux outils de conception de RA et de personnaliser les expériences d’apprentissage. En dispersant davantage la création de contenu à travers un vaste réseau de personnes, la blockchain a également le potentiel précieux d’augmenter l’investissement matériel de RA parmi un certain nombre de bénéficiaires de l’industrie.

Du côté des consommateurs, des startups comme Scanetchain entrent également dans l’espace blockchain-AR pour une raison différente. L’application Scanetchain permet aux utilisateurs de scanner des articles à l’aide de leur smartphone et leur donne accès à une foule d’informations, depuis le fabricant et le prix, en passant par l’origine et les détails d’expédition.

Basée sur NEM (une cryptocurrency peer-to-peer qui implémente un algorithme de consensus de la blockchain), l’application vise à rendre l’information beaucoup plus accessible et, ce faisant, à créer un réseau social du comportement d’achat. Les utilisateurs gagnent des jetons en regardant les publicités, et toutes les transactions sont regroupées en blocs et enregistrées en toute sécurité.

L’écriture est sur le mur – notre avenir de la vente au détail de briques et de mortier s’appuiera en grande partie sur une blockchain pour créer les liens numériques nécessaires.

Dernières réflexions

L’intégration de l’intelligence artificielle dans la RA crée un pipeline de fabrication  » auto-magique  » qui transformera fondamentalement l’industrie, réduisant les coûts marginaux, diminuant les inefficacités et le gaspillage, et maximisant la productivité des employés.

Pour renforcer la convergence AI-AR, la technologie des capteurs est déjà en train de brouiller les frontières entre notre monde physique et notre monde augmenté, qui sera bientôt presque indétectable. Alors que les mouvements intuitifs des mains et des yeux dictent les commandes dans une interface mains libres, les données biométriques sont prêtes à personnaliser chaque expérience de RA pour être beaucoup plus en phase avec notre santé mentale et physique.

De plus, la puissance de calcul distribuée avec des réseaux blockchain comme le RNDR démocratisera la RA, ce qui stimulera l’adoption mondiale par les consommateurs à des prix de plus en plus bas.

Alors que la RA prend de l’importance – que ce soit dans la vente au détail, la fabrication, le divertissement ou au-delà – la convergence dont il a été question plus haut mérite des investissements importants au cours de la prochaine décennie. Le monde augmenté ne fait que commencer.

Via Singularity Hub

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.