Le laboratoire Carnegie Mellon conçoit la prochaine phase de l’interaction entre l’ordinateur et l’homme.

Pour essayer d’avoir un aperçu des appareils de tous les jours que nous pourrions utiliser dans dix ans, il y a des endroits comme le laboratoire du Future Interfaces Group (FIG) de l’Université Carnegie Mellon.

Lors d’une récente visite d’Engadget à Pittsburgh, Gierad Laput, doctorant, a mis une smartwatch et un Macbook Pro, ainsi qu’une perceuse électrique, et une poignée de porte. Au moment où sa peau appuyait contre chacun d’eux, le nom de l’objet apparaissait sur un écran d’ordinateur adjacent. Chaque objet avait émis un signal électromagnétique unique qui coulait à travers le corps de Laput, pour être capté par le capteur de sa montre.

Le logiciel savait essentiellement ce que Laput faisait dans l’espace de viande muet, sans qu’un capteur coûteux n’ait besoin d’être intégré (et ses batteries rechargées) sur chaque objet avec lequel il a pris contact.

Mais ce qui est encore plus convaincant, c’est la façon dont le laboratoire a mis au point de multiples façons de créer des environnements intelligents complets à partir d’un seul gadget.

Il existe une technologie du KGB des années 1950 qui utilise des lasers pour lire les vibrations.

Et un logiciel d’ultrasons qui analyse les actions comme la toux ou la tape au clavier. Et un accéléromètre overclocké sur une smartwatch qui lui permet de détecter de minuscules vibrations provenant d’objets analogiques, de détecter quand un utilisateur scie du bois ou pour l’aider à régler une guitare acoustique.

Fondé en 2014, le laboratoire de recherche est une équipe agile et rapide de prototypage de quatre étudiants au doctorat dirigée par Chris Harrison, professeur adjoint en interaction homme-machine. Chaque étudiant diplômé a une spécialité telle que la vision par ordinateur, le toucher, les environnements intelligents ou les gestes. Les progrès académiques dans ce domaine avancent rapidement et tendent à être de loin en avance sur les sorties généralisées (et rentables) de l’industrie — VR, écrans tactiles et interfaces vocales sont tous apparus pour la première fois dans les années 1960 (comme les wearables d’ailleurs).

Pourtant, de nombreux projets de la FIG meurent ici même, dans le laboratoire, où chaque fenêtre de bureau en verre est saturée de points d’impact aux marqueurs, des panneaux de storyboard et les grilles de post-it colorés. M. Harrison indique que la durée typique d’un projet n’est que de six mois. Des centaines d’idées spéculatives que le laboratoire génère chaque année, au plus 20 sont transformées en prototypes fonctionnels et 5 à 10 peuvent être publiées dans le milieu de la recherche. Deux projets ont été transformés en start-ups financées, tandis qu’une poignée d’entre eux ont été cédés sous licence à des tiers (le laboratoire reçoit des fonds d’entreprises telles que Google, Qualcomm et Intel).

Combinant l’apprentissage machine avec des applications créatives de capteurs, la FIG essaie de trouver les prochaines façons de s’interfacer avec les ordinateurs au-delà de nos modes actuels de voix et de toucher. Les technologies clés dont les interfaces n’ont pas encore été normalisées comprennent les montres intelligentes, smartwatch, l’AR/VR et l’Internet des objets, dit M. Harrison.

L’un des principes fondamentaux du laboratoire est de créer des fonctions de haute technologie à faible coût, ou avec les appareils que les consommateurs possèdent déjà. Par exemple, Karan Ahuja, un spécialiste de la vision par ordinateur et de l’apprentissage automatique venu de Delhi pour se joindre au laboratoire, a inventé un eye tracker pour casques VR en carton qui n’utilise que la caméra téléphonique frontale, utilisant l’IA pour déchiffrer l’image déformée. Dans une autre expérience, il a créé un logiciel de suivi du corps entier en RV pour deux personnes simultanément, en utilisant la caméra du téléphone de chaque personne pour lire les mouvements de l’autre.

Une autre philosophie du laboratoire est de se concentrer sur l’application dans le monde réel. Au cours de la visite d’Engadget, Harrison et Laput ont fait un brainstorming sur les utilisations pratiques d’une invention qui peut transformer toute surface plane en écran tactile à l’aide d’un LIDAR à 200 $. Cette technologie est couramment utilisée dans les voitures, les drones et les aspirateurs robotisés pour balayer un environnement à l’aide d’un laser, et le duo s’attend à ce que les prix du LIDAR baissent à mesure que ces appareils se développent.

Ils ont discuté de l’installation du capteur sous un haut-parleur de conférence téléphonique générique, ce qui pourrait permettre aux tables de bureau de devenir des surfaces interactives. Le tableau pouvait indiquer combien de personnes étaient rassemblées autour de lui et permettre aux participants de toucher la surface et de déplacer leurs propres curseurs autour des graphiques sur une présentation PowerPoint. Le prototypage réussi de cette technologie pourrait prendre quelques secondes dans la vidéo de démonstration du laboratoire, du genre de celle qu’ils publient régulièrement et qu’ils rendent délibérément compréhensible pour un public non technique.

Le projet, intitulé Surface Sight, n’a pas encore été publié ; leur article sera publié d’ici avril 2019 au plus tôt. D’ici là, le laboratoire travaillera sur la prochaine « chose ».

Le Future Interfaces Group conçoit les appareils de tous les jours de demain Le laboratoire Carnegie Mellon conçoit la prochaine phase de l’interaction entre l’ordinateur et l’homme.

Vous vous rappellez de Wall ++ ?

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.