Le dernier projet d’Abhishek Singh utilise l’apprentissage automatique et la vision par ordinateur pour permettre au langage des signes d’entrer dans la technologie des haut-parleurs intelligents :

Si la voix est l’avenir de l’informatique, qu’en est-il de ceux qui ne peuvent pas parler ou entendre ? J’ai utilisé l’apprentissage profond avec TensorFlow.js pour faire en sorte qu’Amazon Echo réponde au langage des signes.

Source : youtube.com

Merci Prostheticknowledge

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.