Une tendance émergente dans l’intelligence artificielle est d’obtenir des ordinateurs pour détecter ce que nous ressentons et réagir en conséquence. Ils pourraient même nous aider à développer plus de compassion les uns pour les autres.

Un Amazon Alexa à côté de vous et l’assistant pourrait lancer du Selena Gomez… Non : »Alexa, stop! »

Alexa ne tient pas compte de ce qu’on ressent. Comme la majorité des assistantes virtuelles et d’autres technologies, elle ne sait rien de ce que nous ressentons.

Nous sommes maintenant entourés d’appareils intelligents hyper-connectés qui sont autonomes, conversationnels et relationnels, mais ils sont complètement dépourvus de toute capacité de dire à quel point nous sommes ennuyés, heureux ou déprimés. Et c’est un problème.

Et si, au lieu de cela, ces technologies – haut-parleurs intelligents, véhicules autonomes, téléviseurs, réfrigérateurs branchés, téléphones mobiles – étaient conscients de vos émotions?

Et s’ils sentaient un comportement non verbal en temps réel? Votre voiture pourrait remarquer que vous avez l’air fatigué et vous proposer de prendre le volant. Votre réfrigérateur pourrait vous aider à adopter une alimentation plus saine. Votre tracker de forme physique portable et votre téléviseur pourraient faire équipe pour vous sortir du canapé. Votre miroir de salle de bain pourrait sentir que vous êtes stressé et ajuster l’éclairage tout en allumant la bonne musique pour rehausser l’ambiance. Les technologies sensibles aux émotions pourraient faire des recommandations personnalisées et encourager les gens à faire les choses différemment, mieux ou plus rapidement.

Aujourd’hui, une nouvelle catégorie d’IA-intelligence émotionnelle artificielle, ou IA émotionnelle, se concentre sur le développement d’algorithmes capables d’identifier non seulement les émotions humaines fondamentales telles que le bonheur, la tristesse et la colère, mais aussi des états cognitifs plus complexes tels que la fatigue, l’attention, l’intérêt, la confusion, la distraction, etc.

On peut s’attendre à ce que les technologies qui nous entourent deviennent sensibles aux émotions au cours des cinq prochaines années.

La société, Affectiva, fait partie de celles qui travaillent à la construction de tels systèmes. Ils ont compilé un vaste corpus de données composé de six millions de vidéos visages collectées dans 87 pays, permettant à un moteur d’intelligence artificielle d’être syntonisé pour de vraies expressions d’émotions dans la nature et de prendre en compte les différences culturelles dans l’expression émotionnelle.

À l’aide de la vision par ordinateur, de l’analyse de la parole et d’un apprentissage approfondi, ils classifient les expressions faciales et vocales des émotions. Il reste encore quelques défis à relever: comment former de tels systèmes multimodaux? Et comment collecter des données pour des émotions moins fréquentes, comme la fierté ou l’inspiration?

DAVID BISKUP
Néanmoins, le domaine progresse si rapidement qu’on peut s’attendre à ce que les technologies qui nous entourent deviennent sensibles aux émotions dans les cinq prochaines années. Elles liront et répondront aux états cognitifs et émotionnels humains, exactement comme les humains le font. Les Ai émotionnelles seront enracinées dans les technologies que nous utilisons chaque jour, fonctionnant en arrière-plan, rendant nos interactions technologiques plus personnalisées, pertinentes, authentiques et interactives. Il est difficile de se souvenir de ce que c’était avant d’avoir des interfaces tactiles et de la reconnaissance vocale. Nous finirons par ressentir la même chose pour nos appareils sensibles aux émotions.

Voici quelques-unes des applications qui les plus passionnantes :

Automobile: Un véhicule soucieux des occupants pourrait surveiller le conducteur pour déceler la fatigue, la distraction et la frustration. Au-delà de la sécurité, votre voiture peut personnaliser l’expérience en cabine, en changeant la musique ou les réglages ergonomiques selon l’utilisateur.

Soins de santé: Tout comme nous pouvons suivre notre forme physique et notre santé physique, nous pourrions suivre notre état mental, en envoyant des alertes à un médecin si nous décidions de partager ces données. Les chercheurs se penchent sur l’IA émotionnelle pour le diagnostic précoce de troubles tels que la maladie de Parkinson et la coronaropathie, ainsi que la prévention du suicide et le soutien à l’autisme.

Communication: Il y a beaucoup de preuves que nous traitons déjà nos appareils, en particulier les interfaces conversationnelles, de la même façon dont nous nous traitons les uns les autres. Les gens nomment leurs robots sociaux, ils se confient à Siri qu’ils ont été maltraités physiquement, et ils demandent à un chatbot de les soutenir moralement alors qu’ils se vont subir une chimiothérapie. Et c’est avant même qu’on ait ajouté de l’empathie. D’un autre côté, nous savons que les jeunes générations perdent une certaine capacité d’empathie parce qu’elles grandissent avec des interfaces numériques dans lesquelles l’émotion, la principale dimension de ce qui nous rend humains, fait défaut. Donc l’IA émotionnelle pourrait nous rapprocher.

Publicités

1 commentaire »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.