Derrière chaque interface, il y a un designer. Plutôt une équipe. Et ces designers ont beaucoup de choses à considérer: A quoi Siri devrait-il ressembler? A quel genre de choses les gens demanderont-ils à Alexa de faire? Comment les utilisateurs s’attendront-ils à ce que le robot Kuri réponde lorsqu’ils font une blague?

Nous nous sommes habitués à ces interfaces, et elles sont de plus en plus souvent en mesure d’établir des relations avec nous, de prendre en compte le monde qui les entoure, de parler à leurs utilisateurs et même d’inférer nos émotions de la façon dont nos visages changent de forme. J’appelle cette couche une Interface Affective Utilisateur (AUI), un terme emprunté au domaine de l’Affective Computing.

L’Affective Computing est un domaine de l’informatique qui développe une technologie que nous pourrions considérer intelligente et sensible aux émotions. Ces nouvelles interfaces présentent une foule d’opportunités et de défis car, comme le souligne la Dre Cynthia Breazeal du MIT Media Lab dans son livre Designing Sociable Robots, lorsqu’une technologie « se comporte de façon socialement compétente », notre câblage évolutif nous fait interagir avec elle comme si elle était humaine.

(et je peux en témoigner car j’ai offert la Google Home Sony à Noël)

Et une fois que nous entrons dans cette relation, les personas que nous concevons pour ces robots affectent aussi notre comportement. J’ai entendu beaucoup de gens dire que les robots non affirmatifs font souvent ressortir le pire chez les enfants. Quand il n’ y a pas de contrôles sociaux sur l’impolitesse – les robots ne se moquent pas, après tout – les enfants ont tendance à être plus brusques, et peuvent même devenir violents.

Ce manque d’assurance touche aussi les adultes. La journaliste Leah Fessler a fait une recherche sur la façon dont les bots de sexe féminin réagissent au harcèlement sexuel. Il s’avère que les personnages permissifs des assistants peuvent renforcer certains stéréotypes inquiétants sur les femmes, et permettre à l’utilisateur de régner librement pour les dégrader à volonté.

Si les robots peuvent avoir un sexe, je me suis demandé s’ils n’avaient pas aussi une identité culturelle ou même raciale. Etant donné que ces produits nous permettent de choisir entre différents accents, il semblerait que les designers aient créé des nationalités pour nos robots.

Je ne suis certainement pas la première à soulever ces questions. Cette pièce du New York Times (payante) de Kate Crawford, d’AI Now, montre comment « Artificial Intelligence’s White Guy Problem ». Et il y a beaucoup de gens qui réfléchissent à ce que cela signifie d’être des concepteurs inclusifs centrés sur l’être humain alors que nous travaillons sur des projets d’intelligence augmentée.

Pour approfondir cette question, il faut mener l’expérience pour faire émerger la personnalité de ces robots en les interviewant.

La clé est de poser des questions douces: D’où venez-vous? Quel âge avez-vous? Vous avez des enfants? Ou à quoi tu ressembles? Même, raconte-moi une histoire.

Ces interactions ne sont pas des requêtes actionnables, et déclenchent donc des réponses purement conversationnelles qui révèlent la « personnalité » que les créateurs des robots ont conçue.

Voici des interviews vidéo avec chaque assistant vocal et soumise à un certain nombre d’illustrateurs sollicités via le site de Fiverr. Alors que quelques uns des artistes ont déjà été exposés aux robots, il y a des artistes anglophones internationaux dans des marchés où Alexa et/ou Siri ne sont pas disponibles. Les pays d’origine sont l’Indonésie, le Pakistan, l’Ukraine, le Venezuela, les Philippines et les États-Unis. Pour plusieurs d’entre eux, ces vidéos ont été leur première exposition significative.

Voici les images qui sont revenues:

Le genre est clairement apparu, mais je dirais aussi qu’aucune des illustrations ne représente une personne de couleur. La question n’est pas de savoir s’ils ont été intentionnellement conçus de cette façon. Si les utilisateurs perçoivent les robots de cette façon, quelles sont les pressions culturelles qu’ils subissent à la maison?

La femme = douceur, = assistance, service… Mais pourquoi « blanche » ?

Connaissez-vous la commutation de code : lorsque nous avons notre voix normale et notre voix « professionnelle », soit celle qu’on choisit utiliser dans différents environnements ? Il s’agit sans doute de cela, le point crucial. Comment percevons-nous quelqu’un avec un accent alsacien lorsqu’on est marseillais, par exemple. Comment percevons-nous une intelligence artificielle qui utilise un niveau de langage soutenu lorsque nous-mêmes parlons familier et argotique pour les choses simples du quotidien ?

Nous devons concevoir des interfaces utilisateurs affectives vraiment centrées sur l’humain, alors nous devons tenir compte du fait que pour certains, le changement exige plus d’efforts : s’adresser sur un ton professionnel ou personnel, voire intime ? Est-ce que les intelligences artificielles ont « conscience » de ces nuances individuelles ?

L’inclusivité n’est pas seulement un problème à la fine pointe de la technologie. Nous voyons de plus en plus de preuves que ceux qui parlent en dehors des langues vernaculaires courantes ont plus de difficulté à être correctement reconnus par les systèmes affectifs.

Il s’agit d’un défi d’accessibilité, mais qui découle d’un défi culturel plutôt que physique. Dans une industrie technologique reconnue comme étant monoculturelle, nous devons prendre des mesures pour veiller à ce que nos systèmes affectifs ne soient pas seulement conçus pour être utiles à leurs créateurs, mais aussi pour inclure toute la gamme des personnes que leurs produits serviront.

Parce qu’en fin de compte, c’est la confiance qui est en jeu. Des études ont montré que lorsque les marques perdent la confiance, elles perdent des clients.

En tant que concepteurs, c’est leur travail d’accroître la facilité d’utilisation de nos appareils affectifs pour nous assurer qu’ils servent le riche paysage de personnes, de cultures et de vernaculaires qu’ils rencontreront. En plus d’être du bon design, c’est bon pour les affaires, parce que dans notre avenir affectif, les produits gagnants seront ceux auxquels les utilisateurs feront confiance.

 

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.