Les plus grands défis de l’expérience utilisateur pour 2017 : la justice sociale

L’UX n’est plus seulement l’expérience de l’utilisateur pure ; c’est un sujet de justice sociale.

En finir avec les fake news
3066744-inline-2-3066630-poster-p-1-facebook-makes-its-first-moves-against-fake-news-embargo-1300-dec-15

Les fausses nouvelles est une épidémie. Jusqu’à 75% des gens croient des titres faux qu’ils lisent sur des sites comme Facebook : un problème si grand qu’il peut avoir influencé les résultats de l’élection 2016.

A vrai dire, les fausses nouvelles est un vaste problème qui vit au cœur de la façon dont l’Internet fonctionne. C’est plus que les titres Facebook ou les résultats de recherche Google. Comment pouvons-nous freiner la propagation de la désinformation, quand la désinformation peut se propager dans le monde entier, instantanément ?

« La vérité dans le numérique est une préoccupation globale. Les fausses nouvelles est le fer de lance », dit Mark Rolston, fondateur de Argodesign. « Le problème est beaucoup plus profond. Twitter laisse essentiellement quiconque se tenir en haut de la montagne et crier tout ce qu’ils veulent au monde. Il n’y a plus de filtre, pas de classement, pas de hiérarchie. C’est vous qui décidez. »

Quant à Facebook, la société a annoncé la première de nombreuses mises à jour pour freiner la propagation de fausses nouvelles, mais il n’en suffit pas plus aux fausses nouvelles pour rester partageables, et une grande partie reste fausse.

Cette année, nous aurions besoin de voir chaque plateforme d’internet évaluer sa propre responsabilité sur ce problème. Parce que Facebook n’écrit pas de fausses nouvelles…

Rendre réel et virtuel les environnements qui donnent un sentiment d’appartenance
3066744-inline-3-3063397-poster-p-2-6-designers-tackle-the-icon-for-all-gendered-restrooms

Comme les crimes haineux sont à la hausse, il est encore plus évident à quel point l’inclusivité et la civilité sont vitales pour une société saine. Que peut-on concevoir pour que chacun se sente bien accueilli et entendu?

Nos environnements partagés doivent être construits pour l’inclusion. Cette question relève de la façon dont nous marquons le sexe sur les toilettes, imaginer comment les rendre neutres, repenser la conception des lieux de culte, réaffirmer à un niveau local que les communautés ne sont pas des cibles parquées pour les attaques raciales« .

Internet a largement échoué dans cette entreprise, aussi. Même des sociétés comme Twitter finissent par sévir contre les discours de haine, en particulier lorsque nous avons vu l’émergence de nouveaux clones Twitter remplis de préjugés assumés. Mais cela ne signifie pas que nous pouvons nous permettre d’abandonner. Internet est l’endroit où nous passons une quantité croissante du temps de nos vies, et ces vies ne devraient pas impliquer le harcèlement.

Un signe d’encouragement dans la dernière année a été le travail de la division VR de Google. Les premières expériences de l’équipe montrent comment de petites modifications de l’expérience de l’utilisateur peuvent empêcher la haine. Dans un cas, ils ont montré comment juste désaturer les couleurs d’un environnement virtuel, ils pourraient dissuader un joueur de poker d’attaquer une compétition avec une main perdante. Mais ces sortes de leçons ne peuvent pas vivre dans une seule application ; elles doivent être impliquées au cœur de tous nos produits.

La manipulation et la discrimination controlées par les algorithmes
3066744-inline-5-3066631-poster-p-1-software-is-politics

Nous vivons dans un monde numérique de confort extrême. Les machines complexes utilisent des numéros en arrière-plan, en prenant nos préférences en compte avant de façonner un monde numérique en adéquation avec nous-mêmes.

Les experts disent que leur propre logiciel prendra des décisions qu’ils ne comprennent pas.

Le problème est qu’il n’y a pas de transparence dans la façon dont ces algorithmes fonctionnent. « Le problème fondamental est que nous avons besoin de comprendre comment notre monde fonctionne si nous voulons avoir une société saine. Et notre monde est totalement numérique. Comment pouvons-nous comprendre cela ? » demande concepteur Richard Pope. « Pourquoi voyons-nous certaines article d’actualité ? Pourquoi le gouvernement décide-t-il de donner ou refuser un avantage ? Comment pouvons-nous comprendre ces décisions. Il y a beaucoup de modèles de conception qui manque pour faire la passerelle entre tout cela.

Même quand les choses semblent fonctionner correctement, il semble qu’il y a un problème. Le manque de transparence signifie également que nous n’avons aucun moyen de réparer les choses quand elles vont mal. En fait, au niveau du code, les experts ont leur propre logiciel qui prendra des décisions qu’ils ne comprennent pas.

Nous avons besoin de correctifs UX pour tout cela, surtout parce que l’apprentissage de la machine permet à ces algorithmes l’auto-formation de leurs propres préjugés. « Étant donné que les algorithmes « apprennent » à partir des données existantes, ils ne sont pas « intelligents » comme des humains. Les erreurs et/ou les préjugés humains peuvent conduire à une mauvaise prédiction des choses basé sur le sexe, la race, la religion, l’histoire d’une personne, les connaissances, etc. », explique Mike Stebbins, Mechanical designer senior chez Teague. « Prenez l’application Google photo qui, accidentellement, à classé les Afro-Américains avec les gorilles, ou le département de police de Chicago qui suspecte les personnes présentes sur leurs « listes » avec un système de police prédictive ; la liste ayant été générée par recroisement d’a priori.

Le pape a récemment imaginé comment les algorithmes pourraient être pensés plus transparents. Ce serait une proposition prometteuse. Mais en vérité, obtenir la transparence de ces algorithmes pourrait impliquer l’intervention fédérale. Nous pouvons avoir besoin de lois pour réguler le fonctionnement de nos algorithmes.

Les chatbots qui auraient des choses à nous dire, plutôt que la capacité à parler entre eux

Nous sommes entourés par des assistants IA de Google, Amazon, Apple et Microsoft. Alors que ces personnalités sont rapidement discréditées, ils se révèlent pas bons pour beaucoup d’ autres choses. Leurs créateurs ont mis l’accent sur la conversation pour le simple plaisir d’être conversationnel, une réincarnation écoeurante de skeuomorphisme. Ai-je vraiment besoin d’avoir cinq minutes de fausse conversation SMS pour obtenir trois titres d’actu que j’aurais pu écrémé en quelques secondes?

Le ton même de ces assistants est un problème de UX. Rolston suggère que « nous apprenons à laisser l’ordinateur être ce qu’il est, un ordinateur avec un contexte limité et peu de personnalité.« Nous devons atténuer les grâces sociales forcées que nous avons attribué à Siri et Cortana, qui tapent verbalement des joutes pauvres d’esprit pour notre plaisir, au lieu de simplement les laisser être ennuyeux, des machines utiles pour faire des choses à notre place.

Sur le côté technique des choses, ces IA ne sont pas prêtes à combler les limites de leur propre fragmentation. Ceci est un aspect critique de l’expérience des utilisateurs des différents systèmes d’IA qui peuplent nos maisons qui se doivent d’être en mesure de reconnaître les systèmes interconnectés les uns des autres avec la même facilité que des amis pourraient autour d’une table. Tout du moins un iPhone qui pourrait fonctionner avec Gmail. « Il n’y aura pas un écosystème pour tout », dit Charles Fulford, directeur exécutif de la création chez Elephant. « Les AI Google, Amazon et Apple… doivent être en mesure de se parler de l’une à l’autre. Qu’un protocole soit créé  pour relier tous ces systèmes ensemble sera le grand défi. »

1 commentaire sur “Les plus grands défis de l’expérience utilisateur pour 2017 : la justice sociale”

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.