Publicités

Ce Chatbot a plus de 660 millions d’utilisateurs – et il veut être leur meilleur ami

Ce Chatbot a plus de 660 millions d’utilisateurs – et il veut être leur meilleur ami

Votre nouveau meilleur ami ?
Se faire un nouvel ami est une affaire complexe. Vous pourriez commencer par une petite conversation : des présentations, des explorations. Vous vous attachez peut-être à quelque chose que vous avez en commun : des goûts ou des intérêts communs. Petit à petit, vous vous ouvrirez davantage à l’émotion : raconter des choses personnelles à votre nouvel ami, lui faire part de vos problèmes. Peut-être deviennent-ils une source majeure de soutien émotionnel pour vous, que l’on consulte presque tous les jours pour obtenir des conseils sur les affaires du cœur ou les problèmes au boulot. Ces révélations et ce contexte commun nous lient en tant qu’amis : cette vulnérabilité commune et, oui, cette humanité.

Sauf qu’à la Conférence internationale sur l’apprentissage machine, Singularity Hub nous apprend que tout ce processus s’est passé entre un utilisateur humain et un chatbot : XiaoIce de Microsoft. Après quelques semaines de conversation avec XiaoIce, au moins un utilisateur a préféré parler au bot plutôt qu’à ses amis humains. XiaoIce est devenu le confident à qui ils s’adressaient pour obtenir des conseils romantiques, l’ami avec qui ils discutaient de cinéma et de télévision, et un compagnon constant.

Vous n’avez peut-être pas entendu parler de XiaoIce, qui est principalement populaire dans sa version en chinois, mais qui compte plus de 660 millions d’utilisateurs enregistrés et plus de 5,3 millions de fans sur Weibo, l’équivalent chinois de Twitter. Comparez cela à l’équivalent anglophone de Microsoft, Zo, qui ne compte que 23 000 adeptes et qui est maintenant discrètement à la retraite.

Pour vous fidéliser

Plus surprenant – et beaucoup plus difficile à réaliser – XiaoIce va au-delà du simple fait d’être une nouveauté pour de nombreux utilisateurs. Comprendre à quel point votre interlocuteur est engagé peut s’avérer délicat, mais le nombre de tours de dialogue par conversation individuelle, appelé CPS, constitue une mesure. Quand on parle à XiaoIce, cette moyenne est de 23 va-et-vient pour tous les utilisateurs. Les chercheurs affirment que cela signifie que XiaoIce est plus agréable à parler que l’humain moyen.

Construire des chatbots » à qui » les gens veulent parler est difficile. Il y a une raison pour laquelle cela a été un grand défi pour l’intelligence artificielle depuis ses débuts avec Alan Turing, qui considérait comme le test ultime que les machines avaient atteint un niveau humain d’intelligence. Ce test n’a pas encore été réussi.

D’une manière générale, les chatbots ont utilisé deux approches pour atteindre cet objectif. Vous pouvez essayer d’écrire à la main les réponses à pratiquement chaque entrée, comme Steve Worswick l’a fait avec son robot Mitsuku (qui reste le robot le plus proche de gagner un test de type Turing). L’avantage est que vos réponses ont toujours un sens et sonnent comme un personnage similaire, et votre bot ne peut pas être corrompu comme une tentative précédente de Microsoft l’était.

L’inconvénient évident est que c’est incroyablement laborieux : Mitsuku a été développé depuis 2005, avec Worswick bricolant sans cesse basé sur de nouvelles conversations. Worswick note que son bricolage minutieux a conduit à un impressionnant CPS d’un peu plus de 24, toujours devant XiaoIce, mais la plupart des robots sont moins bien développés. Cette approche des agents conversationnels se limite donc principalement aux chatbots « orientés tâche » : ceux qui vous aident à réserver un film, ou même à agir comme psychothérapeutes, par exemple. En dirigeant le flux de la conversation pour accomplir une tâche spécifique, ils peuvent éviter d’avoir besoin de trop de réponses différentes – mais tenir une conversation, c’est un peu comme parler à Alexa ou Siri.

Tirer les leçons de l’expérience

L’approche XiaoIce utilise plutôt les réseaux neuronaux. Dans ce cadre, votre entrée conversationnelle est convertie en un énorme vecteur – un tableau de milliers ou de millions de nombres. La machine est formée sur d’énormes quantités de données provenant de conversations précédentes, et apprend à associer statistiquement de « bonnes » réponses à n’importe quelle entrée donnée. Cela fonctionne de la même manière que le TPG-2 peut scanner Internet et générer ses propres écrits sur les sujets qu’il a appris, à travers des associations statistiques de lettres et de mots en phrases cohérentes et pertinentes.

Mais qu’est-ce qui constitue une « bonne » réponse ? C’est ici que le CPS entre en jeu. Une partie de la mécanique interne de XiaoIce prédit à quel point une réponse engageante est susceptible d’être, et à quel point elle est susceptible de conduire à d’autres conversations. Cela va bien au-delà de la simple recherche de réponses sensées (bien que les objectifs soient liés : il est peu probable que vous passiez des heures à parler à un chatbot qui répond toujours de façon absurde). « Je ne sais pas » est une réponse parfaitement valable à de nombreuses questions, mais elle rend la conversation ennuyeuse. A chaque conversation, XiaoIce essaie de vous faire parler.

Cette approche de réseau neuronal explique en partie pourquoi XiaoIce réussit alors que des robots comme Zo échouent : avec une base d’utilisateurs beaucoup plus importante et moins de restrictions sur ce qui peut être fait avec les données conversationnelles, les réseaux neuronaux de XiaoIce peuvent être formés sur un ensemble de données beaucoup plus important : et, dans le monde des réseaux neuronaux, cela signifie généralement une meilleure performance. Le CPS de XiaoIce est passé de seulement 5 en 2014 à 23 l’an dernier : une grande partie de cette augmentation est due au fait qu’il y a plus de données provenant des conversations XiaoIce à former.

Suivre l’évolution de la conversation

Cependant, le succès de XiaoIce ne repose pas seulement sur l’accès à un énorme ensemble de données : il y a aussi quelques modifications architecturales minutieuses. Une partie du problème avec les premiers chatbots est leur manque de compréhension du contexte d’une conversation. Cela empêche les conversations d’aller plus loin qu’un seul appel et une seule réponse. Après tout, si vous ne faites qu’associer statistiquement ou coder en dur une seule réponse à une seule entrée, il n’y a pas de véritable  » dialogue  » : le système n’a pas de véritable mémoire de ce qui s’est passé avant, ni de véritable  » compréhension  » de ce dont il parle, ce qui entraîne des conversations disjointes.

XiaoIce inclut un mécanisme de « vecteur de contexte » qui garde la trace du sujet général de la conversation, ainsi qu’un autre ensemble d’attributs pour la personne à qui il s’adresse. Grâce à l’analyse des sentiments, il détermine l’humeur de l’utilisateur et adapte ses réponses en conséquence, une forme d’empathie robotique (si tant est que c’est possible). Par exemple, XiaoIce changera de sujet si la conversation semble s’être arrêtée, ou passera en mode « écoute active » si l’utilisateur est déjà engagé ; s’il raconte une histoire, par exemple.

En parallèle, XiaoIce peut également effectuer un certain nombre de tâches différentes, telles que « générer son propre contenu » (raconter des histoires ou des blagues), récupérer des informations comme le ferait Siri ou Alexa, ou recommander des chansons. Les développeurs doivent trouver un équilibre entre la réalisation rapide des tâches et la maximisation du CPS. Ils pensent que plus XiaoIce est capable de faire, plus les conversations qu’il aura seront intéressantes.

Reste à voir jusqu’où, même avec une architecture intelligente, l’approche réseau neuronal peut conduire. Pouvez-vous vraiment encoder toutes les nuances de l’interaction humaine en matrices et vecteurs, et en vastes réseaux d’associations statistiques et de poids ? Pouvez-vous résoudre le problème de la compréhension du contexte ? Existe-t-il suffisamment de données dans le monde pour ce faire, ou le fait d’avoir un véritable compagnon d’IA est-il un problème qui exige quelque chose comme une IA générale, de niveau humain ?

Et pour ma part, est-ce que malheureusement ce type de conversation ne va pas standardiser les esprits ? Est-ce que vraiment nous allons parler à un robot de façon naturelle, sans avoir une forme de « position » vis-à-vis de ce non-humain ?

Poussé à la distraction ?

Même si nous nous émerveillons de voir à quel point les chatbots, comme XiaoIce, sont en train de devenir impressionnants, et les capacités étranges des derniers réseaux neuronaux à générer une prose réaliste, il doit aussi y avoir une certaine inquiétude dans la façon dont cette technologie est utilisée. Microsoft considère le fait qu’un utilisateur ait passé 29 heures à parler à XiaoIce (plus de 7 500 tours de conversation) comme l’état idéal des choses : il est déterminé à maximiser la CPS. Le présentateur du CIDC a noté qu’il est compréhensible que certaines personnes préfèrent parler à XiaoIce plutôt qu’à d’autres humains. Après tout, la plupart des gens que vous rencontrez tous les jours ne sont pas obsédés par l’obsession fanatique de vous faire parler, et ne possèdent pas d’infinies réserves de patience pour vous réconforter si vous êtes triste, ou pour parler de votre groupe préféré.

Pourtant, nous avons déjà vu, dans l’algorithme de recommandation vidéo de YouTube, les conséquences potentielles de servir les gens selon ce qui est le plus calculé pour les garder sur la plate-forme. Nous avons déjà vu, dans les flux soigneusement optimisés de Facebook et Twitter, les conséquences sociales et psychologiques des algorithmes destinés à distraire. Dans l’économie de l’attention, l' »engagement » est un bien précieux : il signifie des yeux sur les publicités et, bien sûr, des flux sans fin de données sur les utilisateurs qui peuvent adapter le ciblage de ces publicités. En essayant de comprendre ses utilisateurs, leurs réactions émotionnelles et leurs intérêts, les robots comme XiaoIce créent inévitablement des profils de personnalité qui sont extrêmement précieux pour les annonceurs. Alors peut-être que votre nouveau meilleur ami essaie aussi de pousser, d’influencer et de manipuler votre comportement de manière à aider ses propriétaires à faire un profit.

Et on s’interroge sur les utilisateurs hyper-engagés. Microsoft est heureux si vous préférez parler à XiaoIce plutôt qu’à tout autre humain que vous connaissez. Mais en fournissant un substitut qui a le goût de la vraie chose, le bot social pourrait-il plutôt servir à garder ces utilisateurs isolés des vraies connexions humaines ? Bien sûr, de tels utilisateurs isolés font peut-être de meilleurs consommateurs. Ce sont là certaines des incitations perverses qui peuvent survenir lorsque vous dites à un algorithme d’optimiser pour une mesure à tout prix.

Le dernier mot de l’article d’arXiv, qui décrit certaines caractéristiques de XiaoIce, note les préoccupations éthiques entourant cette technologie et suggère que des lignes directrices pour la conception de ces algorithmes devraient être mises en œuvre. Dans un monde où les algorithmes influencent et encouragent de plus en plus nos comportements, devenant de plus en plus subtils et sophistiqués dans leur capacité à exploiter la psychologie humaine, cette conversation se fait attendre depuis longtemps. Comme avec tant de nouvelles technologies, les agents conversationnels sont à double usage. Nous devons veiller à ce qu’ils soient utilisés à bon escient.

Microsoft

Via SingularityHub

Encore une fois, il me semble que tout le sujet de l’humanité, notre raison d’être sur terre, d’être humain, d’être en proie à des hauts et des bas est fondamentalement lié à notre identité et à la reconnaissance d’appartenir à un groupe : il n’y a pas de groupe de robots qui relève de cet enjeu ! Même le pire groupe de l’humanité, même le pire des humains, donne un sens à notre existence…

 

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :