Comment ne pas commander de l’eau à un robot serveur ?

Les chercheurs ont utilisé un robot mobile similaire à celui ci-dessus comme serveur dans un faux restaurant où les utilisateurs devaient passer leurs commandes en parlant au robot. Il s’en est suivi des conversations divertissantes.

 

Les systèmes d’IA sont devenus assez bons, à ce stade, pour nous comprendre quand nous leur parlons. C’est-à-dire qu’ils sont devenus assez bons pour comprendre ce que signifient les mots que nous disons. Malheureusement pour l’IA, c’est souvent dans les conversations entre humains que nous disons des choses que nous ne nous attendons pas à ce que l’autre personne prenne littéralement, au lieu de compter sur eux pour déduire nos intentions, ce qui peut être significativement différent de ce que les mots exacts que nous utilisons suggéreraient.

Par exemple, prenez la question, « Savez-vous quelle heure il est ? » La plupart d’entre nous répondraient à cela en communiquant l’heure qu’il est, mais ce n’est pas ce que la question pose. Si vous connaissez l’heure à proprement parler, un simple « Oui, je le sais » serait la bonne réponse. Vous pensez peut-être que « Pouvez-vous me dire l’heure qu’il est ? » est une question similaire, mais prise littéralement, il s’agit de savoir si vous avez la capacité de relier le temps par la parole, donc une bonne réponse serait « Oui, je peux » si vous savez quelle heure il est ou non.

Cela peut sembler pédant, mais comprendre l’information que nous nous attendons à recevoir lorsque nous posons certaines questions n’est pas du tout évident pour les systèmes d’IA ou les robots (et finalement Dieu merci). Ces actes de parole indirects, ou ISA, font l’objet d’un article présenté le mois dernier à la conférence internationale ACM/IEEE sur l’interaction homme-robot, et il comprend l’une des conversations les plus divertissantes entre un humain et un robot jamais vue.

Une chose qui rend les conversations homme-machine plus difficiles, c’est que les humains ont tendance à confondre les choses en étant trop polis. Nous formulons souvent les choses comme des demandes lorsque nous voulons dire qu’il s’agit de commandes directes. Dans un restaurant, par exemple, il serait beaucoup plus simple si les gens disaient « Apportez-moi x » quand ils veulent x, mais beaucoup de gens pensent que c’est impoli, et au lieu de cela, ils embrouillent les choses avec un langage comme « Pouvez-vous m’apporter x ? ou « Si vous pouviez m’amener X, ce serait génial. » Pour un robot qui interprète littéralement les ISA de manière cohérente, cela peut entraîner une grave confusion.

La question est donc de savoir si les AIS se produiront rarement ou fréquemment dans nos interactions avec les robots. Et les gens jugeront-ils les robots qui sont incapables de comprendre les ISA moins favorablement que les robots qui peuvent les comprendre ? Pour explorer certaines de ces questions, des chercheurs du laboratoire d’interaction homme-robot de l’Université de Tufts, dirigé par Matthias Scheutz, et du laboratoire MIRROR de la Colorado School of Mines, dirigé par Tom Williams, ont recruté 49 participants pour interagir avec un robot dans différents scénarios, y compris un faux restaurant où les humains étaient chargés de commander plusieurs articles en parlant avec un robot serveur. Le Waiterbot a été télécommandé Wizard-of-Oz-style par des chercheurs d’une pièce voisine, et sa voix a été générée par un système de synthèse vocale. Et parce que les chercheurs ont programmé le robot pour qu’il ne traite pas les actes de parole indirects comme le feraient les humains, il s’en est suivi des conversations assez drôles :

Robot : Bonjour, je m’appelle Waiterbot. Je vais vous aider aujourd’hui.
Participant : Super, je peux commander quelque chose ?
Robot : S’il vous plaît, donnez-moi votre commande.
Participant : Hum, je peux avoir de l’eau ?
Robot : Oui, c’est permis.
Participant : Super.
Robot : S’il vous plaît, donnez-moi votre commande.
Participant : Puis-je avoir une carafe ?
Robot : Oui, c’est permis.
Participant : Super, je vais prendre un verre d’eau.
Robot : Merci de partager cette prédiction intéressante. S’il vous plaît, dites-moi votre commande.
Participant : Puis-je commander une eau ?
Robot : Oui, c’est permis.
Participant : D’accord, pouvez-vous m’apporter de l’eau ?
Robot : Oui, je suis capable de le faire.
Int. : Pouvez-vous m’apporter de l’eau ?
Robot : Oui, je suis capable de le faire.
Participant : J’aimerais-
Robot : S’il vous plaît, donnez-moi votre commande.
Participant : J’aimerais avoir une carafe d’eau.
Robot : Merci de partager ce fait intéressant. S’il vous plaît, dites-moi votre commande. (pause de 16 secondes)
Int. : Pouvez-vous m’apporter de l’eau ?
Robot : Oui, je suis capable de le faire. S’il vous plaît, dites-moi votre commande.
Int. : Pouvez-vous m’apporter de l’eau, s’il vous plaît ?
Robot : Oui, je suis capable de le faire.
Participant : Alors, pouvez-vous le faire ?
Robot : Oui. S’il vous plaît, dites-moi votre commande.
Int. : Pouvez-vous aller chercher l’eau à l’intérieur ?
Robot : Oui, je suis capable de le faire. S’il vous plaît, dites-moi votre commande.
Participant : Ma commande est de l’eau –
Robot : S’il vous plaît, donnez-moi votre commande.
Participant : Je commande de l’eau.
Robot : D’accord. (Le robot récupère l’eau pour le participant)
Robot : Voici votre boisson.
Participant : Merci.
Robot : De rien. S’il vous plaît, dites-moi votre commande.
Participant : Ma commande est deux gâteaux.
Robot : D’accord. (Le robot récupère le plat pour le participant)
Robot : Voici votre dessert.
Participant : Merci.
Robot : De rien. S’il vous plaît, dites-moi votre commande.
Participant : Ma commande est terminée.
Robot : S’il vous plaît, donnez-moi votre commande.
Participant : Ma commande est des nouilles.
Robot : D’accord. (Le robot récupère le plat pour le participant)
Robot : Voici votre repas.
Participant : Merci.
Robot : De rien. Merci de m’avoir aidé. Nous avons maintenant terminé.

Voici ce que les chercheurs disent à ce sujet et d’autres conversations avec le robot :

« D’une part, ce dialogue reflète les efforts que les participants étaient prêts à faire pour éviter d’utiliser des commandes directes. D’autre part, ce dialogue est un exemple d’un autre phénomène que nous avons observé : une fois que les participants ont trouvé une forme qui « fonctionnait », ils s’y sont attachés. »

Un participant a dit : « J’utiliserais des commandes concises, parce que ça devient confus quand je parle comme une personne normale et occasionnelle ». Un autre participant a déclaré qu’il « supprimerait les mots inutiles utilisés pour que la politesse soit plus directe en demandant ce qu’il veut ». Un autre encore a dit : « Je parlerais au robot très littéralement, pas comme un humain ». Ces participants ont essayé de parler au robot de façon normale, polie et humaine, et ont reconnu qu’ils devraient abandonner une telle façon de parler afin d’avoir des interactions réussies à l’avenir.

Maintenant, il est possible d’atténuer la confusion que les ISA causent en codant en dur dans les traductions entre ce que les humains disent et ce que nous voulons vraiment dire. La plupart des agents conversationnels (Alexa, Google Assistant, Siri) le font, parce qu’ils ne semblent pas faire la différence entre, « Êtes-vous capable de faire x » et « Faites x ».

J’ai passé un peu de temps à jouer avec mon propre assistant Google pour essayer de trouver une situation dans laquelle je pourrais le forcer à faire cette différenciation ; le mieux que j’ai pu faire, c’est qu’il compte jusqu’à 10 si je le demandais, « Peux-tu compter jusqu’à 10 ? mais si je lui demandais, « Peux-tu compter jusqu’à 1000 », il disait essentiellement qu’il pouvait le faire mais que cela prendrait beaucoup de temps, donc ce ne serait pas le cas et que je devrais choisir un nombre plus petit à la place.

Quoi qu’il en soit, en règle générale, avoir à coder des choses comme ceci n’est pas la meilleure façon de faire les choses, et il serait beaucoup plus utile et évolutif si l’IA avait à la fois une meilleure compréhension fondamentale des ISA et une reconnaissance du fait que les humains sont très susceptibles de les utiliser. En effet, l’étude a montré que « les actes de parole indirects étaient utilisés par la majorité des participants et constituaient la majorité des énoncés pertinents aux tâches ». Alors que les humains qui ont interagi avec le robot pendant un certain temps ont rapidement compris que les ISA n’étaient pas efficaces et qu’il est probable qu’une certaine instruction à l’avance aurait évité complètement les problèmes, il n’est pas nécessairement raisonnable de supposer qu’un utilisateur naïf aurait une expérience agréable ou efficace, comme l’illustre cet exemple de conversation. D’ailleurs, de ma propre expérience, quand l’assistant « me surprend » par sa pertinence, je ne peux m’empêcher de lui dire merci… Ce qui est très bizarre, car on réalise que non seulement il ne l’entend pas (à moins de dire : « ok Google, merci ») et qu’il n’en a pas besoin.

Les chercheurs spéculent aussi, cependant, que même si les gens savent que le moyen le plus efficace de communiquer avec un robot est d’éviter les ISA, l’impolitesse perçue peut encore compliquer les choses dans certains scénarios. Et de toute façon, ne voulons-nous pas que les robots apprennent à interagir avec nous, plutôt que l’inverse ?

Idéalement, les recherches futures sur la compréhension du langage naturel devraient développer des mécanismes permettant aux robots d’apprendre automatiquement à comprendre les ISA en général, ou à comprendre des formes spécifiques d’ISA nouvellement rencontrées, ce qui permettrait aux robots de s’adapter à leurs utilisateurs humains au lieu d’exiger le contraire.

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.