Les androïdes hallucinent-ils de moutons électriques ?

Une voiture autonome qui regarde un panneau stop et qui ne voit rien d’autre qu’un panneau stop dans cette situation ne mènera pas à un résultat favorable.

Qu’est-ce que c’est ? Au MIT, les informaticiens ruminent une question intéressante mais potentiellement alarmante : Que se passe-t-il lorsque l’intelligence artificielle « hallucine » ?

Pourquoi est-ce important ?
L’exemple donné dans un article récent de la BBC est celui d’une voiture qui s’auto-conduit en regardant un panneau d’arrêt. Voir autre chose qu’un panneau stop dans cette situation ne mènera pas à un résultat favorable. L’informaticien du MIT Anish Athalye et ses collègues ont démontré des situations dans lesquelles le « bruit » (au sens de l’image), sous forme de légères modifications de texture ou de couleur, peut être introduit dans une image de chat, par exemple. L’altération peut échapper à l’œil humain, mais elle peut quand même conduire un réseau neuronal à regarder le chat et à voir un bol de guacamole.

De même, l’apposition d’un autocollant sur un panneau d’arrêt pourrait amener un système d’IA à le mal interpréter ou à le négliger complètement. Les scientifiques appellent ce genre d’intelligence artificielle un faux exemple d’antagonisme. Athalye a dit : « Au début, c’était d’abord une curiosité. Aujourd’hui, cependant, les gens considèrent qu’il s’agit d’un problème de sécurité potentiel, car ces systèmes sont de plus en plus utilisés dans le monde réel. »

Comment cela fonctionne-t-il ? Dans une certaine mesure, les réseaux neuronaux apprennent de la même façon que les jeunes enfants : en traitant suffisamment d’images visuelles pour qu’ils soient capables d’identifier des motifs et, éventuellement, certains objets en eux – comme des chats. Mais le processus par lequel les réseaux neuronaux font cela n’est pas encore complètement compris par les scientifiques, et ces exemples contradictoires illustrent bien à quel point ces systèmes d’IA sont à la traîne de la puissance impressionnante du cerveau humain. D’autres études sont nécessaires. Athalye des réseaux de neurones dit : « Nous ne les comprenons pas assez bien actuellement pour, par exemple, expliquer exactement pourquoi le phénomène des exemples accusatoires existe et savoir comment le résoudre.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.