Lorsque vous enseignez à un réseau neuronal à voir, vous lui apprenez aussi à dessiner.

Le croquis est un élément crucial des processus de pensée de nombreux artistes – une façon de voir, en faisant ; Matisse a dit que dessiner, c’est mettre une ligne autour d’une idée. Curieusement, un artiste computationnel découvre qu’un processus créatif similaire semble s’appliquer aux cerveaux synthétiques, aussi bien qu’aux cerveaux humains.

C’est du moins une façon d’interpréter le travail de l’artiste Tom White, professeur de conception informatique à la Victoria University School of Design de l’Université Victoria. Chacun des dessins de la série récente de White représente un objet du quotidien différent : un chariot élévateur. Un soutien-gorge. Un fer à repasser. Réalisés dans un geste lâche et percutant à la fois, les dessins ressemblent aux esquisses hâtives d’un artiste qui expérimente l’abstraction. Mais les images de White ne sont l’œuvre d’aucun artiste humain. Il expérimente en inversant le processus créatif, en mettant l’IA à la place de l’artiste, tandis qu’il aide simplement ces soi-disant « moteurs de perception » à s’exprimer.

[Image : courtoisie de Tom White]

Prenons le dessin d’un ventilateur électrique de Perception Engine. Tout d’abord, White a montré une collection de réseaux neuronaux convolutifs de milliers d’images de pales. Entraîné sur toutes ces images de ventilateur, le système a ensuite « esquissé » sa propre représentation d’un ventilateur, en ajoutant des traits larges et des lignes détaillées basées sur sa connaissance des ventilateurs. « Plusieurs réseaux neuronaux poussent simultanément un dessin vers l’objectif », explique White dans un essai sur Medium, comparant le processus d’esquisse à une « planche Ouija computationnelle ».

L’esquisse finale d’un ventilateur peut paraître follement abstraite aux yeux de l’homme – à peine identifiable, pour certains. Mais voici le rebondissement : d’autres réseaux de neurones classent de manière fiable le dessin très imaginatif du système comme un ventilateur. C’est presque comme si le système créait de façon autonome son propre langage visuel. C’est de l’art par l’AI, pour l’AI.

« L’utilisation de moteurs de perception inverse la relation créative stéréotypée employée dans l’interaction homme-machine, poursuit M. White. « Au lieu d’utiliser l’ordinateur comme outil, le module Drawing System peut être considéré comme un outil spécial que le réseau neuronal lui-même pilote pour produire ses propres sorties créatives. Alors qu’il a conçu le système, ajoute-t-il, « les réseaux neuronaux sont l’arbitre ultime du contenu ».

Grâce à une subvention du groupe Artist and Machine Intelligence de Google, White a utilisé une imprimante Riso pour transformer chaque esquisse en une esquisse, qu’il vend en ligne pour financer le processus. Une série d’estampes, habilement intitulée The Treachery of ImageNet, comprend des légendes qui acquiescent à l’iconique peinture de Magritte en 1928, The Treachery of Images (Ceci n’est pas une pipe).

Le travail de White est lié à des idées qui font l’objet de vifs débats dans l’apprentissage machine d’aujourd’hui. Les réseaux neuronaux peuvent être très bons pour percevoir et identifier ce qu’ils voient dans les images, mais ils sont faibles en d’autres façons. Une petite irrégularité dans l’image d’un ventilateur qu’un humain ne remarquerait jamais, par exemple, pourrait confondre le système et faire croire qu’il s’agit d’un avocat. C’est ce qu’on appelle un « exemple accusatoire« , et des chercheurs ont récemment montré que ces problèmes apparemment inoffensifs pourraient poser de graves problèmes de sécurité dans certaines situations. Le renforcement d’un réseau neuronal contre ces exemples contradictoires peut dépendre de la reconnaissance des concepts abstraits des objets qu’ils voient au niveau supérieur, plutôt que d’une simple reconnaissance granulaire au niveau des pixels.

Pendant ce temps, les Moteurs de Perception de White abordent des questions plus vastes sur la façon dont les machines « voient » et donc comment elles pensent, suggérant que ces systèmes sont capables d’abstraction et de pensée conceptuelle. « Mon intérêt à long terme est la cognition incarnée et l’utilisation des concepts de base partagée pour comprendre comment les systèmes d’apprentissage machine ont ou n’ont pas une compréhension partagée des concepts que nous pensons qu’ils apprennent « , dit-il. En d’autres termes, ce n’est peut-être pas un ventilateur – mais si l’AI pense que c’en est un, et les gens le font aussi bien, c’est comme si c’était le cas.

Vous pouvez acheter le travail de White en ligne ici.

1 commentaire »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.