Il devient difficile de dire si une peinture a été produite par un ordinateur ou un humain

Les experts culturels peuvent clore le livre en 2017: la plus grande réalisation artistique de l’année a déjà eu lieu. Cela ne s’est pas produit dans un atelier de peinture à la périphérie de Pékin, Singapour ou Berlin. Ça ne s’est pas passé à la Biennale de Venise. C’est arrivé au Nouveau-Brunswick, dans le New Jersey, juste avant la sortie 9 sur le Turnpike.


C’est là que se trouve le campus principal de l’Université Rutgers, qui s’étend sur 640 kilomètres carrés et comprend le laboratoire d’art et d’intelligence artificielle (AAIL) de l’école. Personne ne prendrait cet endroit pour un incubateur d’art. Il ressemble à une startup bootstrap, avec beaucoup de moniteurs Dell bon marché et des planches en liège remplis de charabia technologique.

Le 14 février dernier, c’est là que le professeur Ahmed Elgammal a lancé un nouvel algorithme de génération d’œuvres d’art sur ordinateur et a pu observer la sortie d’une série d’images à couper le souffle. Deux semaines plus tard, Elgammal a effectué un test spécial de Turing pour voir comment son art numérique s’empilait contre des dizaines de toiles de qualité muséale.

Dans une étude contrôlée et randomisée, les sujets n’ont pas pu distinguer l’art informatique de deux ensembles d’échantillons d’œuvres acclamés créés par des artistes de chair et de sang (l’un a été extrait du canon des peintures expressionnistes abstraites, l’autre des œuvres présentées à l’édition 2016 d’Art Basel à Hong Kong). En fait, les images réalisées par ordinateur étaient souvent considérées par les sujets comme plus « nouvelles » et « esthétiques » que l’art humain. Le journal qui s’ensuivit, soumis à l’examen de ses pairs, déclencha une rumeur troublante dans le monde de l’art: Watson avait appris à peindre comme Picasso.

Programmer un ordinateur pour faire de l’art unique et attrayant que les gens accrocheraient à leurs murs est le point culminant d’un impressionnant corpus de travaux qui remonte à 2012, lorsque le Département d’informatique de Rutgers a lancé l’AAIL. L’énoncé de mission du laboratoire est simple: »Nous nous concentrons sur le développement de l’intelligence artificielle et des algorithmes de vision artificielle dans le domaine de l’art ». Au fil des ans, le laboratoire a développé plusieurs algorithmes novateurs qui ont éveillé l’intérêt de tous, des conservateurs et historiens aux authentificateurs et aux salles de ventes aux enchères. Un algorithme, qui intègre les éléments de nouveauté et d’influence, est utilisé pour mesurer la créativité artistique.
Une autre analyse les peintures et les classe selon l’artiste, l’époque et le genre, comme un Shazam pour l’art. Il y a même un algorithme médico-légal dans le pipeline de l’AAIL qui identifie les variations subtiles mais distinctes dans les coups de pinceau des différents artistes. Dans une entreprise où les contrefaçons sont de plus en plus difficiles à repérer, c’est le genre de test numérique que les assureurs, les collectionneurs et les galeries peuvent utiliser.
L’étape suivante était évidente: un programme qui ne copiait pas de l’art ancien, mais créait plutôt de nouvelles compositions. Elgammal « entraîna » son algorithme en lui fournissant plus de 80 000 images numérisées de peintures occidentales extraites d’une ligne du temps qui s’étendait du 15e au 20e siècle. En utilisant cet immense corpus comme source de programmation, il s’est attelé à la tâche de créer une variante du système d’intelligence artificielle connu sous le nom de réseaux adversariels génératifs. Ces soi-disants « GAN » sont très bons pour générer des images de sacs à main et de chaussures, mais pas très bons pour générer des arts visuels originaux. Elgammal a donc mis au point son propre système de génération d’images: Creative Adversarial Networks (CANs).

Réduit à la définition la plus élémentaire, un GAN est émulatif et un CAN, comme son nom l’indique, est créatif.
Les images générées par le RCA ne ressemblent pas à de l’art traditionnel en termes de genres standards « , écrivait Elgammal dans un article de juin 2017, » CAN: Creative Adversarial Networks Generating’Art’by Learning About Styles and Deviating from Style Norms « , » Nous ne voyons pas non plus de figures reconnaissables. Beaucoup d’images semblent abstraites. Est-ce simplement parce qu’il ne parvient pas à imiter la distribution de l’art, ou parce qu’il essaie de générer des images originales? Est-ce créatif? »
Lorsqu’on lui pose une question semblable plusieurs mois plus tard, Elgammal n’ a plus aucun doute. La machine a développé un sens esthétique « , dit-il sans détour. « Elle a appris à peindre. »

Comme la plupart des percées technologiques fulgurantes, l’algorithme d’art de Rutgers est en fait né de milliers d’heures de labo fastidieuses. Durant les trois semaines qui ont précédé ce moment charnière, Elgammal et ses deux assistants ont apporté de nombreux ajustements à leur algorithme finement calibré, essayant d’amener le code binaire têtu à créer un art plus humain. Malgré tout le travail, le directeur de la Ligue, âgé de 45 ans, était d’abord frustré. Les images n’étaient ni bonnes ni mauvaises, elles occupaient la toile, avec en suspens la présence ou non de créativité.

L’équipe a surmonté ce fait sous-optimal en introduisant dans l’algorithme une « ambiguïté stylistique » et des « déviations par rapport aux normes de style », explique Elgammal. C’est un exercice délicat d’équilibre. S’éloigner trop loin des styles de peinture établis et les images qui en résultent sembleront bizarres aux spectateurs. A l’inverse, il s’approche trop près du canon de l’art traditionnel et l’ordinateur produira des images ternes, dérivées et familières, l’équivalent informatique de la peinture par chiffres.

Après avoir écrit quelques patches de style, Elgammal a relancé l’algorithme une fois de plus. Je m’attendais à voir des images floues et non claires, des visages bizarres et des objets bizarres « , dit-il. Étonnamment, cependant, cela ne s’est pas produit. L’équipe de la LDVA a plutôt réussi à trouver la formule. Les compositions et les couleurs étaient très jolies « , dit Elgammal, en savourant le souvenir de cet eureka. « On a dit » Wow! Si c’était dans un musée, vous adoreriez ça. »

Inquiet que l’algorithme ait généré de l’art abstrait au lieu, disons, de portraits et de natures mortes, Elgammal souligne la nature évolutive du Réseau Adversarial Créatif. « C’est logique », dit-il en fait. Si vous nourrissez en histoire de l’art la machine, de la Renaissance à nos jours, et lui demandez de générer quelque chose qui s’inscrit dans un style, la progression naturelle serait quelque chose d’une esthétique abstraite. L’AI d’art est sur un rouleau: »Puisque l’algorithme fonctionne en essayant de s’écarter des normes de style, il semble qu’il a trouvé la réponse dans de plus en plus d’abstraction. C’est assez intéressant, parce que cela nous dit que l’algorithme réussit à capter la progression de l’histoire de l’art et a choisi de générer des œuvres plus abstraites comme solution. L’abstraction est donc le progrès naturel de l’histoire de l’art. »

En d’autres termes, l’algorithme a fait exactement ce que beaucoup d’artistes humains feraient dans les mêmes circonstances: il a produit le genre d’images saisissantes qui auraient eu une chance d’attirer l’oeil blasé d’un Larry Gagosian ou de Charles Saatchi. L’art de produire un art qui dépasse des maîtres hollandais ne chatouillerait pas assez le réseau neuronal du cerveau, ce qui aurait pour résultat « l’accoutumance », ou une diminution de l’excitation en réponse aux répétitions d’un stimulus. En termes simples, les collectionneurs d’art sont un peu comme les drogués: niveau stimuli visuels, les projets d’œuvres d’art doivent avoir suffisamment de « potentiel d’excitation » pour déclencher ce que les psychologues appellent la « réponse hédonique« .

Les théories du psychologue Colin Martindale à cet égard figurent en bonne place dans l’ADN de l’algorithme d’Elgammal. Dans son texte le plus populaire, The Clockwork Muse: The Predictability of Artistic Change (1990), Martindale suggère que les artistes à succès intègrent la nouveauté dans leur travail. Il a émis l’hypothèse que cette augmentation du potentiel d’éveil contrecarre la réponse inévitable de l’habituation du spectateur.
Cette bosse dans la nouveauté créative, cependant, doit être minimisée afin d’éviter une réaction négative du spectateur. Martindale croit également que les artistes ont adopté le « style breaks » (une gamme de phases artistiques) comme outil pour rendre leur travail moins prévisible et plus attrayant pour les spectateurs sur une longue période de temps. C’est exactement le genre de chose sur laquelle un algorithme d’art pourrait être basé. Parmi les théories qui tentent d’expliquer les progrès de l’art, note Elgammal dans son article, »nous trouvons que la théorie de Martindale est réalisable par calcul ».

L’histoire de l’art informatique, qui constitue le socle du domaine académique en plein essor connu sur les campus universitaires sous le nom de « humanités numériques », remonte au début des années 1960 sous le nom de « Drawing Machines » de Desmond Paul Henry. La conception de ces engins reposait sur des ordinateurs de détection de bombes utilisés par les pilotes pendant la Seconde Guerre mondiale pour livrer des munitions avec une précision extrême. Les images générées par les machines d’Henry étaient abstraites, curvilignes et résolument complexes.

Le mouvement d’art informatique des années 1960 a donné naissance à d’autres images fabriquées à la machine, allant de l’art de l’infographie à faible technicité d’Alfons Schilling (imagination de la peinture au goutte-à-goutte sur toile attachée à un tour de potier géant, qui a longtemps précédé les cyniques « spin art » de Damien Hirst) aux premiers dessins et animations numériques produits dans les légendaires Bell Telephone Labs de Murray Hill, au New Jersey.
Fondée en 1966 par les ingénieurs de Bell Billy Klüver et Fred Waldhauer, ainsi que par les artistes Robert Rauschenberg et Robert Whitman, Experiments In Art and Technology (E. A. T.) a été le projet phare des Bell Labs, sur lequel repose aujourd’hui tout l’art créé par ordinateur. Le processus créatif a été extrêmement ardu. Les programmes et les données artistiques, par exemple, devaient être rendus par l’intermédiaire d’un poinçon de clavier classique. Ces cartes perforées ont été introduites dans un ordinateur de la taille d’une pièce, une par une. Les images fixes qui en résultent doivent ensuite être transférées manuellement sur un support de sortie visuel comme un traceur à stylet ou à microfilm, une imprimante linéaire ou une impression alphanumérique.

Au fur et à mesure que de nouvelles technologies informatiques étaient introduites, de nouveaux arts faits à la machine suivaient rapidement: l’art des imprimantes matricielles à points (1970), l’art des jeux vidéo (2000s), l’art imprimé 3D (2010s). Ce qui rend les images d’ordinateur d’Elgammal uniques, c’est que c’est la première fois où A. I. a complètement éliminé les humains de la boucle créative en temps réel.

Contrairement à DeepDream, le projet de Google, le projet d’art bot-art en 2015, l’intervention humaine est absolument nulle dans la machine Rutgers AAIL. Elgammal allume l’ordinateur et l’algorithme fait son truc.
DeepDream, en revanche, exige une touche humaine; les programmeurs de Google commencent par une image et appliquent une texture (« style »). Cela signifie que la composition DeepDream est en fait dictée par l’image ou la photo d’entrée sélectionnée par une entité humaine.
« Avoir un algorithme d’art autonome semble faire toute la différence. Les résultats indiquent que les sujets ne considèrent pas seulement ces peintures comme de l’art, mais comme quelque chose d’attirant « , déclare le professeur Elgammal. Les scores auxquels il fait référence ont été compilés après qu’on ait demandé aux sujets humains d’évaluer dans quelle mesure les peintures étaient intentionnelles, communicatives, visuellement structurées et inspirantes. Les données ont révélé que les sujets « ont évalué les images générées par [l’ordinateur] plus haut que celles créées par des artistes réels, que ce soit dans l’ensemble d’expressionnisme abstrait ou dans l’ensemble Art Basel « .

Les chiffres sont allés bien au-delà de ce qui est statistiquement significatif. Lorsqu’on leur a demandé de deviner l’auteur des œuvres d’art présentées à Art Basel à Hong Kong en 2016, 59% des personnes interrogées ont supposé à tort qu’elles avaient été fabriquées par des machines. Dans une autre partie de l’enquête, 75 % des répondants ont supposé que les peintures réalisées à l’aide de l’algorithme étaient en fait générées par les humains. Les peintures générées par ordinateur se comparaient à des œuvres comparables d’artistes comme Leonardo Drew, Andy Warhol, Heimo Zobernig et Ma Kelu.
La plupart des artistes contemporains dont les œuvres ont été utilisées dans l’expérience de l’AAIL ont refusé de commenter le document de recherche d’Algammal, à une exception près: Panos Tsagaris.

Une œuvre de l’artiste grecque, une toile mixte aux couleurs dorées, a été montrée en 2015 sans titre par les Galeries Kalfayan à Art Basel 2016 à Hong Kong, et a été incluse comme image d’exemple pour les tests AAIL.
Tsagaris trouve l’A.I. artiste « fascinante », et considère l’algorithme plus comme une menace par les pairs que comme une menace perturbatrice. Je suis curieux de voir comment ce projet progressera à mesure que la technologie évoluera », dit-il. « L’aspect des peintures humaines générées par une machine est une chose ; apporter l’ A.I. est plus dingue encore. Cela ressemble plus à Philip K. Dick qu’ à Clément Greenberg: »Je veux voir l’art qui a été généré dans l’esprit et le cœur de l’ A.I. »artiste. »

L’historien et critique d’art James Elkins est moins optimiste. C’est agaçant parce que les algorithmes sont faits par des gens qui pensent que les styles sont ce qui compte dans l’art par opposition aux contextes sociaux, au sens et à l’objectif expressif « , dit-il. « Si les artistes humains cessaient de faire de l’art, les ordinateurs aussi. »

Michael Connor, le directeur artistique de Rhizome, un organisme à but non lucratif qui fournit une plateforme pour l’art numérique, est d’accord. Il décrit le fossé entre les artistes humains et non-humains comme étant large et profond: »Faire de l’art n’est pas le seul rôle de l’artiste. Il suggère que l’image qu’un algorithme génère est de l’art au même titre qu’un faussaire de Monet peint de l’art: »L’art algorithmique est comme une contrefaçon. Il ajoute que ce n’est pas nécessairement une mauvaise chose: »Comme les statues romaines, qui sont des copies des figures grecques originales, même les copies peuvent développer une valeur intrinsèque au fil du temps.

Elgammal signale rapidement que la courbe d’apprentissage de son algorithme est parfaitement conforme au processus de maturation de l’artiste humain. Au début de leur carrière, des artistes comme Picasso et Cézanne imitaient ou suivaient consciemment ou inconsciemment le style des peintres auxquels ils étaient exposés. Puis, à un moment donné, ils ont quitté cette phase d’imitation pour explorer de nouvelles choses et de nouvelles idées « , dit-il. Ils sont passés des portraits traditionnels au cubisme et au fauvisme. C’est exactement ce que nous avons essayé d’implémenter dans l’algorithme d’apprentissage machine. »

Et, tout comme un véritable artiste émergent, l’algorithme est sur le point d’avoir sa première oeuvre sur une seule machine. « Unhuman: Art in the Age of A. I.« , une exposition à Los Angeles en octobre prochain, présentera 12 des pièces originales produites par l’A.I. et utilisées dans l’étude de Rutgers. Et ce n’est qu’un début, l’algorithme d’Elgammal a une vraie place pour la croissance de cet art. C’est parce que les codeurs du laboratoire de Rutgers n’ont pas exploité toutes les « variables » qui peuvent être utilisées pour augmenter le « potentiel d’excitation » des images générées par l’algorithme. Plus le potentiel d’excitation est élevé (jusqu’à un certain point), plus l’ A.I. est agréable. L’art est à l’homme (et plus il est susceptible de l’acheter, vraisemblablement).
Malgré tous les opposants à l’art A.I., voici ce qui devrait rendre nerveux les peintres et les marchands qui les représentent: Elgammal prétend que les images générées par son code informatique ne feront que s’améliorer avec le temps. En fouillant profondément dans l’histoire de l’art, nous pourrons écrire un code qui pousse l’algorithme à explorer de nouveaux éléments de l’art « , dit-il avec assurance. « Nous affinerons les formulations et mettrons l’accent sur les principales propriétés d’éveil de l’esthétique: nouveauté, surprise, complexité et énigme. »
La surprise et l’énigme – pas exactement les mots à la mode d’Artforum. Mais donner à l’algorithme le temps d’améliorer et de compiler un corps de travail, et ils pourraient être. Elgammal insiste sur le fait que cette technologie n’est pas une merveille. Il envisage toute une infrastructure qui se développe pour soutenir son art numérique générateur d’excitation: galeries, agents, enchères en ligne, voire authentificateurs (un service qui sera sans doute rendu par un autre algorithme AAIL).

Mais avant de vendre tous vos Warhols et d’investir massivement dans un portfolio d’art généré par algorithme, considérez cette leçon d’histoire.
En 1964, A. Michael Noll, ingénieur et pionnier de l’informatique à Bell Labs, a fait son propre test de Turing. Il a programmé un ordinateur IBM et un traceur de microfilms General Dynamics pour générer un riff algorithmique du chef-d’œuvre de Piet Mondrian Composition with Lines (1917). L’image numérique a été projetée sur un tube cathodique et photographiée avec un appareil photo 35mm. Une copie de cette estampe, que Noll Noll a nommé Composition informatique avec lignes, a été montrée à 100 sujets à côté d’une reproduction de la peinture Mondrian. Seulement 28% des sujets ont pu identifier correctement le passage IBM. Encore plus étonnant, 59% des sujets préféraient l’image de l’ordinateur à l’original Mondrian.

L’année suivante, une collection d’art numérique de Noll a été exposée à la Howard Wise Gallery de New York, marquant la première fois que l’art généré par ordinateur était présenté dans une galerie d’art américaine. Le New York Times a donné à l’exposition révolutionnaire une critique élogieuse. Selon Noll, la réaction du public a été « décevante », et aucune image de l’émission n’ a été vendue.

Cette exposition ratée n’ a rien fait pour diminuer l’optimisme de Noll sur l’avenir de l’art numérique. L’ordinateur pourrait être un outil aussi précieux pour les arts qu’il l’a déjà été pour les sciences « , écrivait-il en 1967. Au cours du demi-siècle qui a suivi l’apparition de ces mots, cette prophétie n’ a pas encore été réalisée.

Mais que devrions-nous faire d’un nouvel algorithme qui n’est pas tant un « outil » pour aider les artistes, qu’une machine pour les remplacer? Mad scientist invente une machine qui devient plus humaine que les humains.

Celui qui suit le marché de l’art contemporain verra ici une ride supplémentaire. Pendant un moment, le style dominant – des écoles d’art au circuit des galeries en passant par les maisons de ventes aux enchères – fut une sorte de peinture abstraite que les critiques surnommèrent « Formalisme des Zombies » (alias Néo-Modernisme, MFA Abstraction, et plus dérisoirement Crapstraction). Clinique, dérivé, prétentieux et verticalement formaté pour un affichage pratique dans Instagram, ce nouveau genre, qui est souvent numérisé, filtré et présenté par ordinateur, est de l’art humain masqué sous forme d’art algorithmique.

C’est le genre d’ironie exquise qui suscite des conversations sur la dystopie rampante et le déclin de la culture: pour reprendre leur avantage et obtenir de meilleurs résultats au prochain test de Turing du professeur Elgammal, les humains pourraient devoir commencer à peindre davantage comme des robots.

Si les crapstractionnistes en herbe suivaient l’exemple de l’intelligence artificielle – « dévier de la norme » et injecter une touche d’ambiguïté de style dans leur travail – leur peinture pourrait même s’améliorer.

1 commentaire sur “Il devient difficile de dire si une peinture a été produite par un ordinateur ou un humain”

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.