Taryn Southern est une artiste et cinéaste numérique. Elle co-réalise actuellement un documentaire sur le cerveau, et son album I AM AI devrait sortir en septembre prochain. En tant que YouTuber, elle a produit plus de 1000 vidéos qui ont recueilli plus de 500 millions de visites en ligne.
Il y a un an, elles a commencé à travailler sur un album. Elle écrivait les mélodies et les paroles, tandis que son partenaire s’occupe de la composition.

Nous travaillons tous les deux sur l’instrumentation et nous nous complétons bien l’un l’autre. La seule partie étrange de la relation est que…. mon partenaire n’est pas humain.

La relation est née de la curiosité. Les gros titres de terreur comme.. : L’IA prendra nos emplois, nos données et, éventuellement, nos âmes.

Les arguments m’ont laissé perplexe. Que se passe-t-il vraiment avec l’IA ? Je suis tombé sur un article racontant comment l’intelligence artificielle était maintenant utilisée pour composer de la musique. Après une recherche rapide sur Google, j’ai trouvé que la création de chansons n’était que la pointe de l’iceberg – l’AI écrivait aussi des poèmes, montait des films et synthétisait de l’art… et passait le test de Turing.

Désireuse d’en savoir plus, elle a commencé à expérimenter avec tous les outils de création musicale avec de l’IA qu’elle a pu se procurer. Amper, et Aiva pour commencer, puis plus tard, IBM Watson et Google Magenta (et il y en a d’innombrables autres sur la scène – AI Music, Jukedeck et Landr pour n’en nommer que quelques-uns).

Son projet parallèle s’est rapidement transformé en un album à part entière (« I AM AI ») accompagné d’une série de clips virtuels explorant la relation ténue entre l’homme et la technologie. En septembre dernier, elle a sorti le premier single complet qu’elle a produit avec Amper, Break Free, qui a attiré l’attention – et la curiosité – de l’ensemble de la communauté créative.

Beaucoup ont demandé : craignez-vous que l’intelligence artificielle soit plus créative que vous ?

Non. À bien des égards, l’AI m’a aidé à devenir plus créatif, en transformant mon rôle en quelque chose qui ressemble davantage à un éditeur ou à un réalisateur. J’ai donné une direction à l’IA (sous forme de données pour apprendre ou de paramètres pour la sortie), et elle renvoie la matière première, que j’édite et arrange pour créer une chanson cohésive. Cela m’a aussi permis de consacrer plus de temps à d’autres aspects du processus de création comme les mélodies de paroles, les paroles et les vidéos musicales. C’est toujours créatif, juste différent.

Mais technophobes, réjouissez-vous : L’IA n’est pas encore un compagnon parfait.

« Ce à quoi ressemble l’avenir de notre monde co-évolutionnaire avec l’IA est une supposition…. mais je suis optimiste », dit-elle.

Puisqu’il y a encore beaucoup de mystère autour du processus de collaboration avec une AI, une panne est une façon utile d’amorcer la conversation. Voici les principales plates-formes qu’elle a utilisé et ce qu’elle a tiré de sa collaboration avec chacune d’elles :

Amper :

Cofondée par plusieurs musiciens, Amper s’est lancée comme plateforme pour composer des partitions originales pour des productions. Actuellement gratuit pour le public, Amper dispose d’une interface utilisateur frontale simple que vous pouvez utiliser pour modifier des paramètres tels que le BPM, l’instrumentation et l’humeur. Pas besoin de connaître le code ici !

Avant de travailler avec Amper, je ne pouvais pas reconnaître les sons des différents instruments, et je ne pensais pas avoir de préférences musicales particulières. Maintenant, je reconnais des douzaines d’instruments et j’ai affiné un style créatif particulier. Par exemple, j’ai développé un goût prononcé pour le mélange de synthétiseurs électroniques avec piano et basse profonde, comme vous pouvez l’entendre dans Life Support ci-dessous, pour lequel j’ai produit un clip vidéo 360 VR.

 

AIVA :

Aiva est un algorithme d’apprentissage profond primé et le premier à être enregistré auprès d’une société de droits d’auteur. AIVA utilise l’apprentissage profond et l’apprentissage de renforcement pour analyser des milliers de morceaux de musique classique dans des styles spécifiques et composer de nouvelles partitions.

Mon premier morceau avec AIVA, Lovesick, a été créé à partir de l’analyse de milliers de pièces de la fin de la période romantique (du début au milieu des années 1800.) Le résultat est un morceau de piano Westworld-esque que j’ai arrangé en un morceau pop-funk avec des éléments de synthé électronique. Collaborer avec un matériel de source aussi peu familier était incroyablement amusant parce qu’il force à sortir des sentiers battus. En arrangeant le morceau, j’ai vraiment dû ignorer beaucoup de mes instincts de conditionnement « pop style ».

Watson Beat (IBM) :

Alors que Watson Beat n’a pas de front-end, il faut quelques tutoriels pour commencer. Pour ceux qui ont plus confiance dans le code, cependant, c’est un programme gratuit et open source que vous pouvez télécharger sur GitHub. En quelques jours, il est possible de créer quelque chose avec une touche stylistique.

J’ai été ravie de voir les résultats du mélange de diverses entrées de données avec des genres inattendus, ce qui m’a également rendu plus consciente des influences sous-jacentes qui régissent mes propres idées créatives. Parce que la sortie est MIDI (alors que Amper est un fichier WAV ou MP3 fini), l’artiste a une liberté totale sur la façon dont les notes sont transposées dans l’instrumentation. J’ai trouvé mon amour des synthétiseurs en les plaçant sur des styles de musique improbables, et mon premier titre avec Watson Beat sortira probablement cet été.

Google Magenta :

comme Watson, Magenta est gratuit et open source sur Github. Certains outils ont des interfaces faciles à utiliser en face avant (i.e. AI Duets) et d’autres nécessitent un peu plus de connaissances en codage back-end. Ce qui est bien, c’est l’étendue et le nombre d’outils que Google offre dans son arsenal. Probablement le programme le plus solide pour les programmeurs.

Avec les outils Magenta, vous n’avez pas seulement à vous concentrer sur la composition, vous pouvez aussi analyser le son. NSynth, par exemple, vous permet de combiner les sons de deux instruments différents (essayez de mélanger un chat avec une harpe !) Google a des algorithmes pour étudier le son et la qualité vibratoire, ce qui a de nombreuses applications passionnantes.

Il n’est pas surprenant que l’IA suscite beaucoup de questions sur notre  » spécialité  » en tant qu’humains….mais peut-être que nous nous concentrons sur le mauvais argument. Les humains évoluent toujours avec la technologie, et c’est ce que nous choisissons de faire avec l’IA qui compte. Ce n’est que la pointe de l’iceberg – et cela débloquera la créativité que nous ne pouvons pas encore imaginer.

Pour les amateurs en herbe qui n’ont pas de formation musicale formelle, l’IA peut être un outil convaincant – non seulement pour l’apprentissage, mais aussi comme point d’entrée pour l’expression personnelle. Maintenant, n’importe qui, n’importe où, a la capacité de créer de la musique – et c’est ce désir et cette capacité d’exprimer qui fait de nous des êtres humains.

via techcrunch

1 commentaire »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.