L’intelligenza artificiale suona male

I brani sono stati realizzati con i software di Flow Machines, un progetto finanziato dal Consiglio Europeo della Ricerca (ERC) nell’ambito del machine learning.

L’intelligenza artificiale suona male

Pochi giorni fa, Sony ha diffuso due brani che sono stati ampiamente reclamizzati come “composti da un’intelligenza artificiale” — anche se non è proprio così.

Si tratta di due canzoni di tre minuti ciascuna, intitolate Daddy’s Car e Mr Shadow. Il primo è un pezzo pop-rock lievemente psichedelico con coretti e movenze alla Beatles; il secondo dovrebbe imitare lo stile dei compositori “Irving Berlin, Duke Ellington, George Gershwin e Cole Porter” — così si legge — ma sembra piuttosto un b-side degli Air.

Per realizzarli sono stati utilizzati i software di Flow Machines, un progetto finanziato dal Consiglio Europeo della Ricerca (ERC) nell’ambito del machine learning, e in particolare FlowComposer, un’applicazione online che, pescando da un database di circa 13000 spartiti, permette di generare automaticamente una partitura elementare in base allo “stile” che si preferisce.

Su questo primo output — una linea melodica e gli accordi — si possono fare aggiustamenti virtualmente infiniti: modificare le singole note, il ritmo, il tempo, la strumentazione, armonizzare in modi diversi, generare nuovi frammenti audio di accompagnamento esemplati su brani già esistenti attraverso un altro software chiamato Rechord, eccetera.

Così

https://www.youtube.com/watch?v=SDnkX8v8caY

Per conto di Sony, tutto questo lavoro — che sopravanza di gran lunga quello dell’algoritmo — è stato fatto dal musicista francese Benoît Carré, che si è occupato anche della post-produzione dei brani e delle liriche. Ho provato anch’io a comporre qualcosa con FlowComposer ma l’interfaccia è terribilmente scadente, e dopo due ore di tentativi casuali (mescolando, nei parametri di input, i Kraftwerk e un generico “Funky groovy bis”) sono riuscito a ottenere soltanto un mucchio di note sbilenche, che tanto valeva scarabocchiare a caso su un pentagramma. Peccato, sono certo sarebbe stato un grande successo.

Sony intende pubblicare l’anno prossimo un album intero con Benoît Carré e FlowComposer, ma non si tratta del primo tentativo di far generare musica a un computer. Soltanto pochi mesi fa, Google ha pubblicato 90 secondi di musica prodotta con gli algoritmi di Magenta, un progetto di machine learning applicato all’arte e alla musica: quattro note e una drum machine aggiunta da mano umana. Ma se 90 secondi non vi bastano, potete ascoltare tutta la musica automatica che volete usando Computoser, che funziona come una sorta di web-radio non stop (qui una recensione di alcuni dei suoi brani).

Tutto ciò che accomuna queste musiche è che sono brutte: finte, asettiche, vagamente inquietanti — la cosa a cui si avvicinano di più sono le suonerie polifoniche dei cellulari di una decina di anni fa.

Intelligenza artificiale

D’altra parte, così come non è necessario un algoritmo per produrre musica generativa o computazionale riducendo al minimo l’intervento umano (John Cage insegna), allo stesso modo gli esseri umani sono capacissimi di realizzare musica elettronica simile a quella generata dagli algoritmi di machine learning: c’è anzi un vasto settore dell’elettronica contemporanea che cerca consapevolmente di escludere dalla propria musica ogni suono riconducibile non soltanto all’umano, ma all’esistenza fisica tout court — qualcuno l’ha definita musica accelerazionista, espressione estremizzata del tecno-capitalismo contemporaneo.

La musica di James Ferraro, per esempio, potrebbe benissimo essere stata prodotta da un algoritmo.

È probabile che l’intelligenza artificiale (anche se è difficile definire esattamente cosa intendiamo per “intelligenza artificiale”) diventi una tecnologia pervasiva nel prossimo futuro. Allo stesso tempo, forse ci abitueremo ad ascoltare musica sempre più disumanizzata e sintetica. Bene così. Resta una domanda: perché dovremmo farla comporre agli algoritmi?

Anche se, per adesso, parlare di “composizione” è prematuro. Come nel caso di Deep Dream, il software di Google che sfrutta una rete neurale per generare immagini da trip acido: all’epoca si parlò ampiamente dei “sogni delle macchine,” per fare un po’ di sensazione, ma si trattava sempre di input (umanissimi) processati da un algoritmo secondo determinate regole. Sarebbe come dire, più o meno, che la carne trita è il sogno del tritacarne.