fbpx

Musica e Intelligenza Artificiale: il ritorno dei Nirvana

da | 3 Mag 2021 | Blog

L’intelligenza artificiale è spesso volutamente raccontata come una magia: basta solo chiedere e qualcosa succederà per davvero. E’ quanto è successo quando è stata pubblicata la canzone dei Nirvana “Drowned in the sun”.

Chi ha amato la musica di Kurt Cobain e dei Nirvana non può fare a meno di chiedersi ad ogni ascolto cosa sarebbe successo se Kurt non si fosse tolto la vita nel 1994. Si parlava di una possibile collaborazione con Michael Stipe dei R.E.M. o di un suo progetto da solista.

Per accontentare i fan bisognosi della sua musica, si va a cercare negli armadi qualche registrazione scartata e mai pubblicata ufficialmente o suonata in un concerto. Ma il risultato è spesso deludente, se non per i collezionisti di cimeli.

Drowned in the Sun è una canzone creata nell’ambito di un progetto chiamato “Lost Tapes of the 27 Club” dall’organizzazione non-profit chiamata Over the Bridge. Lo scopo del progetto è quello di attirare l’attenzione sui problemi di salute mentale che continuano a colpire musicisti e compositori nell’industria musicale. Il progetto aveva già creato canzoni di Jimi Hendrix, Amy Winehouse e dei The Doors.

Il risultato è spiazzante: si parte da un riff tranquillo per arrivare alla furia tipica del gruppo di Seattle. Insomma, gli ingredienti ci sono tutti. Anche il testo è credibile: “The sun shines on you but I don’t know how,” e poi un coro sorprendente: “I don’t care/I feel as one, drowned in the sun”.

La nuova canzone dei Nirvana è stata creata dando in pasto dei file MIDI a un programma di intelligenza artificiale che impara a comporre nello stile di un artista analizzando i suoi lavori precedenti.

Si è partiti da un campione di 20-30 canzoni che sono state spezzate nei loro elementi costitutivi: assoli, chitarra ritmica, basso, batteria, cori. Questo perché inserire canzoni intere manda in confusione il software, incapace di cogliere gli aspetti più peculiari del gruppo. Secondo chi ha lavorato al progetto, il 90% dei riff prodotti dal software era davvero di cattiva qualità e inascoltabile ma nel restante 10% hanno cominciato a trovare qualcosa di interessante. Un processo analogo è stato usato per il testo della canzone: una semplice rete neurale addestrata con le canzoni del gruppo e uno spunto iniziale di poche parole, e l’algoritmo era in grado di completare le frasi. Anche in questo caso, è stata necessaria una selezione finale per trovare i versi che meglio si combinassero sillabicamente con la musica generata.

E’ servito un anno di ricerca e sviluppo per completare il lavoro. In questo intervallo di tempo, il team ha cercato l’aiuto di esperti del gruppo per monitorare la possibile presenza di plagi. La canzone è stata poi cantata da Erik Hogan, cantante di una tribute band della musica grunge.

Il progetto Magenta

Per creare la nuova canzone dei Nirvana, è stato utilizzato Magenta, un progetto di ricerca open source ospitato su Github, nato per esplorare il machine learning come strumento nel processo creativo. E’ distribuito come una libreria Python basata su TensorFlow per manipolare dati (musica e immagini), usare questi dati per il training di modelli di machine learning e infine generare nuovi contenuti a partire da questi modelli.

E’ possibile eseguire Magenta anche in una pagina web utilizzando Magenta.js, un’API Javascript open source in grado di eseguire i modelli pre-allenati nel browser. Costruita anch’essa su TensorFlow.js ha prestazioni estremamente elevate.

Esistono già decine di applicazioni basate su Magenta.js come ad esempio Transformer che può generare lunghe sequenze musicali. Questo è un problema di difficile soluzione visto che la musica contiene strutture su scale temporali che vanno dai millisecondi fino a ripetizioni di intere sezioni.

Musica e AI: una relazione pericolosa?

Tornando alla canzone dei Nirvana, dopo aver ricordato ancora una volta lo scopo nobile del progetto, occorre porsi un po’ di domande a partire da quella sull’etica,  tipica in qualsiasi discussione sulla AI: “E’ la fine della vera musica? I musicisti verranno rimpiazzati dalle macchine?”. 

Il numero di persone coinvolte nel progetto “Lost Tapes of the 27 Club” sembra dimostrare il contrario:  sono serviti programmatori di Magenta, produttori musicali, ingegneri audio, cantanti per arrivare ad un risultato che possiamo dire ragionevolmente vicino a ciò che avrebbe prodotto Kurt Cobain.

Però, è indubbio che sempre più i produttori musicali cerchino di creare dei prodotti destinati al successo commerciale, mentre il processo creativo è molto data-driven: qual è il gruppo di età, il sesso, l’occupazione, la religione  di chi deve ascoltare la canzone? Aggiungere una nota nostalgica a una canzone perché ce lo dice un algoritmo che analizza i dataset di un software di streaming musicale non è fantascienza: è il presente.

Ma se per creare una canzone di successo è necessario che agisca sul nostro stato d’animo, quanto è etico che l’intelligenza artificiale provi in continuazione a farci stare bene?

Per capire cosa intendo dire, esaminiamo anche il progetto chiamato Kórsafn avviato dalla Microsoft nel 2019 in collaborazione con la cantante islandese Björk: viene creata musica con la AI, basandosi sulla posizione del sole e sulle mutazioni del tempo atmosferico. La musica viene generata e suonata in continuazione nella lobby dell’hotel “Sister City” nel Lower East Side di New York.

Kórsafn usa l’archivio musicale di Bjork e crea nuovi arrangiamenti adattandosi all’ora del giorno, usando una telecamera posta sul tetto che è quindi in grado di cogliere momenti come il ritorno degli uccelli in primavera. Lo scopo? Oltre che analizzare con la AI fenomeni stagionali, c’è l’idea di creare un umore negli ospiti dell’albergo che sia legato alle condizioni atmosferiche.

Un’altra, seppur rozza, applicazione dell’AI legata alla musica è visibile da anni nelle principali applicazioni di streaming musicali. In base a quanto abbiamo ascoltato nel passato, l’app ci consiglia nuovi brani e playlist, potenzialmente infinite. E questa capacità migliora giorno dopo giorno, suggerendoci anche gruppi che non abbiamo mai ascoltato. 

Perché ho usato l’aggettivo rozza? Non è lontano il momento in cui la canzone che ci viene suggerita verrà scelta analizzando dei dati biometrici che arrivano da un device che indossiamo giorno e notte. Capite ora il senso della seconda domanda: ascolteremo musica che abbasserà le nostre pulsazioni se siamo agitati o musica che ci caricherà se siamo depressi.

Conclusioni

Ancora una volta la questione etica ci impone di farci delle domande, valutando quanto l’impatto di queste tecnologie su aspetti diversi della nostra vita diano più valore di quanto ne tolgano. Non ho una risposta, come è giusto che sia, ma sono convinto che continuare a parlarne sia l’unico strumento che abbiamo per trovare il giusto confine.

Continuate a seguirci

Scritto da

Scritto da

Salvatore Sorrentino

Scopri di più da Ellycode

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading