Nell'aprile 2023, Oana Ruxandra, chief digital officer e vicepresidente esecutivo dello sviluppo aziendale del Warner Music Group, ha dichiarato a The Hash di CoinDesk che si aspetta che gli strumenti musicali guidati dall'intelligenza artificiale (AI) "aprano il mondo come non abbiamo mai fatto prima", ispirando “nuove forme di creatività e sottogeneri” nei settori della musica e dell’intrattenimento.

Sebbene la prospettiva di Ruxandra sia ottimista, ha anche riconosciuto le preoccupazioni di molti musicisti: “Dobbiamo essere molto vigili”, ha detto, sottolineando l’importanza di proteggere la creatività e i diritti degli artisti. Pochi giorni prima dell'apparizione di Ruxandra su The Hash, un brano musicale profondamente falso generato dall'intelligenza artificiale intitolato Heart On My Sleeve ha guadagnato terreno imitando le voci dei cantautori Drake e the Weeknd, anche se nessuno degli artisti aveva partecipato alla sua creazione. Invece, i creatori della canzone hanno addestrato il bot di intelligenza artificiale utilizzando la musica degli artisti, cosa che ha fatto arrabbiare il proprietario dell'etichetta Universal Music Group.

Altri musicisti sono stati più accoglienti nei confronti della nuova tecnologia. Meno di una settimana dopo, la musicista elettropop Grimes ha invitato i suoi fan a creare le proprie canzoni doppiate dall'intelligenza artificiale usando la sua voce e ha esteso l'offerta per dividere le royalties 50/50, dimostrando una soluzione creativa all'enigma della falsa intelligenza artificiale.

Dividerò il 50% delle royalties su ogni canzone di successo generata dall'intelligenza artificiale che utilizza la mia voce. Lo stesso accordo che farei con qualsiasi artista con cui collaboro. Sentiti libero di usare la mia voce senza penalità. Non ho alcuna etichetta e nessun vincolo legale.

— 𝔊𝔯𝔦𝔪𝔢𝔰 (@Grimezsz)  24 aprile 2023

Tenendo presente le sfide legate alla proprietà intellettuale, non c’è ancora dubbio che gli strumenti musicali basati sull’intelligenza artificiale possano mettere nuove forme di espressione a portata di mano di un artista. A volte, l’intelligenza artificiale può anche essere utilizzata per migliorare la produzione musicale colmando le lacune tecniche o intellettuali nelle capacità di un artista, aiutandolo a dare vita a concetti ambiziosi in pochi clic. Questi strumenti possono anche svolgere compiti di ingegneria del suono in modo più efficiente, abbassando le barriere e il tempo necessario per pubblicare la musica.

Guardando al Web3, le aziende e gli artisti stanno portando l’intelligenza artificiale ancora più lontano abbinando la musica a esperienze coinvolgenti, interattive e generate dagli utenti nel metaverso e oltre.

Strumenti musicali AI in Web3

Numerosi musicisti e piattaforme cripto-nativi hanno già trovato modi creativi per integrare gli strumenti di intelligenza artificiale nella loro pratica.

Prendi VNCCII, ad esempio, il primo alter ego del metaverso della produttrice donna con sede a Sydney Samantha Tauber. Utilizzando lo strumento di creazione 3D in tempo reale leader del settore, Unreal Engine, Tauber indossa il suo avatar per trasmettere in streaming interviste in diretta dal metaverso, oltre a esibirsi in concerti e spettacoli virtuali. Come ogni cambio di set o di costume, la componente digitale dell’identità artistica di VNCCII sta espandendo i confini della sua arte.

La società musicale Web3 Pixelnyx combina esperienze di realtà aumentata (AR) con i giochi del metaverso e si concentra sull'aiutare gli artisti a creare esperienze memorabili per i fan. Co-fondato dal produttore di musica elettronica Deadmau5, noto per mandare i fan in missioni attraverso The Sandbox e ospitare spettacoli in Decentraland, PIXELYNX mira a far evolvere le nostre tradizionali nozioni di fandom attraverso l'uso di AI, Web3 e contenuti generati dagli utenti ( UGC).

Ad aprile, Pixelnyx ha rilasciato Korus, uno strumento che consente agli utenti di creare compagni musicali basati sull'intelligenza artificiale utilizzando contenuti di artisti con licenza ufficiale.

Ti presentiamo KORUS: i compagni di intelligenza artificiale musicale e il futuro della musica dalla nostra filiale @pixelynx_io 🎶🤖 I compagni di KORUS AI rivoluzioneranno la creazione di#musicaevolvendosi e adattandosi in base alle tue scelte, liberando la creatività e consentendo ai creatori di guadagnare dalla musica in modo divertente e un'interfaccia semplice.

Scopri di più su KORUS:

— Animoca Brands (@animocabrands)  28 aprile 2023

Se utilizzati con questo spirito, gli strumenti musicali basati sull’intelligenza artificiale possono aiutare, aumentare o migliorare lo stile creativo di un artista. Sebbene gli strumenti non siano ancora abbastanza buoni per sostituire gli artisti, sono impressionanti e “imparano” costantemente attraverso la continua interazione umana. Sostituire i musicisti con l'intelligenza artificiale non è mai stata una scelta popolare, come dimostrato dal rifiuto ricevuto da Spotify dopo aver testato la propria versione di cura musicale artificiale. Eppure, nonostante le controversie sull’intelligenza artificiale, gli artisti musicali di oggi potrebbero essere in grado di trarre vantaggio dall’utilizzo della produzione musicale assistita dall’intelligenza artificiale in modi che rispettino l’arte.

Ideazione e collaborazione

WarpSound, una piattaforma musicale adattiva basata sull'intelligenza artificiale, ha trovato diversi modi per integrare oggetti da collezione basati su blockchain e avatar digitali nelle sue offerte commerciali. L'azienda, che produce contenuti musicali, token non fungibili (NFT) ed esperienze sociali, rilascerà presto un'API software che compone musica originale nota per nota in una gamma di stili.

Il fondatore e CEO Chris McGarry, un imprenditore e dirigente dei media che in precedenza aveva lasciato la direzione musicale presso l'unità di realtà virtuale Oculus di Facebook, afferma che gli strumenti di WarpSound aiutano gli artisti a trovare nuova ispirazione e materiale di partenza che rinvigorisce i loro processi creativi. L'azienda è destinataria del Game Maker Fund di The Sandbox, che supporta i progettisti di giochi nel metaverso di The Sandbox, e prevede di costruire un luogo domestico all'interno della piattaforma in cui gli artisti possano sperimentare con la musica generativa.

Ha inoltre lanciato un AI Music Studio Artist Accelerator in collaborazione con il fornitore di pagamenti globale Mastercard, dove McGarry afferma di aver osservato nuovi vantaggi per il processo creativo.

"La settimana scorsa ho partecipato a una serie di sessioni in studio virtuale con gli artisti che partecipavano al programma", ha affermato McGarry. "Stavamo lavorando con la nostra interfaccia musicale generativa basata sull'intelligenza artificiale per presentare una serie di idee musicali, chiedendo poi all'artista di modellarle e ripeterle finché non arrivavano a qualcosa, la cui essenza risuonava con loro, con cui erano motivati ​​a lavorare."

WarpSound ha inoltre collaborato con il Tribeca Film Festival e YouTube per creare esperienze musicali interattive e giocose tra artisti e pubblico.

Composizione e arrangiamento

Se il tuo progetto musicale riguarda meno l'esecuzione dal vivo e più il prodotto finito, ad esempio stai componendo musica originale per un podcast, un evento Metaverse, un canale YouTube, un videogioco Web3 o contenuti educativi, puoi utilizzare l'intelligenza artificiale per accelerare il processo di composizione e arrangiamento. Naturalmente, i virtuosi più talentuosi del mondo possono probabilmente eseguire scale musicali nel sonno, ma con così tanti elementi nella produzione di suoni e video, sta diventando una pratica standard utilizzare l’intelligenza artificiale per inserire scale veloci, arpeggi, sequenze e armonie nella musica originale.

Strumenti come Riffusion consentono agli utenti di fornire suggerimenti di testo che vengono trasformati in musica. Soundful è un'altra piattaforma AI che consente alle persone di generare e scaricare brani esenti da royalty.

Se vuoi fare un ulteriore passo avanti e aggiungere testi, il popolare strumento fai-da-te ChatGPT può scrivere una canzone di due strofe con pre-ritornello, ritornello, bridge e outro in poco meno di 30 secondi con un suggerimento minimo. Naturalmente, i testi possono essere un po’ semplicistici o scadenti, ma non sono forse alcune delle migliori canzoni?

Nella maggior parte dei casi, le canzoni generate dall’intelligenza artificiale sono riproducibili senza la necessità di pagare costi di licenza, dato che sono state realizzate da macchine e quindi non protette dalla legge statunitense sulla proprietà intellettuale. La maggior parte delle piattaforme, tuttavia, addebita una quota di abbonamento.

Questi suoni possono quindi essere coniati come NFT e venduti su mercati come OpenSea. Piattaforme come Royal.io consentono inoltre agli artisti di unirsi al sito e offrire le loro canzoni come NFT frazionati che offrono pagamenti di royalty ai fan.

Per saperne di più: Cosa sono gli NFT musicali?

I limiti della produzione musicale basata sull’intelligenza artificiale

Potresti aver già sentito che gli strumenti di intelligenza artificiale musicale non sono ancora così sofisticati, soprattutto se paragonati ai più recenti generatori di testo in immagini di intelligenza artificiale (che sono già stati utilizzati per creare intere raccolte di fumetti) e al chatbot di Open AI, Chat GPT. (che secondo quanto riferito ha superato l'esame di avvocato).

Secondo gli esperti del settore, la produzione audio richiede infatti più potenza di calcolo rispetto ai testi statici e alle immagini e pertanto è in ritardo. Alexander Flores, responsabile della tecnologia e della strategia presso la rete di ricerca musicale Water & Music, afferma che l’innovazione tecnologica generalmente viaggia dai formati meno ad alta intensità di dati a quelli più ricchi. Nel caso dell’intelligenza artificiale, è logico che i chatbot siano forse più veloci da sviluppare rispetto al rendering audio e video dell’intelligenza artificiale.

In un thread di discussione online, un utente Reddit ha sottolineato queste limitazioni, sottolineando che mentre uno scrittore può correggere e modificare gli output di un chatbot AI in pochi secondi, ci vogliono diversi minuti per ascoltare una canzone, e talvolta anche ore per modificarla. Le macchine sono anche più lente nell’apprendere dai set di dati dell’intelligenza artificiale poiché i file audio che le alimentano raramente hanno descrizioni testuali complete per insegnare all’intelligenza artificiale gli attributi del file (genere, tempo, tonalità, strumentazione, ecc.). Nel frattempo, le IA basate su testo e immagini possono rapidamente esplorare migliaia di parole e immagini.

"Il tempo necessario per consumare il contenuto è molto importante", ha affermato Flores. “Con una canzone sei bloccato per tre minuti. Non puoi accelerarlo perché altrimenti non stai sperimentando la canzone reale così come è stata scritta.

Inoltre, le immagini sono statiche, mentre le canzoni sono più dinamiche: “L’audio ha una dimensione molto più elevata”, ha affermato Stefan Lattner, ricercatore capo presso Sony CSL, un laboratorio di tecnologia creativa, in un panel al Wavelengths Summit inaugurale di Water & Music. "Mentre le immagini hanno un numero fisso di pixel, nell'audio hai un numero variabile di secondi che desideri generare."

Ciononostante, Water & Music definisce l’intelligenza artificiale creativa la tecnologia più dirompente per il business della musica dai tempi di Napster, l’applicazione di condivisione di file peer-to-peer che ha reso la distribuzione musicale virtualmente gratuita, oltre che senza confini e senza autorizzazione – un concetto familiare ai cripto-nativi. .