Come l'intelligenza artificiale sta trasformando la creazione musicale in Web3
Se il deepfake virale di Drake vi ha portato a questo articolo, benvenuti nel lato affascinante (e certamente inquietante) di come il mondo della musica Web3 sta abbracciando l'intelligenza artificiale.

Ad aprile 2023, il direttore digitale e vicepresidente esecutivo dello sviluppo aziendale di Warner Music Group Oana Ruxandraha detto a The Hash di CoinDesk che si aspetta che gli strumenti musicali guidati dall'intelligenza artificiale (IA) "aprano il mondo come non abbiamo T fatto prima", ispirando "nuove forme di creatività e sottogeneri" nei settori della musica e dell'intrattenimento.
Sebbene le prospettive di Ruxandra siano ottimistiche, ha anche riconosciuto le preoccupazioni di molti musicisti: "Dobbiamo essere molto vigili", ha affermato, sottolineando l'importanza di proteggere la creatività e i diritti degli artisti. Pochi giorni prima dell'apparizione di Ruxandra su The Hash, un'IA generatafalso profondotraccia musicale intitolataCuore sulla mia manicaha guadagnato popolarità imitando le voci dei cantautori Drake e The Weeknd, anche se nessuno dei due artisti aveva partecipato alla sua creazione. Invece, i creatori della canzone hanno addestrato il bot di intelligenza artificialeutilizzando la musica degli artisti, cosa che fece infuriare il proprietario dell'etichetta Universal Music Group.
Altri musicisti sono stati più accoglienti verso la nuova Tecnologie. Meno di una settimana dopo, il musicista electropop Grimes invitato ai suoi fan di creare le proprie canzoni doppiate dall'intelligenza artificiale usando la sua voce e ha esteso l'offerta per dividere le royalties al 50/50, dimostrando ONE soluzione creativa al dilemma del deep-fake dell'intelligenza artificiale.
I'll split 50% royalties on any successful AI generated song that uses my voice. Same deal as I would with any artist i collab with. Feel free to use my voice without penalty. I have no label and no legal bindings. pic.twitter.com/KIY60B5uqt
— 𝔊𝔯𝔦𝔪𝔢𝔰 (@Grimezsz) April 24, 2023
Mantenere la proprietà intellettualesfide in mente, non c'è ancora dubbio che gli strumenti musicali AI possano mettere nuove forme di espressione a portata di mano di un artista. A volte, l'AI può persino essere utilizzata per migliorare la produzione musicale colmando lacune tecniche o intellettuali nelle capacità di un artista, aiutandolo a dare vita a concetti ambiziosi in pochi clic. Questi strumenti possono anche eseguire attività di ingegneria del suono in modo più efficiente, abbassando le barriere e il tempo necessario per pubblicare la musica.
Con lo sguardo rivolto al Web3, aziende e artisti stanno portando l'intelligenza artificiale ancora più avanti, abbinando la musica a esperienze immersive, interattive e generate dagli utenti nel metaverso e oltre.
Strumenti musicali AI in Web3
Diversi musicisti e piattaforme cripto-nativi hanno già trovato modi creativi per integrare gli strumenti di intelligenza artificiale nella loro attività.
Prendere VNCCII, ad esempio, l'alter ego metaverso-first della produttrice Samantha Tauber di Sydney. Utilizzando lo strumento di creazione 3D in tempo reale leader del settore, Unreal Engine, Tauber indossa il suo avatar per trasmettere in streaminginterviste trasmesse in direttadal metaverso, oltre a esibirsi in concerti e spettacoli virtuali. Come ogni cambio di scena o di costume, la componente digitale dell'identità artistica di VNCCII sta espandendo i confini della sua arte.
Azienda musicale Web3PIXELNYX combina esperienze di realtà aumentata (AR) con giochi metaversivi e si concentra sull'aiutare gli artisti a creare esperienze memorabili per i fan. Co-fondata dal produttore di musica elettronica Deadmau5, noto per aver mandato i fan su missioni attraverso The Sandbox E ospitare spettacoli in Decentraland, PIXELNYX mira a far evolvere la nostra tradizionale nozione di fandom attraverso l'uso di intelligenza artificiale, Web3 e contenuti generati dagli utenti (UGC).
Ad aprile, PIXELNYX ha rilasciatoCoro, uno strumento che consente agli utenti di creare accompagnamenti musicali basati sull'intelligenza artificiale utilizzando contenuti di artisti con licenza ufficiale.
Meet KORUS - musical AI companions and the future of music from our subsidiary @pixelynx_io 🎶🤖 KORUS AI companions will revolutionize the creation of #music by evolving and adapting based on your choices, unleashing creativity, and enabling creators to earn from music with a… https://t.co/V9NjOcGQbD pic.twitter.com/PACIoq9ML6
— Animoca Brands (@animocabrands) April 28, 2023
Se usati in questo spirito, gli strumenti musicali AI possono aiutare, aumentare o migliorare lo stile creativo di un artista. Sebbene gli strumenti non siano ancora abbastanza buoni da sostituire gli artisti, sono impressionanti e "imparano" costantemente attraverso l'interazione Human continua. Sostituire i musicisti con l'AI non è mai stata una scelta popolare, come dimostrato dalla resistenza ricevuta da Spotify dopo testando la propria versione di curatela musicale artificiale. Eppure, nonostante le controversie che circondano l'intelligenza artificiale, gli artisti musicali di oggi potrebbero trarre vantaggio dall'uso della produzione musicale assistita dall'intelligenza artificiale in modi che rispettino l'arte.
Ideazione e collaborazione
Deformazione del suono, una piattaforma musicale AI adattiva, ha trovato diversi modi per integrare oggetti da collezione e avatar digitali basati su blockchain nelle sue offerte commerciali. L'azienda, che produce contenuti musicali, token non fungibili (NFT) e le esperienze social, rilascerà presto un'API software che compone musica originale nota per nota in una vasta gamma di stili.
Fondatore e CEOChris McGarry, un imprenditore e dirigente dei media che in precedenza ha ricoperto il ruolo di responsabile musicale presso l'unità di realtà virtuale di Facebook, Oculus, afferma che gli strumenti di WarpSound aiutano gli artisti a trovare nuova ispirazione e materiale di partenza che rinvigorisca i loro processi creativi. L'azienda è la destinataria del premio The SandboxFondo Maker di giochi, che supporta i game designer nel metaverso The Sandbox e progetta di costruire uno spazio domestico all'interno della piattaforma in cui gli artisti possano sperimentare la musica generativa.
WarpSound ha anche collaborato con Mastercard come partner musicale AI per il loroAcceleratore d'artistaprogramma, in cui McGarry afferma di aver osservato nuovi vantaggi nel processo creativo.
"La settimana scorsa, ero in una serie di sessioni di studio virtuali con artisti che partecipavano al programma", ha detto McGarry. "Stavamo lavorando con la nostra interfaccia musicale AI generativa per presentare una serie di idee musicali, quindi abbiamo chiesto all'artista di darle forma e di ripeterle finché non sono arrivati a qualcosa, la cui essenza risuonava con loro, con cui erano motivati a lavorare".
WarpSound ha inoltre stretto una partnership con il Tribeca Film Festival e YouTube per creare esperienze musicali interattive e ludiche tra artisti e pubblico.
Composizione e arrangiamento
Se il tuo progetto musicale riguarda meno l'esibizione dal vivo e più il prodotto finito, magari stai componendo musica originale per un podcast, un evento metaverso, un canale YouTube, un videogioco Web3 o contenuti educativi, puoi usare l'IA per accelerare il processo di composizione e arrangiamento. Ovviamente, i virtuosi più talentuosi del mondo possono probabilmente fare scale musicali nel sonno, ma con così tanti elementi nella produzione audio e video, sta diventando una pratica standard usare l'IA per inserire scale QUICK , arpeggi, passaggi e armonie nella musica originale.
Strumenti comeDiffusioneconsentono agli utenti di fornire messaggi di testo che vengono trasformati in musica.Sonoroè un'altra piattaforma di intelligenza artificiale che consente alle persone di generare e scaricare tracce royalty-free.
Se vuoi fare ONE ulteriore passo avanti e aggiungere testi, il famoso strumento multiuso ChatGPT può scrivere una canzone di due strofe con un pre-ritornello, un ritornello, un bridge e un outro in poco meno di 30 secondi con un minimo di sollecitazione. Certo, il testo può essere un po' semplicistico o banale, ma T sono forse alcune delle migliori canzoni?
Nella maggior parte dei casi, le canzoni generate dall'IA sono riproducibili senza dover pagare costi di licenza, dato che sono state realizzate da macchine e quindi non sono protette dalla legge statunitense sulla proprietà intellettuale. La maggior parte delle piattaforme, tuttavia, addebita una quota di abbonamento.
Questi suoni possono quindi essere coniati come NFT e venduti sumercati come OpenSeaPiattaforme comeReale.ioconsentono inoltre agli artisti di iscriversi al sito e di offrire le proprie canzoni come NFT frazionati che garantiscono il pagamento delle royalty ai fan.
Continua a leggere: Cosa sono gli NFT musicali?
I limiti della produzione musicale AI
Potresti aver già sentito dire che gli strumenti di intelligenza artificiale musicale T sono ancora così sofisticati, soprattutto se confrontati con gli ultimi generatori di testo in immagini di intelligenza artificiale (che sono già stati utilizzati per creare interi collezioni di fumetti) e il chatbot di Open AI, Chat GPT (che secondo quanto riferitosuperato l'esame di abilitazione alla professione forense).
Secondo gli esperti del settore, la produzione AUDIO richiede infatti una potenza di calcolo maggiore rispetto alla produzione di testo e immagini statiche e pertanto è ancora indietro. Alessandro Flores, responsabile della tecnologia e della strategia presso la rete di ricerca musicale,Acqua e Musica, afferma che l'innovazione tecnologica generalmente viaggia dai formati meno intensivi di dati a quelli più ricchi. Nel caso dell'IA, ha senso il motivo per cui i chatbot sono forse più rapidi da sviluppare rispetto al rendering AUDIO e video dell'IA.
In ONE thread di discussione online, un utente di Reddit ha sottolineato queste limitazioni, sottolineando che mentre uno scrittore può correggere e modificare gli output di un chatbot AI in pochi secondi, ci vogliono diversi minuti per ascoltare una canzone e a volte anche ore per modificarla. Le macchine sono anche più lente Imparare dai set di dati AI poiché i file AUDIO che le alimentano raramente hanno descrizioni di testo complete per insegnare all'AI gli attributi del file (genere, tempo, tonalità, strumentazione, ETC.). Nel frattempo, le AI basate su testo e immagini possono setacciare rapidamente migliaia di parole e immagini.
"Quanto tempo ci vuole per consumare il contenuto è molto importante", ha detto Flores. "Con una canzone, sei bloccato per tre minuti. T puoi accelerare perché allora non stai vivendo la canzone vera e propria così come è stata scritta".
Inoltre, le immagini sono statiche, mentre le canzoni sono più dinamiche: "AUDIO è semplicemente molto più dimensionale", ha detto Stefan Lattner, ricercatore responsabile pressoSony CSL, un laboratorio Tecnologie creativa, in un panel all'inaugurazione di Water & Music Vertice sulle lunghezze d'onda"Mentre le immagini hanno un numero fisso di pixel, AUDIO hai un numero variabile di secondi che vuoi generare."
Tuttavia, Water & Music definisce l'intelligenza artificiale creativa la Tecnologie più dirompente per il settore musicale da Napster, l'applicazione di condivisione file peer-to-peer che ha reso la distribuzione di musica virtualmente gratuita, senza confini e senza permessi, un concetto familiare ai cripto-nativi.
More For You

L'exploit da 292 milioni di dollari, collegato a hacker nordcoreani, ha portato Kelp a migrare il suo rsETH dallo standard "OFT" di LayerZero al "CCIP" di Chainlink.
What to know:
- Kelp DAO afferma che il personale di LayerZero ha approvato la configurazione del verificatore 1-of-1 che LayerZero ha successivamente incolpato per l'hack del ponte rsETH da 292 milioni di dollari.
- Il postmortem di LayerZero ha contraddetto Kelp, ma i dati hanno mostrato che il 47% dei contratti OApp attivi di...











