Taylor Swift ha registrato la propria voce come marchio per proteggersi dall'AI Nell'industria musicale cresce il bisogno di tutele contro le nuove tecnologie generative

Alcuni brani realizzati dichiaratamente con l'intelligenza artificiale hanno riscosso piuttosto successo. Su Spotify, in particolare, alcuni di questi pezzi sono riusciti persino a entrare in playlist abbastanza note. È quindi plausibile che questo fenomeno diventi sempre più comune, considerando anche quanto i software di AI abbiano semplificato e reso più accessibile la produzione musicale.

Proprio per questo, la società che gestisce i diritti artistici e l’immagine di Taylor Swift ha avviato la registrazione come marchio di alcune espressioni legate alla voce della cantante, oltre che di una precisa immagine tratta da un suo concerto. L’intento è impedire che in futuro questi elementi vengano sfruttati senza consenso all’interno degli strumenti basati sull’intelligenza artificiale.

Il problema della musica fatta con l'AI

@nbcnews

Taylor Swift is taking new steps to protect her voice and likeness from AI misuse.

original sound - nbcnews

Gli strumenti di AI generativa si basano su archivi vastissimi di testi, immagini, video e audio, quasi sempre protetti da diritto d’autore. Definire con precisione quali materiali vengano effettivamente utilizzati dai software di intelligenza artificiale per produrre musica e non solo, e in quali circostanze, è evidentemente difficile. Da tempo, però, si sospetta che moltissimi contenuti audiovisivi presenti online siano stati generati senza adeguate tutele per la proprietà intellettuale delle fonti utilizzate – anche a causa della relativa immaturità e scarsa regolamentazione del settore.

Alcuni sistemi di AI sono oggi in grado di produrre brani imitando la voce di un determinato artista, senza replicarla del tutto. In questi casi, le tradizionali tutele del diritto d’autore sono spesso insufficienti. In tal senso, la registrazione di un'espressione vocale, tra le altre cose, può costituire una base giuridica efficace per contrastare certe imitazioni realizzate con l'intelligenza artificiale senza permesso.

Alcune grandi case discografiche statunitensi – tra cui Universal e Sony – qualche anno fa hanno anche intentato una causa legale contro due società di software di AI, Suno e Udio, con l’accusa di aver utilizzato materiale protetto da copyright per allenare i loro sistemi a generare nuovi brani musicali. In passato, inoltre, almeno 200 importanti musicisti – tra cui Billie Eilish e Katy Perry – avevano firmato una lettera aperta per chiedere alle società di intelligenza artificiale di smettere di utilizzare i propri brani per allenare i sistemi di AI.

Come si stanno muovendo le piattaforme di streaming?

Bandcamp, la piattaforma digitale di riferimento per la musica indipendente, ha annunciato che vieterà di caricare canzoni generate con l'AI. Il servizio di streaming – il primo ad aver stabilito un divieto di questo genere – ha fatto che sapere che gli utenti che dovessero imbattersi in brani che sembrano realizzati con l'AI potranno segnalarli a un team dedicato, che – dopo le dovute verifiche – se necessario procederà alla rimozione.

Il problema dell'uso dell'AI nella musica non riguarda solo gli artisti, ma per l'appunto anche chi ascolta musica. Non a caso, online e sui social network non è raro imbattersi in metodi artigianali, più o meno efficaci, che illustrano come provare a identificare o evitare i brani realizzati con l'intelligenza artificiale presenti sulle piattaforme di streaming.

La stessa Spotify ha introdotto un meccanismo per consentire agli artisti di indicare se un certo brano è stato realizzato con l’intelligenza artificiale, però si tratta di una dichiarazione puramente volontaria. Sulla piattaforma non esiste ancora una forma di controllo a monte, e questo in parte limita la trasparenza nei confronti degli utenti. Altri servizi, come Deezer e Apple Music, sembra stiano invece testando metodi più strutturati, attraverso per esempio un sistema di etichette ben visibili.