Un appartamento sopra un negozio di pollo fritto a Notting Hill è uno strano posto dove trovarsi al centro di quella che è stata definita “una delle questioni legali più importanti” del 21° secolo. È la sede legale di Stability AI, un gruppo di intelligenza artificiale che sta sconvolgendo gli artisti di tutto il mondo.

Stability AI è gestita da Emad Mostaque, un informatico ed ex dipendente di hedge fund. Gestisce il software di generazione di immagini Stable Diffusion, descritto in a querela statunitense come “uno strumento collage del 21° secolo che remixa le opere protette da copyright di milioni di persone”. Digita “Elon Musk in un dipinto di Van Gogh” e basta produce un divertente pastiche.

Le tre donne artiste dietro gli Stati Uniti causa avere appoggio. Getty Images, il gruppo di foto d’archivio con 135 milioni di immagini protette da copyright nel suo database, la scorsa settimana ha avviato un’altra azione legale contro Stability AI nei tribunali del Regno Unito. Le immagini di Getty, insieme a milioni di altre, vengono utilizzate per addestrare Stable Diffusion in modo che possa eseguire i suoi trucchi.

La rivoluzione generativa dell’IA è esplosa rapidamente: Stable Diffusion è stato rilasciato solo ad agosto e promette di “consentire a miliardi di persone di creare arte straordinaria in pochi secondi”. Microsoft ha effettuato un investimento multimiliardario in OpenAI, che l’anno scorso ha presentato il generatore di testo in immagine Dall-E e gestisce ChatGPT.

L’arte visiva non è l’unica disciplina in cui gli agenti di intelligenza artificiale minacciano il caos. L’industria musicale sta tremando alla prospettiva che milioni di canzoni (e miliardi di proprietà intellettuale) vengano analizzate dall’intelligenza artificiale per produrre nuove tracce. Tencent Music, il gruppo di intrattenimento cinese, ha pubblicato più di 1.000 brani con voci sintetiche.

In teoria, l’arte algoritmica non è più in grado di sfuggire al diritto d’autore e alle altre leggi sulla proprietà intellettuale degli esseri umani: se uno strumento di intelligenza artificiale produce una canzone o un’immagine che non trasforma le opere a cui attinge abbastanza da essere originali, gli artisti che sono stati sfruttati può citare in giudizio. Usare una scatola nera per nascondere quello che è stato soprannominato “riciclaggio di musica” non è una strategia legale convincente.

Né un agente di intelligenza artificiale impara da un database completamente diverso da ciò che gli esseri umani hanno sempre fatto. Ascoltano canzoni di band rivali e studiano altri artisti per imparare dalle loro tecniche. Sebbene i tribunali siano pieni di controversie sul fatto che i cantautori abbiano copiato illegalmente, nessuno dice loro di tapparsi le orecchie o avverte i pittori di chiudere gli occhi alle mostre.

Ma la scala fa la differenza, come l’industria musicale sa molto bene. Era abbastanza sicuro nell’era pre-digitale, quando la musica veniva venduta su vinile e CD e talvolta copiata su nastro dai fan. Quando Napster ha consentito il download di massa e la distribuzione di tracce digitali, l’industria ha dovuto affrontare grossi problemi prima di essere salvata da Spotify e dallo streaming concesso in licenza.

Gli strumenti di intelligenza artificiale non solo elaborano database, ma producono immagini su ordinazione: perché fermarsi a Van Gogh quando puoi ottenere Musk di Monet, Gauguin o Warhol semplicemente digitando i prompt? Non è arte alta ma Estelle Derclaye, professore di diritto della proprietà intellettuale all’università di Nottingham, osserva che “se l’intelligenza artificiale inizia a sostituire la creatività umana, abbiamo un problema”.

Gli esseri umani conservano molti vantaggi: una versione sintetica di Harry Styles chiamata con un altro nome non sarebbe una frazione così popolare come artista, anche se il proprietario dello strumento AI se la cavasse. Ma ci sono altri usi, ad esempio la musica di sottofondo nei videogiochi, per i quali una band sintetica che suona come i BTS potrebbe essere abbastanza buona.

Cercare di fermare l’abilità artistica dell’IA sarebbe impossibile, oltre che indesiderabile. Ma il quadro giuridico deve essere stabilito per evitare che la creatività umana venga sopraffatta finanziariamente. Il problema innalzata di Getty è se aziende come Stability AI dovrebbero essere in grado di addestrare i propri strumenti di intelligenza artificiale su grandi quantità di materiale protetto da copyright senza chiedere il permesso o pagare costi di licenza.

Questo è legale per la ricerca in molti paesi e il governo del Regno Unito lo ha fatto proposto estendendolo all’uso commerciale. Ci sono state richieste simili negli Stati Uniti affinché i modelli di intelligenza artificiale ottengano il diritto al “fair learning” su tali dati perché sarebbe impossibile rintracciare tutti i titolari di licenza di gigabyte di roba raschiata dal web, chiedere l’approvazione e premiarli.

Questo mi sembra troppo blasé, e simile alle discussioni nei giorni del download illegale che il cavallo digitale era scappato e tutti dovevano abituarsi. Stability AI è stata valutata 1 miliardo di dollari e l’investimento di Microsoft in OpenAI dimostra che ci sono soldi in giro; ciò che serve è un meccanismo per distribuire di più tra i creatori.

Gli individui hanno bisogno di ulteriori protezioni: una cosa è addestrare il software AI su una massa di materiale, ma cosa succede se qualcuno si nutre delle opere di un singolo artista vivente e poi chiede un nuovo schizzo nel suo stile? Un illustratore di Los Angeles lo era sottoposto a tale “messa a punto” dell’IA da parte di un utente di Stable Diffusion di recente; non è chiaro se un tribunale lo chiamerebbe fair use, ma io no.

“Ti preghiamo di sapere che prendiamo sul serio queste questioni”, ha promesso Stability AI la scorsa settimana. La sua dichiarazione è stata redatta da un essere umano o da uno strumento di intelligenza artificiale? In questi giorni, è così difficile dirlo.

[email protected]