Mar. Giu 18th, 2024
Le aziende che si occupano di intelligenza artificiale devono essere più trasparenti

Rimani informato con aggiornamenti gratuiti

Nel film Suo, uno scrittore solitario chiamato Theodore Twombley si innamora della voce disincarnata di Samantha, un'assistente digitale interpretata dall'attore Scarlett Johansson. “Non posso credere che sto avendo questa conversazione con il mio computer”, dice Twombley a Samantha. “Tu non sei. Stai avendo questa conversazione con me,” tuba Samantha.

Il genio di Spike Jonze sceneggiatura è la sua esplorazione delle terre di confine tra l'artificiale e il reale. Ma il film di fantascienza, uscito nel 2013, ha acquisito oggi una risonanza ironica dopo che OpenAI ha lanciato il suo ultimo GPT-4o chatbot multimodale di intelligenza artificiale, che apparentemente imita la voce di Johansson.

Johansson ha detto di aver rifiutato le richieste di OpenAI di usare la sua voce, aggiungendo di essere “scioccata e arrabbiata” nello scoprire che la società ne aveva implementato una “stranamente simile” alla sua. Ha chiesto maggiore trasparenza e una legislazione adeguata per garantire la tutela dei diritti individuali. OpenAI ha messo in pausa l'uso della voce, che ha poi spiegato apparteneva a un altro attore senza nome.

L’incidente potrebbe aver colpito i funzionari presenti all’ultimo vertice sulla sicurezza dell’intelligenza artificiale a Seul questa settimana come un divertente capriccio di una celebrità. Ma la disputa è in sintonia con tre preoccupazioni più generali sull’intelligenza artificiale generativa: il furto di identità, la corrosione della proprietà intellettuale e l’erosione della fiducia. Le aziende che si occupano di intelligenza artificiale possono implementare responsabilmente la tecnologia? In modo inquietante, anche alcuni di coloro che in precedenza erano responsabili di garantire la sicurezza si stanno ponendo questa domanda.

La settimana scorsa, Jan Leike si è dimesso dalla carica di capo di un team di sicurezza presso OpenAI in seguito alla partenza di Ilya Sutskever, uno dei cofondatori e capo scienziato dell'azienda. Su X, Leike ha affermato che la sicurezza in azienda era passata in secondo piano rispetto ai “prodotti luccicanti”. Ha sostenuto che OpenAI dovrebbe dedicare molta più larghezza di banda alla sicurezza, alla riservatezza, all’allineamento umano e all’impatto sociale. “Questi problemi sono piuttosto difficili da risolvere e sono preoccupato che non siamo sulla buona strada per arrivarci”, ha pubblicato.

Nelle sue osservazioni di addio, Sutskever ha affermato di essere fiducioso che OpenAI costruirà un'intelligenza artificiale che fosse “sicura e vantaggiosa”. Tuttavia, Sutskever è stato uno dei membri del consiglio che l'anno scorso ha tentato di spodestare l'amministratore delegato della società Sam Altman. Dopo che Altman è stato reintegrato in seguito a una rivolta del personale, Sutskever ha detto di pentirsi della sua partecipazione al colpo di stato. Ma la sua stessa partenza rimuoverà un altro contrappeso ad Altman.

Non è solo OpenAI, però, a inciampare nell’implementazione della tecnologia AI. Google ha avuto i suoi problemi con l’intelligenza artificiale generativa quando è stato generato il suo chatbot Gemini immagini astoriche di Stormtrooper nazisti neri e asiatici. Entrambe le società affermano che i passi falsi sono inevitabili quando si rilasciano nuove tecnologie e rispondono rapidamente ai propri errori.

Tuttavia, infonderebbe maggiore fiducia se le principali aziende di intelligenza artificiale fossero più trasparenti. Hanno molta strada da fare, come dimostrato dal Indice di trasparenza del modello di fondazione, pubblicato questa settimana dalla Stanford University. L’indice, che analizza 10 principali sviluppatori di modelli attraverso 100 indicatori tra cui accesso ai dati, affidabilità dei modelli, politiche di utilizzo e impatti a valle, evidenzia come le grandi aziende hanno adottato misure per migliorare la trasparenza negli ultimi sei mesi ma alcuni modelli rimangono “estremamente opachi”.

“Ciò che questi modelli consentono e non consentono definirà la nostra cultura. È importante esaminarli attentamente”, mi dice Percy Liang, direttore del Centro di ricerca sui modelli di fondazione di Stanford. Ciò che lo preoccupa di più è la concentrazione del potere aziendale. “Cosa succede quando alcune organizzazioni controllano il contenuto e il comportamento dei futuri sistemi di intelligenza artificiale?”

Tali preoccupazioni potrebbero alimentare la richiesta di ulteriori interventi normativi, come la legge sull’IA dell’UE, che ha ricevuto l’approvazione del Consiglio Europeo questo mese. Più di un quarto delle legislature statali statunitensi stanno anche valutando progetti di legge per regolamentare l’intelligenza artificiale. Ma alcuni nel settore temono che la regolamentazione possa solo rafforzare la presa delle grandi aziende di intelligenza artificiale.

“Le voci nella stanza sono Big Tech. Possono rafforzare il loro potere attraverso la regolamentazione”, mi dice Martin Casado, un partner di investimento della società di venture capital Andreessen Horowitz. I politici devono prestare molta più attenzione a Little Tech, alle decine di start-up che utilizzano modelli di intelligenza artificiale open source per competere contro i player più grandi.

Dieci nazioni e l'UE al vertice di Seul di questa settimana hanno concordato di stabilirlo una rete internazionale di istituti di sicurezza monitorare le prestazioni dei modelli di intelligenza artificiale di frontiera, il che è positivo. Ma ora dovrebbero ascoltare Johansson e scavare molto più a fondo nelle potenti strutture aziendali che implementano questi modelli.

[email protected]