Sblocca gratuitamente il Digest dell'editore
Potrebbe sembrare una trama di fantascienza, ma in futuro l’intelligenza artificiale potrebbe plausibilmente raggiungere il punto di un rapido miglioramento personale, sfuggire al controllo umano e scatenare il caos sugli esseri umani attraverso attacchi informatici o addirittura disastri nucleari. Questa è la preoccupazione di alcuni scienziati e sviluppatori, ed è stata la motivazione per un disegno di legge sulla sicurezza dell’IA in California, che ospita 32 delle 50 principali aziende di intelligenza artificiale del mondo. Ma domenica, il governatore dello stato Gavin Newsom ha posto il veto alla legislazione. La decisione è vista come una grande vittoria per Big Tech, una decisione sconsiderata per la sicurezza pubblica e un’occasione mancata per stabilire de facto standard di sicurezza dell’IA a livello nazionale. Non è così semplice.
Stabilire norme per la protezione dai potenziali danni di una tecnologia, in particolare di una ancora in fase di sviluppo, è un atto di bilanciamento complicato. Se è troppo prepotente, rischia in primo luogo di soffocare l’innovazione, il che significa che anche la società perde i suoi potenziali benefici. E, sebbene il disegno di legge della California sia stato attenuato a seguito delle intense pressioni della Silicon Valley, permanevano ancora incertezze sui suoi effetti sullo sviluppo e sulla diffusione dell’intelligenza artificiale.
Uno degli obiettivi generali del disegno di legge della California era quello di aumentare la responsabilità degli sviluppatori per l'uso improprio dei loro modelli. Per quanto ammirevole possa essere, può avere effetti collaterali. Ad esempio, è difficile per gli sviluppatori sapere ex ante come potrebbe essere utilizzata la loro tecnologia. Potrebbero riconciliarsi con questo ritirandosi dalla ricerca. Gli esperti di intelligenza artificiale temevano anche che i protocolli di sicurezza del disegno di legge – che includevano l’obbligo per le aziende di inserire un “kill switch” nei modelli oltre una certa soglia – potessero scoraggiare lo sviluppo e l’uso di modelli open source, dove avviene molta innovazione.
Un’altra preoccupazione era che la legislazione non prendesse di mira specificamente i sistemi di intelligenza artificiale utilizzati in ambienti ad alto rischio, come nelle infrastrutture critiche, o se utilizzavano dati sensibili. Ha applicato standard rigorosi anche funzioni di base.
Date queste preoccupazioni, la decisione di Newsom sembra ragionevole. Ciò, tuttavia, non significa che le aziende tecnologiche debbano avere libertà d’azione. Man mano che la corsa all’intelligenza artificiale guadagna velocità, c’è una reale preoccupazione che i costruttori di modelli possano trascurare i punti deboli. Quindi sarebbe logico che i legislatori rielaborassero ora le norme proposte e chiarissero la formulazione vaga, per bilanciare meglio le preoccupazioni relative all’impatto sull’innovazione oggi. Newsom ha annunciato una promettente partnership con esperti per sviluppare “guardrail realizzabili”. È inoltre positivo che il governatore abbia recentemente firmato progetti di legge volti a regolamentare i rischi chiari e presenti dell’IA – piuttosto che quelli ipotetici – compresi quelli relativi ai deepfake e alla disinformazione.
Sebbene la leadership della California nella regolamentazione dell’intelligenza artificiale sia encomiabile, sarebbe anche meglio se le regole di sicurezza fossero elaborate e attuate a livello federale. Ciò fornirebbe protezioni in tutta l’America, impedirebbe l’emergere di un mosaico di diverse leggi statali ed eviterebbe di mettere il Golden State – l’epicentro dell’innovazione americana e globale dell’intelligenza artificiale – in una posizione di svantaggio competitivo.
In effetti, sebbene il fascino degli investitori e del pool di talenti della Silicon Valley rimanga forte, esiste il rischio che una regolamentazione unilaterale ed eccessivamente rigorosa dell’IA possa spingere lo sviluppo del modello altrove, indebolendo nel frattempo l’ecosistema tecnologico dell’IA dello stato. Così com'è, la California ha tasse elevate ed è quella più pesante stato regolamentato negli Stati Uniti. Anche la proprietà è costosa. Aziende tra cui la società statunitense di analisi dei dati Palantir e il brokeraggio Charles Schwab hanno recentemente lasciato lo stato e alcune società tecnologiche hanno tagliato gli spazi degli uffici.
Gestire i problemi di sicurezza legati allo sviluppo dell’intelligenza artificiale è un’arte nel preservare il bene assicurandosi al tempo stesso contro il male. Le minacce tecnologiche alle nostre società non dovrebbero essere prese alla leggera, ma non dovrebbero nemmeno ostacolare l’emergere di un’innovazione che potrebbe aiutare a diagnosticare le malattie, accelerare la ricerca scientifica e aumentare la produttività. Vale la pena fare lo sforzo per farlo bene.
