Perché è necessaria una regolamentazione dell’IA?
Le autorità di regolamentazione di tutto il mondo hanno riscontrato che non mancano i problemi di cui preoccuparsi con l’ascesa dell’intelligenza artificiale.
Dovrebbero intervenire negli algoritmi che potrebbero influenzare o distorcere le decisioni che influenzano la vita quotidiana di miliardi di persone? Che dire del rischio che i chatbot, come ChatGPT, aumentino la produzione di disinformazione online o portino all’uso improprio di grandi quantità di dati personali? E cosa dovrebbero fare riguardo agli avvertimenti che i computer potrebbero presto raggiungere un livello di intelligenza tale da sfuggire al controllo dei loro creatori, con conseguenze potenzialmente disastrose per l’umanità?
La tecnologia si sta muovendo così velocemente che c’è stato ancora poco accordo su un programma normativo, anche se l’attenzione su entrambe le sponde dell’Atlantico è sempre più caduta sui sistemi di intelligenza artificiale più potenti e generici. Sviluppati da aziende come OpenAI, Google e Anthropic e conosciuti come modelli di fondazione, questi sistemi supportano un’ampia gamma di applicazioni di diverse aziende, conferendo loro un ampio impatto sulla società e sull’economia.
Quali problemi di intelligenza artificiale stanno esaminando per primi i regolatori?
L’Unione europea era sulla buona strada per finalizzare una legge sull’intelligenza artificiale, la prima nel suo genere, che avrebbe controllato, o addirittura vietato, gli usi presumibilmente “ad alto rischio” dell’intelligenza artificiale, ad esempio per prendere decisioni su richieste di lavoro o prestiti o questioni sanitarie. trattamenti. Poi è esplosa la ChatGPT mania: l'enorme interesse del pubblico per il chatbot AI generativo disponibile gratuitamente di OpenAI.
I legislatori hanno rapidamente adattato i loro piani, stabilendo nuove regole che costringeranno le aziende a rivelare su quali modelli di base dati come quello utilizzato in ChatGPT sono stati formati. I creatori dei modelli più potenti, che secondo Bruxelles potrebbero comportare rischi sistemici, devono affrontare requisiti aggiuntivi, come la valutazione e la mitigazione dei rischi nei loro modelli e la segnalazione di eventuali incidenti gravi. La legge, adottata nel maggio 2024 e che inizia ad entrare in vigore un anno dopo, ha anche istituito un nuovo potente ufficio per l’intelligenza artificiale incaricato di stabilire gli standard che i sistemi avanzati di intelligenza artificiale devono soddisfare.
Tuttavia, Patrick Van Eecke, co-presidente della divisione cyber, dati e privacy globale dello studio legale Cooley, ritiene che Bruxelles si sia mossa troppo presto per cercare di regolamentare una tecnologia che è ancora “un bersaglio in movimento”, riflettendo un pregiudizio culturale verso l'effetto istintivo. regolamento. “Ci piace regolare la realtà ancor prima che diventi realtà”, afferma, facendo eco a una visione ampiamente condivisa nel mondo dell’intelligenza artificiale.
Molti dirigenti tecnologici statunitensi hanno una spiegazione diversa. Vedono la fretta di Bruxelles di regolamentare direttamente i più potenti sistemi di intelligenza artificiale come una deliberata mossa protezionistica da parte dell’UE, che impone limitazioni a un gruppo di aziende principalmente americane che dominano l’industria dell’intelligenza artificiale.
Le normative UE sull’IA diventeranno un modello per il resto del mondo?
Questo è quello che è successo con la legislazione sulla protezione dei dati del blocco, ed è un potenziale sviluppo di cui le aziende tecnologiche statunitensi sono preoccupate. I sostenitori della legge sull’UE affermano che sarà applicata in modo flessibile per riflettere il cambiamento degli standard e i progressi tecnologici. Ma i critici sostengono che l’esperienza dimostra che Bruxelles adotta un approccio più dogmatico – e che le regole introdotte ora potrebbero limitare l’evoluzione della tecnologia.
Alcune aziende europee sono d’accordo. In una lettera alla Commissione europea nel 2023, 150 grandi aziende europee hanno avvertito che la legge potrebbe ostacolare l’economia del blocco impedendo alle aziende locali di utilizzare liberamente importanti tecnologie di intelligenza artificiale.
Le aziende di intelligenza artificiale non chiedono una regolamentazione?
L’industria dell’intelligenza artificiale ha imparato dalla reazione contro i social media che non conviene eludere la regolamentazione sulle tecnologie che possono avere un impatto sociale e politico significativo.
Ma ciò non significa che a loro piaccia ciò che è previsto dall’UE. Sam Altman, capo di OpenAI e sostenitore della regolamentazione dell’intelligenza artificiale, ha dichiarato al FT che la sua azienda potrebbe essere costretta a ritirarsi del tutto dall’UE se le regole finali sull’intelligenza artificiale saranno troppo rigide. Il clamore suscitato dalle sue parole lo ha portato rapidamente a fare marcia indietro ma, dietro le quinte, le preoccupazioni degli Stati Uniti non sono attenuate.
La disponibilità delle grandi aziende tecnologiche a richiedere una regolamentazione ha anche suscitato il sospetto che la vedano come un modo per rafforzare la loro presa sul mercato dell’intelligenza artificiale. Costi e burocrazia più elevati potrebbero rendere più difficile l’ingresso di nuovi concorrenti.
Qual è l’alternativa all’approccio UE?
Prima di decidere nuove leggi, molti paesi stanno esaminando da vicino il modo in cui le normative esistenti si applicano alle applicazioni basate sull’intelligenza artificiale.
Negli Stati Uniti, ad esempio, la Federal Trade Commission ha aperto un’indagine su ChatGPT, sfruttando i suoi poteri esistenti. Una delle sue preoccupazioni è che ChatGPT risucchia dati personali e talvolta li utilizza per rigurgitare informazioni false e dannose sulla gente comune. I legislatori statunitensi hanno anche avviato un’ampia revisione dell’intelligenza artificiale che cerca esplicitamente di bilanciare i benefici della tecnologia con i suoi potenziali danni.
Il leader della maggioranza al Senato americano Chuck Schumer ha chiesto una serie di briefing e forum di esperti per le più importanti commissioni del Senato, per aiutarle a decidere quali aspetti dell’intelligenza artificiale potrebbero aver bisogno di essere regolamentati.
Holly Fechner, co-presidente del gruppo dell'industria tecnologica presso lo studio legale Covington & Burling, ha affermato: “Il significativo bipartisanship del Congresso sulla concorrenza degli Stati Uniti con la Cina” rende l'approccio di Schumer “un messaggio vincente – e segnala che gli Stati Uniti si stanno muovendo in una direzione diversa”. direzione rispetto all’Europa”.
Tuttavia, come Bruxelles, anche Washington ha iniziato a imporre requisiti ai modelli di fondazione più potenti. In un ordine esecutivo adottato alla fine del 2023, la Casa Bianca di Biden ha richiesto alle aziende che creano potenti sistemi a duplice uso – cioè quelli che hanno anche un potenziale uso militare – di rivelare le capacità dei loro sistemi ai funzionari, promuovendo anche modi per stabilire standard e linee guida su come tali modelli vengono addestrati, testati e monitorati. Sebbene meno stringente rispetto alla nuova legge dell’UE, l’ordinanza è stata il primo tentativo globale negli Stati Uniti di affrontare il problema dell’intelligenza artificiale.
Se i governi non regolano ora, la corsa all’intelligenza artificiale non diventerà un pericoloso gioco tutti contro tutti?
Molte aziende tecnologiche sostengono che lo sviluppo dell’intelligenza artificiale dovrebbe rispecchiare gli albori di Internet: i regolatori allora si sono trattenuti, lasciando che l’innovazione fiorisse, e sono intervenuti solo più tardi, se necessario.
Ci sono già segnali che nuovi standard di settore e accordi sulle migliori pratiche nel campo dell’intelligenza artificiale stanno iniziando a prendere piede, anche senza una regolamentazione esplicita. Negli Stati Uniti, ad esempio, l’industria ha collaborato con il National Institute for Standards and Technology per codificare i modi migliori per progettare, addestrare e implementare sistemi di intelligenza artificiale. Su sollecitazione della Casa Bianca, un gruppo di aziende leader nel settore dell’intelligenza artificiale ha sottoscritto lo scorso anno una serie di impegni volontari.
Tuttavia i critici avvertono che un’ondata di capitali nel settore dell’intelligenza artificiale e l’aumento delle valutazioni per le start-up dell’intelligenza artificiale hanno portato a uno sviluppo sfrenato della tecnologia, indipendentemente dai rischi. In uno dei segnali più evidenti dello stress che ciò ha creato all'interno delle aziende tecnologiche, Sam Altman, CEO di OpenAI, è stato licenziato dal consiglio di amministrazione della società nel 2023 a causa delle preoccupazioni sulla sua leadership, prima che una rivolta tra il personale gli permettesse di essere reintegrato cinque giorni dopo. Anche altri che hanno messo in guardia sui pericoli di una corsa a capofitto nell’intelligenza artificiale – come Elon Musk – hanno messo da parte le loro preoccupazioni e si sono uniti alla corsa.
Alcune persone che sviluppano l’intelligenza artificiale affermano che potrebbe distruggere l’umanità: non è questo un motivo per una regolamentazione immediata?
Nessuno nel settore tecnologico pensa che gli odierni sistemi di intelligenza artificiale rappresentino una minaccia esistenziale per l’umanità e non c’è accordo su quando, se mai, la tecnologia potrebbe raggiungere quel punto. Ma l’anno scorso una lettera aperta firmata da molti tecnologi chiedeva una moratoria di sei mesi sui lavori sui sistemi più avanzati, per avere il tempo di elaborare nuovi protocolli di sicurezza.
Sebbene i governi abbiano iniziato a prendere in considerazione la questione, sarebbero necessari nuovi accordi internazionali per cercare di controllare la diffusione dell’intelligenza artificiale pericolosa. Anche in questo caso, tali sforzi potrebbero essere impraticabili, data l’ampia disponibilità di risorse informatiche e set di dati necessari per addestrare i sistemi di intelligenza artificiale.
Per ora, le stesse aziende che stanno guidando la corsa verso l’intelligenza artificiale affermano di essere anche in prima linea nel tentativo di frenarla. OpenAI disse a metà del 2023 stava creando un team interno per iniziare a ricercare modi per controllare i computer “superintelligenti”, cosa che si pensa potrebbe arrivare in questo decennio. Ma meno di un anno dopo, la squadra si sciolse – e una delle persone che l’avevano guidata ha accusato la società di essere più interessati a costruire “prodotti brillanti” che a creare una vera cultura sulla sicurezza dell’IA.