Mer. Lug 17th, 2024
OpenAI amplia il team di lobbying per influenzare la regolamentazione

OpenAI sta costruendo un team internazionale di lobbisti nel tentativo di influenzare politici e regolatori che stanno aumentando il loro controllo sulla potente intelligenza artificiale.

La start-up con sede a San Francisco ha dichiarato al MagicTech di aver ampliato il numero dei dipendenti del suo team per gli affari globali da tre all’inizio del 2023 a 35. L’azienda punta a portarlo a 50 entro la fine del 2024.

La spinta arriva mentre i governi esplorano e dibattono la legislazione sulla sicurezza dell’intelligenza artificiale che rischia di limitare la crescita della start-up e lo sviluppo dei suoi modelli all’avanguardia, che sono alla base di prodotti come ChatGPT.

“Non stiamo affrontando la questione dal punto di vista del fatto che dobbiamo semplicemente intervenire e annullare le normative. . . perché non abbiamo l'obiettivo di massimizzare il profitto; il nostro obiettivo è garantire che l’AGI porti benefici a tutta l’umanità”, ha affermato Anna Makanju, vicepresidente per gli affari governativi di OpenAI, riferendosi all’intelligenza artificiale generale, o al fatto che le macchine hanno capacità cognitive equivalenti a quelle umane.

Pur costituendo una piccola parte dei 1.200 dipendenti di OpenAI, il dipartimento degli affari globali è l'unità più internazionale dell'azienda, posizionata strategicamente in luoghi in cui la legislazione sull'IA è avanzata. Ciò include personale di stanza in Belgio, Regno Unito, Irlanda, Francia, Singapore, India, Brasile e Stati Uniti.

Tuttavia, OpenAI rimane indietro rispetto ai suoi rivali Big Tech in questo ambito. Secondo i documenti pubblici negli Stati Uniti, Meta ha speso la cifra record di 7,6 milioni di dollari collaborando con il governo statunitense nel primo trimestre di quest’anno, mentre Google ha speso 3,1 milioni di dollari e OpenAI 340.000 dollari. Per quanto riguarda la difesa specifica dell’intelligenza artificiale, Meta ha nominato 15 lobbisti, Google ne ha cinque mentre OpenAI ne ha solo due.

“Entrando nella porta, [ChatGPT had] 100 milioni di utenti [but the company had] tre persone per fare politiche pubbliche”, ha affermato David Robinson, responsabile della pianificazione politica di OpenAI, entrato in azienda nel maggio dello scorso anno dopo una carriera nel mondo accademico e una consulenza per la Casa Bianca sulla sua politica sull’intelligenza artificiale.

“Eravamo letteralmente al punto in cui c'era qualcuno di alto livello che voleva una conversazione, e non c'era nessuno che potesse rispondere al telefono”, ha aggiunto.

Tuttavia, l’unità per gli affari globali di OpenAI non si occupa di alcuni dei casi normativi più difficili. Questo compito spetta al suo team legale, che gestisce le questioni relative alla revisione da parte dei regolatori britannici e statunitensi della sua alleanza da 18 miliardi di dollari con Microsoft; l'indagine della Securities and Exchange Commission statunitense per verificare se l'amministratore delegato Sam Altman abbia ingannato gli investitori durante la sua breve destituzione da parte del consiglio di amministrazione a novembre; e l'indagine sulla protezione dei consumatori condotta dalla Federal Trade Commission statunitense sull'azienda.

I lobbisti di OpenAI si concentrano invece sulla diffusione della legislazione sull’IA. Il Regno Unito, gli Stati Uniti e Singapore sono tra i tanti paesi che si occupano di come governare l’intelligenza artificiale e si consultano strettamente con OpenAI e altre società tecnologiche sulle normative proposte.

L'azienda è stata coinvolta nelle discussioni sull'AI Act dell'UE, approvato quest'anno, uno degli atti legislativi più avanzati nel tentativo di regolamentare potenti modelli di intelligenza artificiale.

OpenAI era tra le società di intelligenza artificiale che nelle prime bozze della legge sostenevano che alcuni dei suoi modelli non dovessero essere considerati tra quelli che prevedono un “rischio elevato” e sarebbero quindi soggetti a regole più severe, secondo tre persone coinvolte nei negoziati. Nonostante questa spinta, i modelli più capaci dell’azienda rientreranno nell’ambito di applicazione della legge.

Secondo fonti vicine ai negoziati, OpenAI si è anche opposta alla spinta dell'UE ad esaminare tutti i dati forniti per i suoi modelli di fondazione.

L’azienda ha dichiarato al FT che i dati pre-addestramento – i set di dati utilizzati per fornire a grandi modelli linguistici un’ampia comprensione del linguaggio o dei modelli – dovrebbero essere al di fuori dell’ambito della regolamentazione in quanto si tratta di un modo inadeguato per comprendere i risultati di un sistema di intelligenza artificiale. Ha invece proposto che l’attenzione si concentri sui dati post-formazione utilizzati per mettere a punto i modelli per un compito particolare.

L’UE ha deciso che, per i sistemi di IA ad alto rischio, le autorità di regolamentazione possono comunque richiedere l’accesso ai dati di addestramento per garantire che siano privi di errori e distorsioni.

Da quando la legge dell'UE è stata approvata, OpenAI ha assunto Chris Lehane, che ha lavorato per il presidente Bill Clinton, la campagna presidenziale di Al Gore ed è stato il capo politico di Airbnb come vicepresidente dei lavori pubblici. Lehane lavorerà a stretto contatto con Makanju e il suo team.

OpenAI ha recentemente preso in giro anche Jakob Kucharczyk, ex leader della competizione a Meta. Sandro Gianella, responsabile delle politiche e dei partenariati europei, è entrato a far parte del gruppo nel giugno dello scorso anno dopo aver lavorato presso Google e Stripe, mentre James Hairston, responsabile delle politiche e dei partenariati internazionali, è arrivato da Meta nel maggio dello scorso anno.

L'azienda è stata recentemente coinvolta in una serie di discussioni con i politici negli Stati Uniti e in altri mercati sul modello Voice Engine di OpenAI, che può clonare e creare voci personalizzate, portando l'azienda a restringere i suoi piani di rilascio dopo le preoccupazioni sui rischi su come potrebbe essere utilizzato. nel contesto delle elezioni globali di quest’anno.

Il team ha tenuto seminari nei paesi che si trovano ad affrontare le elezioni quest’anno, come il Messico e l’India, e ha pubblicato linee guida sulla disinformazione. Nei paesi autocratici, OpenAI garantisce l’accesso individuale ai suoi modelli a “individui fidati” nelle aree in cui ritiene non sia sicuro rilasciare i prodotti.

Un funzionario governativo che ha lavorato a stretto contatto con OpenAI ha affermato che una preoccupazione diversa per l’azienda era garantire che eventuali regole fossero flessibili in futuro e non diventassero obsolete con nuovi progressi scientifici o tecnologici.

OpenAI spera di affrontare alcuni postumi dell’era dei social media, che secondo Makanju hanno portato a una “sfiducia generale nei confronti delle aziende della Silicon Valley”.

“Sfortunatamente, le persone spesso vedono l’intelligenza artificiale con la stessa lente”, ha aggiunto. “Dedichiamo molto tempo assicurandoci che le persone comprendano che questa tecnologia è molto diversa e che gli interventi normativi che hanno senso per essa saranno molto diversi”.

Tuttavia, alcune figure del settore sono critiche nei confronti dell’espansione del lobbying di OpenAI.

“Inizialmente, OpenAI reclutava persone profondamente coinvolte nella politica e negli specialisti dell'IA, mentre ora stanno assumendo semplicemente lobbisti tecnologici, che è una strategia molto diversa”, ha affermato una persona che si è impegnata direttamente con OpenAI nella creazione di una legislazione .

“Vogliono solo influenzare i legislatori nello stesso modo in cui le Big Tech hanno fatto per oltre un decennio.”

Robinson, responsabile della pianificazione di OpenAI, ha affermato che il team degli affari globali ha obiettivi più ambiziosi. “La missione è sicura e ampiamente vantaggiosa, e quindi cosa significa? Significa creare leggi che non solo ci consentano di innovare e portare tecnologie vantaggiose per le persone, ma anche di creare un mondo in cui la tecnologia è sicura”.