Gio. Lug 25th, 2024

Sblocca gratuitamente il Digest dell’editore

Nella sua storia incredibilmente breve, OpenAI è diventata famosa per due cose: l’ambizione tecnologica astronomica e la comica governance aziendale. Non è una combinazione felice.

L’improvviso licenziamento da parte del consiglio di Sam Altman, amministratore delegato di OpenAI, venerdì ha sbalordito la Silicon Valley come pochi altri eventi negli ultimi decenni. Il simbolo della rivoluzione dell’intelligenza artificiale generativa, che aveva fatto così tanto per rendere popolare il chatbot ChatGPT di OpenAI come servizio di punta per i consumatori, è stato espulso da altri quattro membri del consiglio di sorveglianza in una videochiamata. Molti altri esponenti di spicco di OpenAI, incluso il suo presidente, Greg Brockman, lo seguirono rapidamente fuori dalla porta.

Gran parte della storia – e esattamente come andrà a finire – rimane misteriosa. Il consiglio potrebbe aver avuto buone ragioni per licenziare Altman per essere stato meno che “coerentemente sincero” con i suoi colleghi direttori. Il trambusto secondario di Altman a sostegno del lancio di un’attività di chip AI ha sicuramente sollevato evidenti preoccupazioni su possibili conflitti di interessi. Ma il consiglio stesso è stato poco sincero nello spiegare la sua decisione ai dipendenti di OpenAI, agli investitori e a Microsoft, che ha fortemente sostenuto la start-up. Lunedì più di 500 dei 770 dipendenti di OpenAI hanno firmato una lettera aperta chiedendo il ritorno di Altman e le dimissioni del consiglio di amministrazione, mettendo in discussione il futuro dell’azienda. Ha sicuramente vaporizzato le sue possibilità di raccogliere denaro fresco a una valutazione di 86 miliardi di dollari recentemente pubblicizzata.

Ma la vicenda solleva questioni più ampie su come sono governate le aziende di intelligenza artificiale. Se, come pubblicizzano i suoi evangelisti, l’intelligenza artificiale è così trasformativa, i suoi sostenitori e tutori aziendali devono mostrare integrità, trasparenza e competenza esemplari.

A dire il vero, OpenAI è sempre stata una strana creazione aziendale. La società di ricerca è stata fondata nel 2015 come organizzazione no-profit dedicata allo sviluppo sicuro dell’intelligenza artificiale a beneficio dell’umanità. Ma i costi per lo sviluppo di modelli all’avanguardia sono così ingenti che è difficile per qualsiasi impresa non commerciale rimanere in quel gioco a lungo. Pertanto, pur preservando un comitato di supervisione senza scopo di lucro, OpenAI ha sviluppato un ramo d’azienda a scopo di lucro, consentendo all’azienda di attrarre investimenti esterni e commercializzare i propri servizi.

Quella struttura ibrida creò tensioni tra le due “tribù” di OpenAI, come le chiamava Altman. La tribù della sicurezza, guidata dal capo scienziato e membro del consiglio Ilya Sutskever, ha sostenuto che OpenAI deve attenersi al suo scopo fondatore e implementare l’intelligenza artificiale solo con attenzione. La tribù commerciale sembrava abbagliata dalle possibilità offerte dal successo di ChatGPT e voleva accelerare. La tribù della sicurezza sembrava aver vinto durante il fine settimana, ma forse non per molto. La reazione negativa dei dipendenti potrebbe portare ancora più colpi di scena.

Cosa significa tutto questo per Microsoft? Il suo investimento di 13 miliardi di dollari in OpenAI è stato chiaramente messo a repentaglio, sebbene gran parte di tale impegno fosse sotto forma di risorse informatiche, non ancora utilizzate. Eppure lunedì Microsoft sembrava aver trionfato assumendo Altman e diversi importanti ricercatori di OpenAI. COME Ben Thompson, autore della newsletter Stratechery, ha osservato: Microsoft potrebbe in effetti “appena acquisito OpenAI per 0 dollari e zero rischi di una causa antitrust”.

Gli outsider sconcertati devono sperare che gli istituti di sicurezza dell’intelligenza artificiale promessi dai governi del Regno Unito e degli Stati Uniti per esaminare i modelli di frontiera delle aziende leader siano presto operativi. La debacle di OpenAI amplifica anche le richieste di coloro che sostengono che l’intelligenza artificiale generale dovrebbe essere perseguita solo dagli scienziati di un istituto di ricerca internazionale e non commerciale simile al Cern. Se coloro che stanno sviluppando tecnologie così potenti non possono governarsi da soli, allora dovrebbero aspettarsi di essere governati.