Sblocca gratuitamente il Digest dell'editore
I laboratori di intelligenza artificiale di frontiera sono bestie insolite. A differenza di altre aziende, molti dei loro fondatori credono che il lavoro della loro vita abbia il potenziale per porre fine al mondo. Tuttavia, le ingenti somme necessarie per sviluppare modelli capaci li costringono a dimostrare un successo commerciale immediato.
La struttura non convenzionale di OpenAI è stata un modo creativo per conciliare queste tensioni, almeno sulla carta.
Combinando un comitato di supervisione senza scopo di lucro con un'entità commerciale a scopo di lucro che limitava i rendimenti, si sperava di consentire ai ricercatori preoccupati per il rischio esistenziale di vivere sotto lo stesso tetto dei loro colleghi attenti al reddito, sicuri nella consapevolezza che eccessivi rischi finanziari i rendimenti non potevano prevalere sulla loro missione di fare del bene.
Ora, si prevede che OpenAI rinuncerà al suo status di organizzazione no-profit. Gli investitori che hanno preso parte all’ultimo round di finanziamento da 6,6 miliardi di dollari potranno recuperare i propri soldi se la conversione non avrà luogo.
Ciò non sorprende. Qualsiasi fondatore o investitore ti dirà che nessuna quantità di Jenga strutturale aziendale può tenere insieme una squadra che non è allineata.
L'anno scorso, le tensioni tra il consiglio no-profit di OpenAI e Sam Altman, il suo co-fondatore e amministratore delegato, hanno portato al drammatico licenziamento di Altman. È stato rapidamente riassunto e da allora il consiglio è stato sostituito. Diversi dirigenti senior hanno lasciato l'azienda, incluso il cofondatore e capo scienziato Ilya Sutskever.
Altman è ora libero di organizzare l'azienda come preferisce. Senza un limite ai profitti, dovrebbe essere ancora più semplice per OpenAI raccogliere i fondi di cui ha bisogno.
OpenAI è stata fondata nel 2015 come organizzazione di ricerca senza scopo di lucro e ha creato una filiale a scopo di lucro nel 2019. Al Forum per la pace di Parigi lo scorso novembre, il presidente di Microsoft Brad Smith ne ha parlato con ammirazione, paragonandolo a Meta, dove sostiene il fondatore Mark Zuckerberg controllo detenendo azioni con diritto di voto maggiorato.
“Meta è di proprietà degli azionisti. OpenAI è di proprietà di un’organizzazione no-profit”, ha affermato Smith. “In quale avresti più fiducia? Ottieni la tua tecnologia da un'organizzazione no-profit? O una società a scopo di lucro interamente controllata da un essere umano?
Anche se potrebbe sembrare sorprendente che investitori come Microsoft fossero disposti ad accettare questa struttura insolita, si è trattato di un sacrificio meno grave di quanto sembri a prima vista. Innanzitutto, OpenAI non è ancora redditizia, quindi i rendimenti rimangono teorici. In secondo luogo, Microsoft avrebbe dovuto ricevere il 75% dei profitti finali di OpenAI fino a quando non avesse recuperato il suo investimento iniziale e il successivo limite di profitto non sarebbe entrato in vigore fino a quando non avesse ottenuto un ritorno sano. La decisione di Microsoft di sostenere Altman suggerisce anche che essa credesse che un essere umano avesse un'influenza sostanziale anche su quella società.
Tuttavia, qualsiasi stranezza strutturale può scoraggiare gli investitori e le esigenze di finanziamento di OpenAI sono vaste. Se ora adotta il modello di società di pubblica utilità utilizzato da concorrenti di intelligenza artificiale come Anthropic e xAI, gli investitori non dovranno preoccuparsi che obiettivi ambiziosi possano ostacolare i profitti. Sebbene ciò richieda alle aziende di perseguire obiettivi sociali, non esistono standard rigorosi necessari per dimostrare la conformità.
Mentre i prodotti di intelligenza artificiale generativa iniziano a generare entrate per miliardi di dollari all’anno, sempre più team sono costretti ad allontanarsi dai dibattiti filosofici e a decidere se prendere sul serio la commercializzazione o meno.
Ma non esiste alcun conflitto intrinseco tra la gestione di una semplice azienda a scopo di lucro e la creazione di una tecnologia sicura e solida. Un comportamento sconsiderato che regola un settore che non esiste più mette in pericolo i profitti.
Aziende come Google DeepMind e Anthropic hanno strutture più convenzionali di OpenAI e hanno creato notevoli team di sicurezza dell’IA. In questo settore, la complessa ingegneria aziendale consente di ottenere ben poco.