Sblocca gratuitamente il Digest dell’editore
I catastrofisti della Silicon Valley temono che l’intelligenza artificiale generativa aumenterà il rischio globale. La rivale di OpenAI, Anthropic, si posiziona come una start-up di intelligenza artificiale ultra sicura e responsabile. Ciò non significa che sfuggirà al controllo dei regolatori.
Anthropic è gestita dai fratelli ed ex dipendenti di OpenAI Dario e Daniela Amodei, rispettivamente amministratore delegato e presidente. Con sede a San Francisco, non lontano dal quartier generale di OpenAI, cerca di creare modelli di intelligenza artificiale che seguano una serie di principi guida. Questo mese ha pubblicato una ricerca che ha esaminato i pregiudizi nel suo chatbot Claude basato sull’intelligenza artificiale. Per non essere da meno, OpenAI ha pubblicato il proprio piano di sicurezza valutando potenziali catastrofi.
Ciò soddisferà le preoccupazioni di Washington. Ma Lina Khan della Federal Trade Commission americana ha preoccupazioni più prosaiche. È interessata ai modi in cui le grandi aziende tecnologiche stanno investendo in start-up di intelligenza artificiale come Anthropic, concentrando di fatto il potere in un nuovo settore.
Gli accordi stipulati tra grandi aziende e start-up di intelligenza artificiale tendono a includere accordi cloud che aumentano le entrate. L’impegno di Microsoft da 13 miliardi di dollari per OpenAI prevedeva che OpenAI venisse formato sulla piattaforma cloud di Microsoft. I sostenitori di Anthropic includono Google e Amazon. È un cliente cloud di entrambi.
Accordi condizionati che mescolano investimenti e spese per le infrastrutture non sono insoliti per le società di cloud computing. Ma l’intelligenza artificiale ha puntato i riflettori sulla loro struttura e sul modo in cui possono lasciare le start-up eccessivamente dipendenti dalle grandi aziende tecnologiche.
Per queste aziende, l’attrattiva di Anthropic è meno legata al suo atteggiamento attento alla sicurezza che al suo ruolo di rivale di OpenAI e di sfida al dominio di Microsoft nell’intelligenza artificiale generativa. Sebbene le entrate ricorrenti riportate da Anthropic siano un decimo di quelle di OpenAI, ha già creato un servizio di abbonamento Pro che addebita $ 20 al mese.
Un punto su cui gli investitori potrebbero essere nuovamente diffidenti è l’insolita configurazione di Anthropic. Oltre a un consiglio di amministrazione ha un “Long-Term Benefit Trust” che sovrintende ad alcuni posti nel consiglio e non risponde agli investitori. I recenti problemi di governance di OpenAI potrebbero spingere gli investitori antropici a chiedere un cambiamento.