Mar. Feb 17th, 2026
"L'umanità deve rendersi conto" dei pericoli dell'intelligenza artificiale, afferma il capo di Anthropic

Secondo il capo di Anthropic Dario Amodei, la cui azienda è tra quelle che spingono le frontiere della tecnologia, l’umanità “ha bisogno di rendersi conto” dei rischi potenzialmente catastrofici posti dai potenti sistemi di intelligenza artificiale negli anni a venire.

In un saggio di quasi 20.000 parole, pubblicato lunedì, Amodei ha delineato i rischi che potrebbero emergere se la tecnologia si sviluppasse senza controllo, dalla perdita di posti di lavoro su larga scala al bioterrorismo.

“L’umanità sta per ricevere un potere quasi inimmaginabile e non è profondamente chiaro se i nostri sistemi sociali, politici e tecnologici possiedano la maturità per esercitarlo”, ha scritto Amodei.

Il saggio lancia un duro avvertimento da parte di uno dei più potenti imprenditori del settore dell’intelligenza artificiale secondo cui le garanzie sull’intelligenza artificiale sono inadeguate.

Amodei delinea i rischi che potrebbero sorgere con l’avvento di quella che chiama “potente intelligenza artificiale” – sistemi che sarebbero “molto più capaci di qualsiasi vincitore del Premio Nobel, statista o tecnologo” – che prevede probabile nei prossimi “pochi anni”.

Tra questi rischi c’è la possibilità che i singoli individui sviluppino armi biologiche in grado di uccidere milioni di persone o “nel peggiore dei casi addirittura di distruggere tutta la vita sulla Terra”.

“Un solitario disturbato [who] può perpetrare una sparatoria in una scuola, ma probabilmente non può costruire un'arma nucleare o diffondere un'epidemia. . . sarà ora elevato al livello di capacità del virologo PhD”, ha scritto Amodei.

Aumenta anche il potenziale dell’intelligenza artificiale di “diventare un ribelle e sopraffare l’umanità” o di dare potere agli autoritari e ad altri cattivi attori, portando a “una dittatura totalitaria globale”.

Amodei, la cui società Anthropic è la principale rivale del produttore di ChatGPT OpenAI, si è scontrato con David Sacks, l'IA del presidente Donald Trump e lo “zar” delle criptovalute, sulla direzione della regolamentazione statunitense.

Ha anche paragonato i piani dell’amministrazione di vendere chip di intelligenza artificiale alla Cina alla vendita di armi nucleari alla Corea del Nord.

Il mese scorso Trump ha firmato un ordine esecutivo per ostacolare gli sforzi a livello statale volti a regolamentare le società di intelligenza artificiale e lo scorso anno ha pubblicato un piano d’azione per l’intelligenza artificiale che definisce piani per accelerare l’innovazione statunitense.

In il saggioAmodei ha messo in guardia contro la massiccia perdita di posti di lavoro e una “concentrazione del potere economico” e della ricchezza nella Silicon Valley a causa dell’intelligenza artificiale.

“Questa è la trappola: l’intelligenza artificiale è così potente, un premio così scintillante, che è molto difficile per la civiltà umana imporle qualsiasi restrizione”, ha aggiunto.

In un velato riferimento alla controversia sull'intelligenza artificiale Grok di Elon Musk, Amodei ha scritto che “alcune aziende di intelligenza artificiale hanno mostrato un'inquietante negligenza verso la sessualizzazione dei bambini nei modelli odierni, il che mi fa dubitare che mostreranno l'inclinazione o la capacità di affrontare i rischi di autonomia nei modelli futuri”.

Le preoccupazioni sulla sicurezza dell’IA come le armi biologiche, le armi autonome e gli attori statali dannosi hanno avuto un posto di rilievo nel discorso pubblico nel 2023, in parte guidato dagli avvertimenti di leader come Amodei.

Quell’anno, il governo del Regno Unito organizzò un vertice sulla sicurezza dell’intelligenza artificiale a Bletchley Park, dove paesi e laboratori decisero di lavorare insieme per contrastare tali rischi. Un incontro successivo si terrà in India a febbraio.

Ma secondo Amodei le decisioni politiche sull’intelligenza artificiale sono sempre più guidate dal desiderio di cogliere le opportunità offerte dalla nuova tecnologia piuttosto che mitigarne i rischi.

“Questa esitazione è un peccato, perché la tecnologia stessa non si preoccupa di ciò che è di moda, e siamo molto più vicini al pericolo reale nel 2026 di quanto lo fossimo nel 2023”, ha scritto.

Amodei è stato uno dei primi dipendenti di OpenAI, ma ha lasciato per co-fondare Anthropic nel 2020 dopo essersi scontrato con Sam Altman sulla direzione di OpenAI e sui guardrail dell'IA.

Anthropic è in trattative con gruppi tra cui Microsoft e Nvidia e investitori tra cui il fondo sovrano di Singapore GIC, Coatue e Sequoia Capital per un round di finanziamento di 25 miliardi di dollari o più, valutando la società a 350 miliardi di dollari.