Immagina un'auto che non consente al conducente di superare il limite di velocità. Sembra abbastanza semplice, ma non c'è molta richiesta per una macchina che tolga decisioni morali all'utente. Anche il modello “Sloth” di Tesla che rispetta i limiti di velocità è opzionale; gli utenti delle sue auto a guida autonoma possono anche provare il “Mad Max” completo.
Nel mondo dell’intelligenza artificiale, alcune aziende pensano che i clienti preferirebbero prodotti con morali preinstallate. Prendi Anthropic, di cui è il chatbot Claude addestrato ad “avere buoni valori”. Ciò sta rendendo Anthropic impopolare in alcuni ambienti. Il Dipartimento della Difesa degli Stati Uniti ha protestato contro i limiti che non consentirebbero attacchi letali autodiretti o spionaggio di massa sui cittadini – una disputa che venerdì si è avviata verso uno stallo teso.
I rivali, nel frattempo, stanno cercando di minare le credenziali di Anthropic incentrate sulla sicurezza, che esibisce attraverso una “costituzione” che dice a Claude di dare priorità alla sicurezza, all'etica e alla disponibilità in quest'ordine. Sam Altman di OpenAI ha marchiato l'azienda “autoritario”. Lo ha definito Elon Musk, fondatore di xAI e del chatbot Grok “misantropo” perché quello che sostiene è un pregiudizio contro gli uomini bianchi, tra gli altri.
I clienti si preoccupano? Dopotutto, il vero motore della crescita di Anthropic, che rappresenta circa l'80% delle entrate, è la vendita di strumenti a utenti aziendali focalizzati principalmente sull'efficienza e sul profitto. Se l’intelligenza artificiale riuscirebbe a premere il pulsante nucleare, come suggeriscono i ricercatori del King’s College a volte lo farebbe, ha poca importanza diretta per tali clienti.
Gli investitori certamente non ritengono che lo stile etico di Anthropic sia un ostacolo. La società ha appena raccolto fondi per una valutazione di 350 miliardi di dollari e potrebbe cercare di quotarsi in borsa entro la fine dell'anno. L’efficacia di Claude Code, il suo assistente di programmazione, ha contribuito quest’anno a ridurre di 1 trilione di dollari il valore combinato delle azioni software dell’indice S&P 500. L'affermazione di Anthropic secondo cui Claude può programmare in COBOL, un linguaggio goffo utilizzato nei mainframe IT, ha ridotto di 30 miliardi di dollari la capitalizzazione di mercato di IBM in un solo giorno.
C'è un'area in cui l'integrità di un bot oggi conta: le allucinazioni. Peter Gostev del gruppo di valutazione AI Arena ha pubblicato un “benchmark delle stronzate” che verifica se i modelli sfidano domande senza senso o semplicemente rispondono con altre sciocchezze. Anthropic ha ottenuto il punteggio migliore; alcuni di OpenAI erano tra i peggiori. Anche in questo caso, ciò potrebbe avere più a che fare con la qualità dell'analisi di un modello che con le sue opinioni intrinseche sulla veridicità.
Il passaggio all’intelligenza artificiale agenziale – robot che non si limitano ad assistere ma eseguono effettivamente compiti ed esercitano giudizio – aumenterà la posta in gioco. Man mano che l’intelligenza artificiale diventa più simile a quella umana e il suo ruolo all’interno dell’azienda diventa più senior, il modo in cui risponde a sfide e conflitti complessi avrà maggiore importanza. Quando è meglio ignorare un comando? Quando il perseguimento di un obiettivo a breve termine potrebbe portare a problemi a lungo termine? Quando va bene dire al capo di “spingerlo”?
Nel bene e nel male, non è molto diverso da ciò che le aziende cercano nei propri dipendenti. Per lavori meno critici e più orientati ai processi, i datori di lavoro cercano lavoratori che seguano le regole. A livelli senior, dove le azioni di un individuo possono influenzare il valore dell'intera azienda, il buon senso in situazioni insolite diventa prezioso e richiede una retribuzione più elevata.
Naturalmente, è oggetto di dibattito se la visione fondamentale dell'“etica” di un'azienda corrisponderà a quella di Anthropic. Un giorno a un agente verrà chiesto di fare qualcosa di brutto per il mondo ma di buono per il profitto di un'azienda. Un modello che privilegia il buon comportamento dovrebbe avere più valore; nel mondo aziendale reale, uno che valorizzasse ancora di più il valore per gli azionisti avrebbe senza dubbio ripulito.
