Rimani informato con aggiornamenti gratuiti
La scorsa settimana, il consiglio di amministrazione di OpenAI è passato attraverso quattro amministratori delegati in cinque giorni. Ha accusato l’amministratore delegato originale, Sam Altman, di mentire, ma in seguito ha fatto marcia indietro e si è rifiutato di dire cosa significasse. Il 90% del personale dell’organizzazione ha firmato una lettera aperta dicendo che si sarebbe dimesso se il consiglio non lo avesse fatto. La Silicon Valley era allo stesso tempo inchiodata e inorridita. Mercoledì Altman era tornato, due dei tre membri esterni del consiglio erano stati sostituiti e tutti potevano dormire un po’.
Sarebbe facile dire che questo caos dimostra che sia il consiglio di amministrazione di OpenAI che la sua curiosa struttura suddivisa tra no-profit e for-profit non erano adatti allo scopo. Si potrebbe anche suggerire che i membri esterni del consiglio non avessero il background o l’esperienza adeguati per supervisionare un’azienda da 90 miliardi di dollari che ha fissato l’agenda per una svolta tecnologica di enorme importanza. Probabilmente si potrebbero dire anche cose meno educate, e tutto ciò potrebbe essere vero, ma sarebbe anche incompleto.
Per quanto ne sappiamo (e devo dire che anche questo è un problema), il conflitto di fondo all’interno di OpenAI è stato quello che molte persone hanno sottolineato e di cui in effetti si sono presi gioco nell’ultimo anno. OpenAI è stato creato per provare a costruire una versione macchina di qualcosa che si avvicini all’intelligenza umana (la cosiddetta “AGI”, o intelligenza artificiale generale). La premessa era che ciò sarebbe stato possibile nel giro di anni anziché di decenni, e potenzialmente molto positivo ma anche potenzialmente molto pericoloso, non solo per cose banali come la democrazia o la società, ma per l’umanità stessa.
Questo è il motivo della strana struttura organizzativa: controllare il rischio. Altman ha costruito questa cosa il più velocemente possibile, dicendo anche a voce alta e spesso che questa cosa è estremamente pericolosa e che i governi dovrebbero essere coinvolti per controllare qualsiasi tentativo di costruirla. Bene, qual è?
Molti nel mondo della tecnologia pensano che dare voce a tali preoccupazioni sia un semplice tentativo di catturare una regolamentazione anticoncorrenziale. Ciò vale in particolare per le mosse più ampie contro i modelli di intelligenza artificiale open source (viste nell’ordine esecutivo della Casa Bianca sull’intelligenza artificiale il mese scorso): la gente pensa che OpenAI stia cercando di convincere i governi a vietare la concorrenza.
Potrebbe essere vero, ma personalmente penso che le persone che sostengono che l’AGI sia vicina e pericolosa siano sincere, e questo rende il loro desiderio di costruirla ancora più conflittuale. Questa sembra essere la migliore spiegazione di ciò che è successo a OpenAI: coloro che pensano che dovremmo rallentare e stare attenti hanno organizzato un colpo di stato contro coloro che pensano che dovremmo accelerare e stare attenti.
Parte del problema e del conflitto quando si tratta di discutere dell’AGI è che si tratta di un concetto astratto – un esperimento mentale – senza alcun modello teorico chiaro o ben compreso. Gli ingegneri del programma Apollo sapevano quanto fosse lontana la Luna e quanta spinta avesse il razzo, ma non sappiamo quanto sia lontano l’AGI, né quanto siano vicini i grandi modelli linguistici di OpenAI, né se possano arrivarci.
Potresti passare settimane della tua vita a guardare video di scienziati dell’apprendimento automatico che discutono su questo argomento e concludere solo che neanche loro lo sanno. ChatGPT potrebbe raggiungere Terminator in cinque anni, o in cinque decenni, oppure no. Potrebbe essere come guardare un biplano degli anni ’20 e preoccuparsi che possa entrare in orbita. Non lo sappiamo.
Ciò significa che la maggior parte delle conversazioni sul rischio dell’intelligenza artificiale diventano una caccia a metafore (è “come” armi nucleari, o un meteorite, o addirittura il programma Apollo). Oppure riesumano corsi di filosofia universitari semi dimenticati (la scommessa di Pascal! La caverna di Platone!), o ricorrono ad argomentazioni provenienti dall’autorità (Geoff Hinton è preoccupato! Yann LeCun no!). Alla fine, questo dipende da come, istintivamente, ti senti riguardo al rischio. Se non puoi sapere cosa è vicino o no, è un motivo per preoccuparti o un motivo per non preoccuparti? Non c’è una risposta corretta.
Purtroppo per i “doomers”, gli eventi dell’ultima settimana hanno accelerato tutto. Uno dei membri del consiglio ora dimessi avrebbe affermato che la chiusura di OpenAI sarebbe coerente con la missione (meglio prevenire che curare). Ma le centinaia di aziende che stavano basandosi sulle interfacce di programmazione delle applicazioni di OpenAI sono alla ricerca di alternative, sia dai concorrenti commerciali che dalla crescente ondata di progetti open source che non sono controllati da nessuno. L’intelligenza artificiale ora si muoverà più velocemente, sarà più dispersa e meno controllata. I colpi di stato falliti spesso accelerano ciò che si cercava di impedire.
In effetti, una critica comune rivolta ai condannati è che la loro idea che un potente software e pochi brillanti ingegneri possano trasformare il mondo è solo un’altra forma di utopismo tecnologico ingenuo e semplicistico: non riesce a comprendere la reale natura del potere, della complessità e della tecnologia. sistemi umani. I catastrofisti presenti sul tabellone hanno dimostrato esattamente questo: non sapevano come funziona il potere.
