Dom. Mar 22nd, 2026
Logos of DeepSeek, Meta, OpenAI and Google

Sono sempre stato perplesso dal modo in cui Sam Altman, il capo di Openai, parla di cosa accadrà se e quando l'intelligenza artificiale raggiunge o supera l'intelligenza umana.

Ammette che sarà difficile da controllare, arrivare con tutti i tipi di spiacevoli effetti collaterali e – forse – causare il collasso della civiltà. E poi dice che la sua compagnia sta correndo per costruirla il più rapidamente possibile.

Prende sul serio i problemi di sicurezza, o sta solo cercando di guadagnare un passaggio gratuito pensando di pensare che sia davvero un cittadino responsabile che cerca i nostri interessi?

Immagino che ora lo sappiamo. L'amministrazione Trump ha appena cantato l'industria dell'intelligenza artificiale su ciò che vorrebbe dalla politica statunitense sotto la sua nuova amministrazione. La risposta: è tempo per Washington di aprire la strada al settore in modo che possa muoversi molto più velocemente, i regolamenti siano dannati.

Se stavi cercando prove di come la Silicon Valley si è spostata con i venti politici, ti sarebbe difficile trovare qualcos'altro così netto.

Sotto la precedente amministrazione, le più grandi società di intelligenza artificiale predicavano cautela, almeno in pubblico. Hanno persino concordato di sottoporre i loro modelli più potenti a test esterni prima di scatenarli sul resto di noi. La Casa Bianca di Biden ha visto questo come un primo passo che potrebbe alla fine portare a un completo controllo del governo e licenze di AI avanzata.

Sogno. Donald Trump ha strappato l'ordine esecutivo di Biden su AI durante il suo molto prima settimana Di nuovo in ufficio. Quindi la sua amministrazione ha chiesto commenti per aiutarla a modellare una nuova politica di intelligenza artificiale: prima un classico caso di riprese, fare domande in seguito.

Nelle loro osservazioni alla Casa Bianca, aziende come Openai, Meta e Google sono state quasi unanimi: gli Stati Uniti hanno bisogno di aiutare le sue aziende AI a muoversi più velocemente se sperano di superare la Cina; Gli stati statunitensi non dovrebbero legare i giganti della tecnologia con regolamenti frammentari (dal momento che il governo federale è addormentato per anni al volante sulla regolamentazione tecnologica, ciò escluderebbe praticamente qualsiasi restrizione); La Casa Bianca dovrebbe porre fine alle incertezze sul copyright e dichiarare che le società hanno i loro diritti di formare i loro modelli su qualsiasi dati di dominio pubblico.

Sicurezza? Le compagnie hanno in gran parte strofinato quella parola dal loro vocabolario. Questo è probabilmente saggio: tutti avrebbero ascoltato la dichiarazione del vicepresidente JD Vance, in un recente vertice di intelligenza artificiale a Parigi, secondo cui il “futuro AI non sarà vinto con la sicurezza a mano”.

Non ho mai dubitato che la gara AI fosse proprio questo: una gara. Molte delle aziende coinvolte sono veterani di altre battaglie tecnologiche vincitori. Hanno sempre avuto modi semplicistici e egoisti per giudicare se ciò che stanno facendo è nell'interesse pubblico: se le persone fanno clic su qualcosa, allora devono desiderare di più. Questo è il rapido ciclo di feedback che ci ha dato gli algoritmi che hanno nutrito il boom dei social media. Cosa non piace?

Ma, dopo tutte le prove di danni causati dai social media, penseresti che le aziende vorrebbero sapere come la loro intelligenza artificiale è affetto dal mondo prima di affrettarsi a darci di più. Le prove stanno solo iniziando a gocciolare e – sorpresa, sorpresa – non è incoraggiante.

Media Lab di MIT di recente studiate persone che usano i chatbot AI e ha scoperto che l'uso più pesante era strettamente correlato con “maggiore solitudine, dipendenza … Uso problematico e minore socializzazione”. Dobbiamo imparare di nuovo la lezione che la tecnologia che ci affascina potrebbe non farci bene? Sembra che lo facciamo.

Se ti sentivi particolarmente generoso, suppongo che potresti provare a sostenere che le aziende tecnologiche stiano solo adattando i loro mondi per dare a Trump ciò che vuole sentire. Forse sono ancora dedicati alla sicurezza e mantengono così tranquilli per ora. Ma penso che ci vorrebbe insolita generosità dello spirito per raggiungere questa conclusione.

Cristina, come corrispondente tecnologica a San Francisco, hai a che fare con queste società di intelligenza artificiale. Pensi che siano più seri sulla sicurezza dell'IA o abbiano gettato tutto così in mare nella fretta di essere i primi all'intelligenza generale artificiale (AGI)? Questo perno è solo un riflesso del nuovo umore a Washington e della domanda della Casa Bianca di Trump di esibizioni di dominio americano? O stiamo vedendo le aziende tecnologiche ora nei loro veri colori?

Lettura consigliata

  • Puoi archiviare questo sotto “un'altra di quelle cose che temevi potrebbe derivare dall'attacco di Elon Musk alla spesa del governo”. Claire Jones di FT scrive che gli economisti stanno iniziando a preoccuparsi della credibilità dei dati economici statunitensi. Probabilmente non avresti mai pensato di perdere il comitato consultivo delle statistiche economiche federali. Ma ora che è andato. . .

  • I sostenitori di Trump sono pronti per l'erosione di programmi come Medicaid che potrebbero essere in occasione mentre i repubblicani cercano tagli più profondi alla spesa del governo? Guy Chazan andò a Bogalusa, in Louisiana, per ascoltare gli elettori. Il ritornello: “Non è mai venuto fuori nella campagna … Non credo che la gente lo abbia visto arrivare.”

  • Se riesco a piegare un po 'le regole e includere un video nell'elenco di lettura consigliato: in molti anni che ho scritto sulla tecnologia (23, da quando chiedi) non ho mai visto un'azienda dominare una nuova tecnologia importante con la stessa accuratezza come la chipmaker Nvidia ha dominato in AI. Ma niente dura per sempre. Questo video esamina alcune delle sue maggiori sfide.

Cristina Criddle risponde

I principali sviluppatori di intelligenza artificiale hanno radici profonde in sicurezza: Google, noto per il suo mantra “Don't Be Evil”; Missione di Openai per garantire che l'IA avvantaggia l'umanità; e gli ex dipendenti di Openai hanno fondato Antropico per concentrarsi sull'intelligenza artificiale responsabile.

Questi laboratori conducono già rigorosi test interni e Pubblica documenti accademici E Rapporti di sistema Disporre i rischi percepiti da ciascun modello, classificandoli per i loro pericoli. Non vi è alcun suggerimento che queste procedure cambieranno, ma spetta ai legislatori e al pubblico decidere se queste società che contranno i propri compiti sono abbastanza buoni.

Inoltre, l'ascesa di DeepSeek ha sollevato la probabilità che la prima società a raggiungere AGI potrebbe non operare in un paese con valori e norme democratiche.

Con la Cina che minaccia il dominio e la nuova amministrazione Trump irregolare sulla prevenzione dell'IA “svegliata”, c'è stato un perno di “sicurezza”, a un termine più caldo: “sicurezza”. L'Istituto di sicurezza dell'IA del governo del Regno Unito si è rinominato all'Istituto di sicurezza dell'IA a febbraio. I governi e i ricercatori sono focalizzati su come questi sistemi potrebbero essere utilizzati dagli avversari in potenziale guerra, spionaggio o terrorismo.

Nonostante gli sforzi dell'Europa, le implicazioni sociali e umane di questa tecnologia sembrano essere state depriorate. Le start-up di intelligenza artificiale spesso avvertono dei costi di conformità e di come potrebbero ostacolare l'innovazione, specialmente nei paesi con i regimi normativi più severi.

Quando ho chiesto a Mike Krieger, Chief Product Officer di Antropic, il miglior approccio alla sicurezza sotto l'attuale governo, ha affermato che la società cerca di essere coinvolta nel maggior numero possibile di conversazioni.

“Non siamo lì per fare politica, ma siamo lì per aiutare a modellare la politica in un modo che pensiamo porterà a buoni risultati senza soffocare l'innovazione; c'è sempre quell'equilibrio”, ha detto.

In qualità di co-fondatore di Instagram ed ex direttore della tecnologia, Krieger è fin troppo familiarità con il modo in cui i social media possono avere un impatto sulla democrazia e sul benessere dei suoi utenti. Mentre sono stati disegnati molti parallelismi tra i rischi dei social media e dell'IA, non abbiamo ancora una regolamentazione o soluzioni significative sul primo. Quindi quanta speranza possiamo avere per quest'ultimo?

Probabilmente, le minacce poste dall'intelligenza artificiale sono molto più significative e il ritmo dello sviluppo è rapido. Quando GATGPT è stato lanciato, abbiamo visto una diffusa preoccupazione da parte dei leader del campo, citando rischi esistenziali e chiedendo una moratoria su potenti sistemi di intelligenza artificiale.

Elon Musk ha sostenuto una pausa nello sviluppo e ancora mesi dopo ha avviato la sua start-up AI, Xai, sviluppando modelli potenti, raccogliendo rapidamente $ 12 miliardi. L'atteggiamento mossa rapido della Silicon Valley è più forte che mai, ma è maturato a farlo senza rompere le cose?

Il tuo feedback

E ora una parola dai nostri Swampian. . .

In risposta a “Trump renderà di nuovo grandi le navi?: “
“Mi chiedo quali possano essere le possibilità di successo per un'amministrazione che non ha fondi che potrebbero essere disponibili per la costruzione navale anche se il presidente abbia creduto in essi, ed è più probabile che minacciasse l'invasione di paesi amiche (ad es. Panama e Danimarca/Groenlandia) o colpirli con porti di portata. Probabilmente produrre qualcosa di diverso dalle spese di spedizione inflazionistica più alte per le imprese e i consumatori statunitensi. ” – David Gantz