Mar. Lug 15th, 2025
3D model of the initials AI

Sblocca gratuitamente il digest dell'editore

Alla fine dell'anno scorso, la California ha quasi approvato una legge che avrebbe costretto i produttori di grandi modelli di intelligenza artificiale a pulire il potenziale per causare danni su larga scala. Non è riuscito. Ora, New York sta provando una legge propria. Tali proposte hanno rughe e rischiano di rallentare il ritmo dell'innovazione. Ma sono ancora meglio che non fare nulla.

I rischi dall'intelligenza artificiale sono aumentati dal fumble della California lo scorso settembre. Lo sviluppatore cinese DeepSeek ha dimostrato che possono essere realizzati potenti modelli su un rantolo. I motori in grado di “ragionamento” complessi stanno soppiantando quelli che semplicemente sputano risposte a fuoco rapido. E forse il più grande cambiamento: gli sviluppatori di intelligenza artificiale stanno costruendo furiosamente “agenti”, progettati per svolgere compiti e impegnarsi con altri sistemi, con una supervisione umana minima.

Come creare regole per qualcosa di così veloce? Anche decidere cosa regolare è una sfida. Lo studio legale BCLP ha monitorato centinaia di bollette su tutto, dalla privacy alla discriminazione accidentale. Il disegno di legge di New York si concentra sulla sicurezza: i grandi sviluppatori dovrebbero creare piani per ridurre il rischio che i loro modelli producano vittime di massa o grandi perdite finanziarie, trattengono i modelli che presentano un “rischio irragionevole” e notificare alle autorità statali entro tre giorni in cui si verifica un incidente.

Anche con le migliori intenzioni, le leggi che regolano le nuove tecnologie possono finire come il latte. Ma mentre l'IA si ridimensiona, anche le preoccupazioni. UN Rapporto pubblicato martedì Da una banda di luminari AI della California delinea alcuni: ad esempio, il modello O3 di Openi supera il 94 % dei virologi esperti. La prova che un modello potrebbe facilitare la produzione di armi chimiche o nucleari, aggiunge, sta emergendo in tempo reale.

Diffondere informazioni pericolose a cattivi attori è solo un pericolo. Anche gli obiettivi di “aderenza agli utenti” stanno suscitando preoccupazioni. Già, il rapporto della California rileva un crescente evidenza di “schemi di allineamento”, in cui i modelli seguono gli ordini in laboratorio, ma non in natura. Anche il papa teme che l'IA possa rappresentare una minaccia “dignità umana, giustizia e lavoro. “

Molti booster di intelligenza artificiale non sono d'accordo, ovviamente. La società di capitali di venture capital Andreessen Horowitz, un sostenitore di Openi, sostiene che le regole dovrebbero indirizzare gli utenti, non i modelli. Ciò manca di logica in un mondo in cui gli agenti sono progettati per agire con un input per l'utente minimo.

Né la Silicon Valley sembra disposta a incontrarsi nel mezzo. Andreessen ha descritto la legge di New York come “stupida”. UN Gruppo di lobby ha fondato La legge proposta di New York esenta qualsiasi sviluppatore con $ 50 miliardi o meno di entrate specifiche dell'IA, ha appreso Lex. Ciò risparmierebbe Openai, Meta e Google – in altre parole, ognuno di sostanza.

Grafico a barre della legislazione di AI a livello statale nel 2025, il numero di fatture che mostrano che gli Stati statunitensi raggiungono le prese con AI

La grande tecnologia dovrebbe riconsiderare questa posizione. Anche Guardrails beneficia degli investitori e c'è una scarsa probabilità di significativa regolamento federale. Come possono attestare Lehman Brothers o gli ex azionisti di AIG, sostenere una società che provoca calamità sistemica non è divertente.

Il percorso da percorrere prevede molto trading di cavalli; La governatore di New York Kathy Hochul ha tempo fino alla fine del 2025 per richiedere emendamenti al disegno di legge dello stato. Alcuni repubblicani al Congresso hanno proposto che gli stati bloccanti della regolamentazione dell'IA. E con ogni settimana che passa, l'IA rivela nuovi poteri. Il panorama normativo è un disastro, ma lasciarlo al caso creerà uno molto più grande e più difficile da ripulire.

[email protected]