I ricercatori di sicurezza avvertono da anni che l’intelligenza artificiale prima o poi si sarebbe fatta strada nelle mani degli hacker che cercavano di costruire attacchi più sofisticati. Il Threat Intelligence Group (GTIG) di Google ha appena confermato non è più un avvertimento. Lo dice il gruppo ha scoperto il primo exploit conosciuto sviluppato dall'intelligenza artificiale utilizzato in una campagna di attacco nel mondo reale.
L'exploit ha preso di mira un popolare strumento di amministrazione open source basato sul web. Nello specifico, si trattava di uno script Python che consentiva agli aggressori di aggirare l'autenticazione a due fattori una volta in possesso di credenziali di accesso valide. Un gruppo di eminenti criminali informatici lo ha costruito e pianificato di utilizzarlo in una campagna di sfruttamento di massa, ma GTIG lo ha scoperto per primo, ha allertato il venditore e una patch è stata rilasciata prima che si potesse fare qualsiasi danno.
Google afferma di non credere che la sua intelligenza artificiale Gemini sia coinvolta. Ma il codice stesso ha rivelato la connessione dell’IA. Lo script era pieno di commenti didattici dettagliati e utilizzava un formato Python pulito, in stile libro di testo. Comprendeva anche un punteggio di gravità delle allucinazioni. Questi sono tutti segni rivelatori di un’ampia produzione di modelli linguistici. GTIG ha affermato di avere “alta fiducia” che un modello di intelligenza artificiale abbia contribuito a scoprire e sfruttare la vulnerabilità.
Perché questo è un grosso problema
Il tipo di difetto riscontrato dagli aggressori è esattamente il tipo di modello di intelligenza artificiale che sono bravi a individuare. Era un errore logico semantico. Uno sviluppatore aveva codificato un presupposto di attendibilità che contraddiceva l'effettiva logica di autenticazione dell'app. Gli scanner di sicurezza tradizionali tendono a non rilevare questo tipo di problema. L’intelligenza artificiale, con la sua capacità di leggere le intenzioni degli sviluppatori e identificare le contraddizioni nella logica di alto livello, può cogliere ciò che gli strumenti automatizzati trascurano.
Il rapporto ha inoltre segnalato un’attività più ampia sponsorizzata dallo Stato. Il gruppo nordcoreano APT45 ha utilizzato l'intelligenza artificiale per eseguire migliaia di richieste ripetitive per convalidare gli exploit su larga scala. Un gruppo legato alla Cina ha tentato di eseguire il jailbreak di Gemini utilizzando un falso personaggio di “revisore senior della sicurezza” per sondare le vulnerabilità del firmware del router. Questo caso di exploit sviluppato dall’intelligenza artificiale è un punto dati in un quadro molto più ampio.
Google afferma che sta utilizzando l'intelligenza artificiale anche sul lato difensivo, incluso il suo agente di rilevamento delle vulnerabilità Big Sleep e uno strumento di patch chiamato CodeMender.
