Lun. Giu 17th, 2024

Era la primavera scorsa quando Paddric Fitzgerald ricevette una telefonata al lavoro. Stava ascoltando musica tramite il suo telefono, quindi quando ha risposto, la voce di sua figlia che urlava di essere stata rapita è esplosa dagli altoparlanti.

“Tutti hanno quei momenti nella loro vita come ‘Oh, quel momento in cui sono quasi annegato da bambino'”, dice. “È stato uno dei giorni più emozionanti della mia vita.”

Rifiutando l’offerta di un’arma da fuoco da parte di un collega, Fitzgerald, direttore di un negozio con sede negli Stati Uniti occidentali, si è affrettato a prelevare contanti da una banca, rimanendo al telefono.

“[My daughter] urlava in sottofondo, dicendo che l’avrebbero tagliata mentre aspettavo in fila,” dice. “Avrei dato tutto quello che ho finanziariamente.”

È stato solo un messaggio casuale di sua figlia a rivelare che la voce al telefono non le apparteneva. È stata una truffa straordinariamente crudele ed elaborata generata con l’intelligenza artificiale.

La storia di Fitzgerald è un esempio terrificante di come l’intelligenza artificiale sia diventata una nuova potente arma per i truffatori, costringendo le banche e le fintech a investire nella tecnologia per tenere il passo in una corsa agli armamenti high-tech.

“Non avevo alcuna protezione su mio figlio in quel momento: un anno dopo, mi piacerebbe trovare quella persona e fargli capire quanto fosse malvagio quello che hanno fatto, e lo hanno fatto semplicemente premendo dei tasti”, dice Fitzgerald. “Siamo davvero così avanzati come società se possiamo farlo?”

La continua evoluzione e diffusione della tecnologia fanno sì che i truffatori non rappresentino una minaccia solo per chi è ignaro o vulnerabile. Anche i consumatori più prudenti corrono il rischio di enormi perdite finanziarie a causa delle frodi basate sull’intelligenza artificiale. FT Money esplora gli ultimi sviluppi.

Grafico lineare delle segnalazioni (mn) che mostra le segnalazioni di frode negli Stati Uniti sono ancora a livelli prossimi a numeri record

Crescente sofisticazione

Identificare la portata dell’utilizzo dell’intelligenza artificiale da parte dei truffatori è un compito difficile, afferma Alex West, specialista in frodi bancarie e di pagamento presso il consulente PwC. È stato uno degli autori di a rapporto sull’impatto dell’intelligenza artificiale su frodi e truffe lo scorso dicembre in collaborazione con la coalizione intersettoriale Stop Scams UK. Ciò ha identificato il tipo di “clonazione vocale” presa di mira da Fitzgerald come uno dei modi più utilizzati dai criminali per utilizzare l’intelligenza artificiale.

“I truffatori hanno già molto successo e potrebbe darsi che semplicemente non abbiano bisogno di utilizzare questo tipo di tecnologia, oppure potrebbe darsi che utilizzino l’intelligenza artificiale e noi semplicemente non siamo in grado di distinguere quando è stata utilizzata,” lui dice. “[But] ciò porterà chiaramente ad un aumento dei tentativi di truffa più sofisticati.”

Steve Cornwell, responsabile del rischio di frode presso l’istituto di credito TSB, afferma che la crescente sofisticazione della tecnologia è stata una delle principali preoccupazioni per le banche.

“Se pensi al modo in cui si sta sviluppando l’intelligenza artificiale generativa, per quanto tempo [is it] prima che la soluzione AI potesse avere una conversazione in tempo reale con te [using] una voce sintetica?» lui dice.

I dati forniti dall’ente commerciale del settore bancario UK Finance mostrano una tendenza positiva, con le perdite per frode in calo dell’8% su base annua nel 2022.

Ma un politico senior che ha voluto restare anonimo afferma che una maggiore adozione dell’intelligenza artificiale – ChatGPT di OpenAI ha raggiunto circa 100 milioni di utenti mensili in due mesi – potrebbe invertire questa tendenza.

“I truffatori sono molto ben finanziati e intraprendenti”, afferma la persona. “Questa è la cosa che mi preoccupa.”

Anche i dati di Cifas, un servizio no-profit di prevenzione delle frodi nel Regno Unito, sono motivo di preoccupazione. Mentre i dati del 2022 mostrano che le frodi d’identità sono aumentate di quasi un quarto, le segnalazioni di strumenti di intelligenza artificiale utilizzati per cercare di ingannare i sistemi bancari sono aumentate dell’84%.

“Stiamo assistendo a un aumento dell’uso di immagini, video e audio deepfake utilizzati durante i processi di candidatura, insieme all’identificazione di identità sintetiche come risultato di controlli di ‘vivacità’ che vengono ora eseguiti in fase di candidatura”, avverte Stephen Dalton , direttore dell’intelligence del Cifas.

Mercoledì, parlando a Davos, Mary Callahan Erdoes, responsabile della gestione patrimoniale e patrimoniale di JPMorgan, ha affermato che l’uso dell’intelligenza artificiale da parte dei criminali informatici è una grande preoccupazione. Negli ultimi anni la banca ha speso 15 miliardi di dollari all’anno in tecnologia e ha impiegato 62.000 tecnici, molti dei quali concentrati esclusivamente sulla lotta all’aumento della criminalità informatica.

“I truffatori diventano più intelligenti, più esperti, più rapidi, più subdoli e più dispettosi”, ha aggiunto.

PwC e Stop Scams hanno identificato come un grave rischio anche i video generati artificialmente, meglio conosciuti come deepfake. La tecnologia, emersa solo nel 2019, è progredita rapidamente, afferma Henry Ajder, un esperto di media generati dall’intelligenza artificiale, che ha fornito consulenza ad aziende tra cui Meta, Adobe ed EY.

“Ciò che è accaduto negli ultimi 18 mesi equivale a circa due decenni di progressi rispetto ai quattro anni precedenti”, afferma. “La barriera all’ingresso è molto più bassa di prima”.

La qualità di questi video è migliorata notevolmente, afferma Andrew Bud, amministratore delegato e fondatore del fornitore di verifica dell’identità online iProov. Indica un recente studio da cui è emerso che più di tre quarti dei partecipanti non sono stati in grado di identificare i deepfake.

Grafico a barre della perdita mediana ($) che mostra che le vittime più anziane subiscono le perdite più elevate

“I deepfake di buona qualità costano circa 150 dollari sul dark web”, continua. “C’è un’intera catena di fornitura in via di sviluppo per le frodi supportate dall’intelligenza artificiale, con dipartimenti di ricerca e sviluppo che creano strumenti sofisticati e li monetizzano sul dark web”.

Natalie Kelly, Chief Risk Officer di Visa Europe, avverte che esiste una costellazione di sistemi focalizzati sulla criminalità, come WormGPT, FraudGPT e DarkBART. Dice: “Al giorno d’oggi può essere difficile distinguere l’autentico dall’artificiale”.

Utilizzando questi strumenti, disponibili tramite il dark web, e comunicando tramite forum di hacking dedicati e app di messaggistica, i criminali sono in grado di offrire servizi di scrittura di malware o e-mail di phishing avanzate.

Come si diffonde il flagello

Le istituzioni finanziarie hanno a lungo criticato le piattaforme di social media come vettori di frodi. L’estate scorsa, un deepfake dell’esperto di risparmio di denaro Martin Lewis e del proprietario di X Elon Musk si è diffuso sui social media, promuovendo un prodotto denominato “Quantum AI”.

Lo stesso Lewis è andato sulla piattaforma X, precedentemente chiamata Twitter, a luglio per avvisare della truffa. Alcuni dei video, rivolti a un pubblico britannico, presentavano apparentemente trasmissioni della BBC, che erano falsi falsi del primo ministro Rishi Sunak che esaltava i vantaggi dell’intelligenza artificiale quantistica.

Mentre alcuni video sono stati rimossi o sono inattivi, altri account semplicemente copiano e incollano lo stesso materiale.

L’intelligenza artificiale non è perfetta. In un video che ora è stato rimosso, il presunto Sunak inciampa nella pronuncia di parole come “fornito”.

E nonostante il nome high-tech, il funzionamento è sorprendentemente manuale. I link dei deepfake inducono le persone a fornire i propri numeri di telefono. Gli operatori del call center poi prendono il sopravvento, convincendo le persone a consegnare i soldi.

Tuttavia, West sottolinea che per i criminali, le truffe sono un gioco di volume e l’intelligenza artificiale può far pendere l’ago della bilancia in un numero sufficiente di casi per renderlo credibile.

“Rendere i contenuti più credibili e convincere solo una piccola percentuale di persone in più può avere un grande vantaggio per il truffatore”, afferma.

Uno di questi casi è stato quello di un ex assistente medico negli Stati Uniti, caduto vittima di un truffatore di investimenti su X che ha utilizzato l’intelligenza artificiale per impersonare Elon Musk.

“Tutto ciò è iniziato a marzo e ne siamo venuti a conoscenza solo ad agosto, dopo che aveva già prelevato ingenti somme dal suo conto pensionistico per cercare di pagare [the investment] account”, dice un membro della famiglia.

Mentre il processo iniziava utilizzando messaggi diretti, il criminale ha anche utilizzato un filtro per assumere le sembianze di Musk, videochiamando la vittima per convincerla a consegnare quasi 400.000 dollari che avrebbe presumibilmente investito in X.

Nel frattempo, su YouTube di Alphabet, un’ondata di falsi regali di bitcoin con un Michael Saylor generato dall’intelligenza artificiale ha portato l’ex amministratore delegato di MicroStrategy a rilasciare un avvertimento su X. “Stai attento là fuori e ricorda che non esiste un pranzo gratis. ” I deepfake, pubblicati da una serie di account che da allora sono stati bannati, sono stati etichettati come video “live” per renderli più credibili.

Ajder afferma che le piattaforme hanno adottato misure per contrastare il crescente flusso di contenuti generati dall’intelligenza artificiale. A settembre, TikTok ha annunciato che agli utenti sarebbe stato richiesto di etichettare i contenuti generati dall’intelligenza artificiale, mentre DeepMind di Google ha annunciato una filigrana per le immagini AI in agosto.

Ma Ajder era anche diffidente nei confronti del comportamento delle società di social media, che spesso hanno implementato politiche apparentemente chiare in modo frammentario. La mancanza di risorse porta a un’applicazione inefficace, afferma.

La posizione del governo britannico sull’intelligenza artificiale e sulle frodi è stata contrastante. In un discorso di luglio, l’amministratore delegato della Financial Conduct Authority Nikhil Rathi ha menzionato il potenziale impatto dell’intelligenza artificiale su “frodi informatiche, attacchi informatici e frodi d’identità” in un discorso sulla regolamentazione delle nuove tecnologie. Nel corso di un’audizione del comitato ristretto del Tesoro a dicembre, Rathi ha anche avvertito che i criminali stavano “facendo un uso sfrenato dell’intelligenza artificiale” per manipolare i mercati.

La FCA afferma che “con l’ulteriore adozione dell’intelligenza artificiale, gli investimenti nella prevenzione delle frodi e nella resilienza operativa e informatica dovranno accelerare”.

Ma il governo non ha menzionato esplicitamente la tecnologia nella sua strategia antifrode dello scorso maggio o in una “carta volontaria contro le frodi online” per le piattaforme Big Tech rivelata in novembre.

Il Ministero degli Interni afferma che sta “collaborando con i nostri partner nel governo, nelle forze dell’ordine e nel settore privato per promuovere ulteriormente l’uso dell’intelligenza artificiale per contrastare la criminalità e proteggere il pubblico”.

Meta afferma che gli annunci deepfake non sono consentiti sulle sue piattaforme e rimuove tali contenuti quando vengono portati alla sua attenzione, aggiungendo che la società “lavora costantemente per migliorare i nostri sistemi”.

La politica sulla disinformazione di YouTube vieta i video alterati o manipolati. La piattaforma ha annunciato l’anno scorso che inizierà a richiedere ai creatori di divulgare materiale realistico, alterato o generato dall’intelligenza artificiale.

Grafico a barre delle perdite dovute a frodi (milioni di sterline) che mostra che gli esperti temono che l'intelligenza artificiale possa invertire il calo delle frodi

Combattere con l’intelligenza artificiale

La situazione non è del tutto desolante. Sebbene l’uso dell’intelligenza artificiale da parte dei truffatori sia in aumento, lo è anche la sua adozione da parte delle istituzioni, che vanno dalle banche, Visa e Mastercard alle società tecnologiche dedicate.

“Se l’occhio umano non riesce a capire se è reale, il gioco non è finito”, afferma Bud di iProov. “È un gioco del gatto e del topo e ci stiamo evolvendo velocemente quanto i cattivi per rimanere al passo.”

Afferma che la tecnologia della sua azienda, progettata per aiutare a combattere i deepfake e altre contraffazioni, è stata utilizzata da clienti tra cui il Dipartimento californiano dei veicoli a motore, il Servizio digitale del governo britannico e le principali banche del Sud America.

Un’altra start-up che utilizza l’intelligenza artificiale per contrastare le frodi è Catch, con sede negli Stati Uniti, che mira ad aiutare gli adulti vulnerabili rilevando le truffe via e-mail, spiegando i segnali di allarme e consigliando i passaggi successivi.

“I contanti [older adults] tendono a perdere è molto più prezioso per loro: in media l’importo dell’assegno che perdono è maggiore e se sono in pensione, non hanno il tempo di recuperare quei soldi”, afferma il co-fondatore Uri Pearl.

L’intelligenza artificiale viene utilizzata anche dalle banche per supportare un esercito di personale che valuta potenziali violazioni delle normative antiriciclaggio.

“Ci sono un sacco di piccole aziende molto interessanti che stanno emergendo nell’area del ‘conosci il tuo cliente'”, afferma Gudmundur Kristjansson, fondatore e amministratore delegato della fintech islandese Lucinity. “Stiamo sviluppando molto con l’intelligenza artificiale generativa.”

Uno dei prodotti di Lucinity, soprannominato Lucy, prende i dati e li trasforma in un formato facilmente leggibile, accelerando quello che tradizionalmente è stato un processo altamente manuale di monitoraggio delle transazioni.

Perdita di fiducia

Ma anche questi progressi potrebbero non essere in grado di difendere da alcune aree di attacco.

“Per la voce, sembra che i giochi siano finiti: è sempre più chiaro che non esiste alcuna difesa”, afferma Bud, poiché la piccola quantità di dati nei file audio rende difficile per le aziende tecnologiche distinguere il vero dal falso.

E l’impatto sulle vittime delle truffe basate sull’intelligenza artificiale va oltre le perdite finanziarie, potenziali o reali. Fitzgerald afferma che la sua esperienza ha inasprito la sua visione della tecnologia. Evita l’e-commerce e la maggior parte delle piattaforme di social media e afferma di essere più a suo agio a prelevare denaro in banca e a spenderlo piuttosto che utilizzare una carta.

“Quella telefonata mi ha fatto capire quanto sono vulnerabile e quanto lo sono i nostri figli”, dice. “Non avevo capito che fosse una possibilità che sarebbe potuta accadere.”