Mar. Feb 17th, 2026
Smettetela di ignorare i rischi dell’intelligenza artificiale nella finanza, dicono i parlamentari alle autorità di regolamentazione del Regno Unito

Le autorità di regolamentazione stanno esponendo il pubblico del Regno Unito e la City di Londra a “danni potenzialmente gravi” con il loro approccio “attendista” ai crescenti rischi dell’intelligenza artificiale nei servizi finanziari, ha avvertito martedì un influente gruppo di parlamentari.

Il comitato del Tesoro della Camera dei Comuni ha esortato il Tesoro, la Banca d’Inghilterra e la Financial Conduct Authority a essere più “proattivi” riguardo al crescente utilizzo dell’intelligenza artificiale da parte di oltre tre quarti delle società di servizi finanziari.

In un rapporto, il comitato interpartitico ha invitato la banca centrale e l’autorità di vigilanza finanziaria a effettuare uno stress test per valutare come il sistema finanziario affronterebbe un futuro “shock di mercato guidato dall’intelligenza artificiale”.

“Adottando un approccio attendista nei confronti dell’intelligenza artificiale nei servizi finanziari, le tre autorità stanno esponendo i consumatori e il sistema finanziario a danni potenzialmente gravi”, si legge. “È necessario agire per garantire questo [use] sia fatto in sicurezza.”

I parlamentari hanno inoltre esortato il governo ad accelerare la decisione su quali gruppi Big Tech dovrebbero essere soggetti alla supervisione diretta da parte dei regolatori finanziari come fornitori critici di cloud computing o servizi di intelligenza artificiale per la città. A novembre, il ministro della città Lucy Rigby ha affermato che ciò sarebbe avvenuto entro un anno.

La FCA dovrebbe pubblicare “guide pratiche” su come le regole esistenti si applicano all’uso dell’intelligenza artificiale e su come il regolatore deciderebbe chi ritenere responsabile quando le cose vanno male, hanno affermato i parlamentari.

Dame Meg Hillier, presidente laburista del comitato, ha dichiarato: “Sulla base delle prove che ho visto, non sono sicura che il nostro sistema finanziario sia preparato se si verificasse un grave incidente legato all’intelligenza artificiale e questo è preoccupante”.

La BoE avvertito Il mese scorso nel suo rapporto sulla stabilità finanziaria si leggeva che le impennate delle valutazioni delle società tecnologiche focalizzate sull’intelligenza artificiale avevano spinto le valutazioni del mercato azionario statunitense a livelli mai visti dai tempi della bolla delle dotcom nel 2000.

Ha inoltre affermato che un finanziamento del debito previsto di 2,5 trilioni di dollari per la costruzione di data center e altre infrastrutture legate all’intelligenza artificiale “potrebbe aumentare i rischi per la stabilità finanziaria”.

Ma le autorità di regolamentazione del Regno Unito hanno adottato un approccio passivo per supervisionare l’utilizzo dell’intelligenza artificiale da parte delle società di servizi finanziari, anche se la tecnologia in rapida evoluzione trasforma molte delle loro operazioni, tra cui il rilevamento delle frodi, il servizio clienti, il trading algoritmico, la consulenza sugli investimenti e la ricerca aziendale.

L’amministratore delegato di FCA, Nikhil Rathi, ha dichiarato al FT Global Banking Summit il mese scorso che è necessario che ci sia un “rapporto diverso tra regolatore e regolamentato” per evitare di soffocare l’uso di nuove tecnologie come l’intelligenza artificiale. “Non sono sicuro di come sarebbero le regole dettagliate sull'intelligenza artificiale”, ha detto.

Gli enti regolatori sono sotto pressione da parte di ministri e dirigenti comunali affinché alleggeriscano il peso delle regole, migliorino la competitività del Regno Unito e stimolino la crescita economica.

Il comitato del Tesoro ha affermato nel suo rapporto che “l’intelligenza artificiale offre importanti vantaggi, tra cui servizi più rapidi per i consumatori e nuove difese informatiche per la stabilità finanziaria”. Ma ha anche messo in guardia da “rischi significativi per i consumatori e per la stabilità finanziaria, che potrebbero invertire qualsiasi potenziale guadagno”.

Gli svantaggi identificati dai parlamentari includono la mancanza di trasparenza nelle decisioni guidate dall’intelligenza artificiale sulla disponibilità di prestiti o assicurazioni, il rischio di discriminazione nei confronti dei consumatori più svantaggiati, consigli fuorvianti dei chatbot e nuovi tipi di frode.

Il Tesoro ha affermato di aver collaborato con le autorità di regolamentazione per “rafforzare il nostro approccio man mano che la tecnologia si evolve” e di aver nominato Harriet Rees, chief information officer presso Starling Bank, e Rohit Dhawan, responsabile dell’intelligenza artificiale e dell’analisi avanzata presso Lloyds Banking Group, come campioni dell’intelligenza artificiale per i servizi finanziari”.

“Troveremo il giusto equilibrio tra la gestione dei rischi posti dall’intelligenza artificiale e lo sblocco del suo enorme potenziale”, ha aggiunto.

Sia la BoE che la FCA hanno accolto con favore il rapporto e prevedono di rispondere pienamente entro la fine dell’anno. La banca centrale ha affermato di aver “adottato misure attive per valutare i rischi legati all’intelligenza artificiale e rafforzare la resilienza del sistema finanziario”.

La FCA, che recentemente lanciato un servizio di test in tempo reale sull’intelligenza artificiale per aiutare le aziende a sperimentare la tecnologia, ha affermato di aver svolto “un ampio lavoro per garantire che le aziende siano in grado di utilizzare l’intelligenza artificiale in modo sicuro e responsabile”.