Dom. Lug 14th, 2024
I servizi finanziari evitano l’intelligenza artificiale a causa dei timori legati al lavoro e alla regolamentazione

I servizi finanziari non riescono a implementare con successo l’intelligenza artificiale, hanno affermato i dirigenti fintech europei, anche se sono sempre più evidenti le prove che la tanto pubblicizzata tecnologia aumenterà la produttività e ridurrà i costi..

I timori di perdita di posti di lavoro, le preoccupazioni normative e l’inerzia istituzionale sono tra i fattori che dissuadono i banchieri dall’abbracciare pienamente i sistemi che sono alla base di prodotti come ChatGPT.

“Le grandi banche sicuramente non lo adotteranno [the technology] con la stessa rapidità di qualsiasi altra fintech”, ha affermato Tom Blomfield, co-fondatore di Monzo e partner del gruppo presso l’incubatore di start-up della Silicon Valley Y Combinator. L’intelligenza artificiale generativa però “renderà le banche più efficienti e in grado di fornire gli stessi prodotti a un costo più conveniente”.

Solo il 6 percento delle banche al dettaglio è pronto a implementare l'IA su larga scala in tutta la propria attività, secondo uno studio di Capgemini. Tuttavia, McKinsey stima che potrebbe aggiungere fino a 340 miliardi di dollari di valore ogni anno al settore bancario globale, pari a circa il 4,7 percento dei ricavi totali del settore.

Molti affermano che la tecnologia, con la sua capacità di rispondere a domande e analizzare grandi quantità di testo e dati numerici in pochi secondi, ha il potere di tagliare i costi in tutto il settore. Tuttavia, si teme che la disruption porterà a perdite di posti di lavoro.

“La gente non capisce che è lì come strumento di produttività”, ha detto Nasir Zubairi, amministratore delegato dell'acceleratore fintech Luxembourg House of Financial Technology. “Credono ancora sinceramente che gli ruberà il lavoro”.

Ha aggiunto: “Le banche tradizionali sono fondamentalmente analogiche per progettazione e convertire l'analogico in digitale è sempre stata una cosa difficile da fare”.

Zubairi, parlando alla conferenza tecnologica TNW del MagicTech questo mese, ha utilizzato l'esempio degli assegni antiriciclaggio, in cui le istituzioni in genere assumono dipendenti per frugare tra fogli di calcolo alla ricerca di attività insolite.

Ha affermato che quando ha dimostrato a un istituto come migliorare la situazione con un modello di intelligenza artificiale personalizzato, che secondo lui avrebbe potuto far risparmiare fino a “450.000 euro all'anno di stipendio all'istante”, la sua proposta è stata respinta.

“Alla gente non piace licenziare”, ha aggiunto. “Vogliono proteggere la funzione del loro lavoro e, se devono licenziare persone all'interno del loro team che svolgono questo lavoro, sono anche potenzialmente minacciate, poiché il management o il loro potere vengono in qualche modo erosi”.

Le banche centrali sono state recentemente esortate ad “alzare la posta” con l’intelligenza artificiale, secondo la Banca dei Regolamenti Internazionali, la quale ha affermato che la tecnologia potrebbe fornire guadagni di produttività ma comporta anche dei rischi, come fornire informazioni errate ed essere vulnerabili agli attacchi hacker.

Un problema comune con i grandi modelli linguistici, la tecnologia alla base della maggior parte dei prodotti di intelligenza artificiale generativa, è la loro tendenza ad “allucinare”, a dichiarare inesattezze come fatti. Sono anche noti per generare informazioni basate sui dati su cui sono stati addestrati, il che porta a preoccupazioni su informazioni sensibili o sicure.

“Non c'è necessariamente un rifiuto di [AI]ma c'è esitazione”, ha affermato Wincie Wong, responsabile del digitale presso NatWest, che ha chiesto che i rischi, l'etica e le vulnerabilità della tecnologia siano valutati prima dell'implementazione. “Alla fine, siamo una delle grandi banche e molti clienti custodiscono i loro dati e le loro finanze al sicuro con noi. Dobbiamo rispettare questo fatto”.

Il servizio clienti è una delle aree più interrotte dagli strumenti di intelligenza artificiale, che possono conversare in modo umano e rispondere alle domande. Per più di un decennio, le banche digitali hanno utilizzato l’apprendimento automatico per valutare le domande online, spesso indirizzando i clienti a un agente del servizio clienti dal vivo.

Tuttavia, i robot basati su LLM possono comprendere una gamma più ampia di query indipendentemente da come vengono formulate e possono eseguire decisioni, come ordinare una carta bancaria, eliminando la necessità dell'intervento umano.

“Penso davvero che eliminerà la stragrande maggioranza dei posti di lavoro nel servizio clienti” “nei prossimi 12 mesi o cinque anni”, ha affermato Blomfield di Monzo.

Molte banche e fintech, tra cui Klarna e NatWest, utilizzano già chatbot basati sull’intelligenza artificiale per il servizio clienti. Wong di NatWest ha affermato di aver fatto passi da gigante con l'intelligenza artificiale generativa nel loro servizio AI Cora, ricevendo più di 11 milioni di chat nel corso dell'anno, di cui oltre la metà non necessitava di alcun intervento umano. Nel 2017 il servizio riceveva 1.000 chat al mese e necessitava di interventi.

La fintech svedese Klarna ha affermato che il suo assistente AI potrebbe svolgere il lavoro di 700 addetti al servizio clienti e risolvere le richieste in meno di due minuti, rispetto agli 11 minuti precedenti. Di conseguenza, l'azienda prevede di risparmiare 40 milioni di $ sui costi del servizio clienti quest'anno.

Tuttavia, Wong ha affermato che addestrare i modelli a essere sfumati era fondamentale per il suo successo. Ad esempio, era necessario comprendere che un cambio di indirizzo poteva avere un sottotono emotivo, come un lutto familiare.

“È stato davvero importante comprendere la psicologia che c'è dietro e, se non la capisci bene, puoi, per dirla senza mezzi termini, far incazzare un sacco di clienti”, ha aggiunto.

Le banche hanno dovuto inoltre fare attenzione a implementare la tecnologia nascente, rispettando al contempo le rigide norme di conformità del settore e destreggiandosi in un contesto normativo inesplorato.

In una sentenza storica del 2022, un tribunale olandese si è pronunciato a favore della neobank Bunq dopo aver citato in giudizio la banca centrale olandese per averle vietato di utilizzare l'intelligenza artificiale per condurre controlli sul riciclaggio di denaro.

Il mese scorso, gli enti regolatori hanno revocato le restrizioni sulla fintech tedesca N26 dopo che ha migliorato le sue misure di controllo. Per anni la banca ha avuto un limite alle iscrizioni di nuovi clienti a causa dei suoi scarsi controlli antiriciclaggio e ha dovuto affrontare milioni di euro di multe per la presentazione persistente e tardiva di segnalazioni di attività sospette.

Carina Kozole, Chief Risk Officer di N26, ha affermato di aver lavorato a stretto contatto con le autorità di regolamentazione per creare un modello di intelligenza artificiale per valutare se un nuovo cliente fosse un criminale, riducendo i casi sulla piattaforma del 90%.

“Se non accogliamo l'IA nel settore, tra qualche anno non saremo più qui”, ha aggiunto. “Dobbiamo mostrare i vantaggi e come possiamo diventare conformi se utilizziamo l'IA”.