Mar. Mar 5th, 2024

Quando all’inizio di quest’anno la società di contabilità Big Four EY ha provato un sistema di intelligenza artificiale addestrato a riconoscere le frodi sui conti di alcuni dei suoi clienti di audit nel Regno Unito, i risultati sono stati sorprendenti.

Secondo Kath Barrow, socio dirigente assicurativo di EY nel Regno Unito e in Irlanda, il nuovo sistema ha rilevato attività sospette presso due delle prime 10 società controllate. I clienti hanno successivamente confermato che in entrambi i casi si trattava di frodi.

Questo successo iniziale illustra il motivo per cui alcuni nel settore ritengono che l’intelligenza artificiale abbia un grande potenziale per migliorare la qualità dell’audit e ridurre i carichi di lavoro. La capacità dei sistemi basati sull’intelligenza artificiale di acquisire e analizzare grandi quantità di dati potrebbe, sperano, fornire un nuovo potente strumento per allertare gli auditor su segnali di illeciti e altri problemi.

Tuttavia, i revisori sono in netto disaccordo su quanto possano fare affidamento su una tecnologia che non è stata ancora ampiamente testata e spesso poco compresa.

Alcune società di revisione sono scettiche sul fatto che i sistemi di intelligenza artificiale possano ricevere informazioni di qualità sufficiente per rilevare in modo affidabile le molteplici e diverse forme potenziali di frode. Ci sono anche alcune preoccupazioni sulla privacy dei dati, se i revisori utilizzano informazioni riservate sui clienti per sviluppare l’intelligenza artificiale.

Le domande indicano che ci sono chiare differenze nell’approccio tra le grandi società di revisione del Regno Unito. Sebbene EY abbia rifiutato di rivelare i dettagli del suo software o la natura delle frodi scoperte, Barrow ha affermato che i risultati suggeriscono che la tecnologia ha “gambe” per il controllo.

“Sembra qualcosa che dovremmo sviluppare o esplorare”, ha detto.

Tuttavia, Simon Stephens, responsabile dell’intelligenza artificiale per l’audit e la garanzia presso l’azienda britannica di Deloitte, un’altra delle quattro grandi società di revisione, ha sottolineato che le frodi sono relativamente rare e tendono a differire l’una dall’altra. Ciò significherebbe che non c’erano necessariamente modelli rivelatori da rilevare per i sistemi di intelligenza artificiale.

“Le frodi sono . . . unici e ciascuno è perpetrato in un modo leggermente diverso”, ha affermato Stephens. “Per loro natura sono progettati per eludere le garanzie attraverso nuovi usi della tecnologia o sfruttando nuove debolezze, e l’intelligenza artificiale non funziona bene in questo caso in questo momento”.

È probabile che i regolatori abbiano l’ultima parola su come la tecnologia può essere implementata. Jason Bradley, responsabile della tecnologia di assicurazione per il Financial Reporting Council del Regno Unito, l’organismo di controllo dell’audit, ha affermato che l’intelligenza artificiale offre opportunità per “supportare una migliore qualità ed efficienza dell’audit” se utilizzata in modo appropriato.

Ma ha avvertito che le aziende avranno bisogno delle competenze per garantire che i sistemi funzionino secondo gli standard giusti. “Con la crescita dell’utilizzo dell’intelligenza artificiale, i revisori devono avere le competenze per criticare i sistemi di intelligenza artificiale, garantendo che l’uso dei risultati sia accurato e che siano in grado di implementare strumenti in modo conforme agli standard”, ha affermato.

Mentre ai software di audit tradizionali è necessario indicare quali modelli di dati indicano frodi o altri problemi, i sistemi di intelligenza artificiale sono addestrati a individuare i problemi utilizzando l’apprendimento automatico e i dati provenienti da numerosi casi di cattiva condotta noti in passato. Col tempo dovrebbero migliorare nel farlo man mano che accumulano esperienza.

La tecnologia potrebbe essere particolarmente utile se riducesse il carico di lavoro dei revisori. Le aziende di tutto il mondo hanno difficoltà a formare e assumere personale. Potrebbe anche contribuire a innalzare gli standard: negli ultimi anni i revisori dei conti non hanno notato gravi problemi finanziari che hanno causato il collasso di aziende tra cui l’outsourcer Carillion, il rivenditore al dettaglio BHS e la catena di caffetterie Patisserie Valerie.

L’esperimento di EY, secondo Barrow, ha utilizzato uno strumento di apprendimento automatico che era stato addestrato su “moltissimi schemi di frode”, tratti sia da informazioni disponibili al pubblico che da casi passati in cui l’azienda era stata coinvolta. Mentre il software esistente e ampiamente utilizzato cerca transazioni sospette, EY ha affermato che il suo sistema assistito dall’intelligenza artificiale è più sofisticato. È stato addestrato a cercare le transazioni generalmente utilizzate per coprire le frodi, nonché le transazioni sospette stesse. Ha rilevato i due schemi di frode presso i 10 clienti della prova iniziale perché c’erano stati modelli simili nei dati di formazione, ha affermato l’azienda.

“Tutto ciò che fa è dire: questo è qualcosa che dovresti esplorare ulteriormente”, ha detto Barrow del sistema di intelligenza artificiale, che ha descritto come un “copilota” per gli auditor. “Concentra i nostri sforzi per capirne di più”.

Eppure altre aziende dubitano che i sistemi di intelligenza artificiale siano abbastanza intelligenti da rilevare frodi sofisticate. KPMG UK, un altro revisore delle Big Four, ha fatto eco alle preoccupazioni di Stephens di Deloitte.

“La frode per sua natura è imprevedibile e quindi utilizzare casi di frode noti per addestrare modelli di apprendimento automatico è impegnativo”, ha affermato KPMG.

Stephens riconobbe che la tecnologia aveva la sua utilità nell’auditing. Ma gli vedeva un ruolo molto più limitato. “L’intelligenza artificiale può automatizzare alcuni dei compiti più banali e ripetibili e consente ai nostri revisori di concentrarsi sulle aree di maggior rischio”, ha affermato.

Deloitte attualmente limita l’uso dell’intelligenza artificiale a compiti meno complessi, fornendo istruzioni chiare su quali tipi di anomalie cercare nei conti aziendali.

Un problema, ha affermato Stephens, è che un’azienda potrebbe considerare i propri dati finanziari dettagliati come informazioni proprietarie. Ciò renderebbe difficile l’utilizzo di tali informazioni private per addestrare un sistema che successivamente sottoporrebbe ad audit un’altra società.

“Chiunque sviluppi l’intelligenza artificiale deve esserne consapevole”, ha affermato.

Barrow ha riconosciuto che c’erano delle sfide. Ha affermato che è fondamentale per gli auditor comprendere come funziona la codifica del sistema di intelligenza artificiale, il reale significato dei risultati prodotti e la natura dei dati utilizzati per addestrarlo.

“Dobbiamo integrarlo con . . . applicando la lente dello scetticismo dell’auditor, in modo che possiamo essere chiari che è adatto allo scopo”, ha affermato.

Ha inoltre riconosciuto il problema relativo all’utilizzo di informazioni aziendali proprietarie per addestrare i sistemi di intelligenza artificiale. Ma ha affermato che c’erano abbastanza informazioni disponibili al pubblico per integrare il lavoro di EY e fornire una formazione significativa per i sistemi di intelligenza artificiale dell’azienda.

“La tecnologia è già ampiamente applicata per aiutarci nella valutazione e nell’identificazione del rischio”, ha affermato Barrow. “L’intelligenza artificiale sarà sempre più uno strumento a nostra disposizione per farlo”.