Mar. Lug 15th, 2025
Air Canada planes wait at an airport

Rimani informato con aggiornamenti gratuiti

Gli assicuratori di Lloyd's di Londra hanno lanciato un prodotto per coprire le aziende per le perdite causate da strumenti di intelligenza artificiale malfunzionanti, poiché il settore mira a trarre profitto dalle preoccupazioni per il rischio di costose allucinazioni ed errori da parte dei chatbot.

Le politiche sviluppate da ARMILLA, una start-up supportata da Y Combinator, copriranno il costo delle richieste di tribunale contro una società se è citata in giudizio da un cliente o da un'altra terza parte che ha subito danni a causa di uno strumento di intelligenza artificiale.

L'assicurazione sarà sottoscritta da diversi assicuratori di Lloyd e coprirà i costi come i pagamenti dei danni e le spese legali.

Le aziende si sono affrettate ad adottare l'IA per aumentare l'efficienza, ma alcuni strumenti, compresi i robot del servizio clienti, hanno affrontato errori imbarazzanti e costosi. Tali errori possono verificarsi, ad esempio, a causa dei difetti che causano “allucinare” o inventare le cose.

Virgin Money si è scusato a gennaio dopo che il suo chatbot alimentato dall'intelligenza artificiale ha rimproverato un cliente per aver utilizzato la parola “vergine”, mentre il gruppo di corriere DPD l'anno scorso ha disabilitato parte del suo bot del servizio clienti dopo aver giurato i clienti e ha definito il suo proprietario “la peggior società di servizi di consegna al mondo”.

L'anno scorso un tribunale ha ordinato a Air Canada di onorare uno sconto che il suo servizio clienti aveva inventato.

ARMILLA ha affermato che la perdita di vendita dei biglietti a un prezzo inferiore sarebbe stata coperta dalla sua polizza assicurativa se si è scoperto che il chatbot di Air Canada si fosse comportata peggiore del previsto.

Karthik Ramakrishnan, amministratore delegato di Armilla, ha affermato che il nuovo prodotto potrebbe incoraggiare più aziende ad adottare l'IA, poiché molti sono attualmente scoraggiati dai timori che strumenti come i chatbot si rompono.

Alcuni assicuratori includono già perdite correlate all'intelligenza artificiale all'interno di errori tecnologici generali e politiche di omissioni, ma questi generalmente includono limiti bassi sui pagamenti. Una politica generale che copre fino a $ 5 milioni di perdite potrebbe stabilire una sublimit di $ 25.000 per le passività legate all'IA, ha affermato Preet Gill, broker di Lockton, che offre prodotti ARMILLA ai suoi clienti.

I modelli di lingua AI sono dinamici, il che significa che “imparano” nel tempo. Ma le perdite dagli errori causati da questo processo di adattamento non sarebbero normalmente coperte da tipici errori tecnologici e politiche di omissioni, ha affermato Logan Payne, broker a Lockton.

Un errore da parte di uno strumento di intelligenza artificiale non sarebbe sufficiente per innescare un pagamento ai sensi della politica di ARMILLA. Invece, la copertina entrerà in arrivo se l'assicuratore giudicasse che l'IA aveva eseguito al di sotto delle aspettative iniziali.

Ad esempio, l'assicurazione di Armilla potrebbe pagare se un chatbot forniva ai clienti o ai dipendenti le informazioni corrette solo l'85 % delle volte, dopo averlo inizialmente fatto nel 95 % dei casi, ha affermato la società.

“Valutiamo il modello AI, ci mettiamo a proprio agio con la sua probabilità di degrado e quindi compensiamo se i modelli si degradano”, ha affermato Ramakrishnan.

Tom Graham, responsabile della partnership presso Chaucer, assicuratore di Lloyd's che sta sottoscrivendo le politiche vendute da ARMILLA, ha affermato che il suo gruppo non firmerà politiche che coprono i sistemi di intelligenza artificiale che giudicano eccessivamente inclini alla rottura. “Saremo selettivi, come qualsiasi altra compagnia assicurativa”, ha detto.