Dom. Mar 8th, 2026
I team delle risorse umane stanno affogando nelle lamentele

Anna Bond, direttore legale del team di collocamento di Lewis Silkin, riceveva reclami che in genere erano lunghi quanto un'e-mail. Ora, le denunce che vede possono arrivare a circa 30 pagine e abbracciare una vasta gamma di questioni storiche, molte delle quali si ripetono.

“Sospetto che dietro a tutto ciò ci sia l’intelligenza artificiale”, afferma Bond. La lunghezza dei reclami sulle condizioni di lavoro, sui colleghi e sui dirigenti è il problema più pernicioso. Ma alcune delle lamentele fanno appello anche a leggi irrilevanti – la legislazione canadese, per esempio – o a precedenti legali inventati.

“C'è sempre stata la tendenza da parte dei dipendenti a sollevare una serie di preoccupazioni, ma nell'ultimo anno ne ho viste di più espansive.” Descrivendo l'ampiezza come “un buffet”, Bond afferma che alle tipiche lamentele su questioni come la discriminazione e il bullismo si aggiunge ora “un enorme volume di informazioni e dettagli storici” su questioni come il pagamento delle ferie o le lesioni personali “che potrebbero non essere rilevanti” per il caso.

Anche David Palmer, direttore legale del lavoro presso Addleshaw Goddard, ha notato un forte aumento dei reclami, spesso generati dall’intelligenza artificiale. “Ai dipendenti piace il suono del rapporto; sembra formale, ma spesso non riflette ciò che è accaduto. GenAI non è progettata per produrre documenti legali.” Sinead Casey, socio di Linklaters, descrive tali denunce come “sicuramente incompetenti”, superficialmente persuasive anche per gli avvocati.

Louise Rudd, consulente del servizio di mediazione sul posto di lavoro Acas, afferma che i dipendenti possono trarre aspettative irrealistiche sulla forza delle loro affermazioni e “in alcuni casi, sembra che l'intelligenza artificiale abbia fornito informazioni errate o fuorvianti” compresi precedenti inesistenti. In altri, gli individui possono chiedere consiglio e riceveranno una giurisprudenza inesistente o interpretazioni errate da parte di AI, che potrebbero tentare di utilizzare per sostenere la loro posizione contro il loro datore di lavoro.

Naturalmente non sono solo i dipendenti a utilizzare l’intelligenza artificiale, ma anche gli avvocati, come hanno dimostrato numerosi casi di alto profilo. L’anno scorso, l’Alta Corte del Regno Unito ha evidenziato due casi in cui si pensava che gli avvocati avessero utilizzato l’intelligenza artificiale incorporando “una citazione o una citazione falsa”.

Gli avvocati sottolineano che ci sono effetti positivi dell’intelligenza artificiale generativa: può aiutare il personale a comprendere i propri diritti e, se utilizzata in modo appropriato, incoraggiarli a lanciare denunce legittime contro i loro capi.

Ma il volume delle richieste generate dall’intelligenza artificiale – e il tempo aggiuntivo necessario per rivedere le loro inesattezze – potrebbe avere un effetto pernicioso più ampio, rallentando le risposte dei datori di lavoro. Palmer afferma: “La complessità delle affermazioni [is higher than] sei o sette anni fa.” In parte, lo attribuisce all’intelligenza artificiale, che potrebbe anche influenzare un sistema di tribunali del lavoro già teso.

I dati del Ministero della Giustizia mostrano che i nuovi casi presso i tribunali del lavoro intentati da privati ​​sono aumentati del 33% nei tre mesi fino a settembre, mentre i casi conclusi sono diminuiti del 10%, rispetto a un anno prima. Il governo prevede che i casi aumenteranno, a causa della nuova legge sui diritti dell’occupazione.

Roy Magara, fondatore dello specialista del lavoro Magara Law, afferma che ciò significa che “dichiarazioni più lunghe, questioni più ampie in fase di avanzamento e una gestione dei casi più complessa richiedono l'atterraggio in un sistema che sta già funzionando a pieno regime”. Su larga scala, “i casi rimangono irrisolti più a lungo, i ricordi svaniscono, la certezza si perde e l’efficacia del processo stesso è compromessa”.

L’uso di strumenti pubblici di intelligenza artificiale per elaborare informazioni riservate presenta anche problemi di protezione dei dati, afferma Casey. “I datori di lavoro dovrebbero assicurarsi che le loro politiche sull’utilizzo dell’intelligenza artificiale siano ben redatte e stabilire aspettative chiare per i dipendenti su quali informazioni dovrebbero e non dovrebbero essere utilizzate sugli strumenti pubblici”. Suggerisce inoltre ai datori di lavoro di formare manager e risorse umane per individuare le lamentele generate dall’intelligenza artificiale per evitare di essere sopraffatti da argomenti lunghi, irrilevanti o eccessivamente legalistici.

Per superare realmente le lamentele, tuttavia, i datori di lavoro dovrebbero intervenire nei problemi prima che i dipendenti inizino a prendere in considerazione un reclamo contro l’IA. “I manager di linea dovrebbero considerare di parlare con il dipendente, preferibilmente faccia a faccia, il prima possibile, per comprendere le principali lamentele con le parole del dipendente piuttosto che rispondere punto per punto alle lunghe argomentazioni avanzate per iscritto”, afferma Casey. “Il datore di lavoro potrebbe quindi riassumerli per iscritto al dipendente” per concentrare i reclami su questioni sostanziali.

Le conversazioni faccia a faccia possono preparare il terreno per una soluzione soddisfacente per tutti. “Questa parte del processo viene spesso trascurata e molti dipendenti passano direttamente a un processo formale. Potrebbe essere qualcosa che i datori di lavoro desiderano incoraggiare o promuovere maggiormente all'interno delle loro attività.”

E i dipendenti? “Guarda i fatti e rivedili per assicurarti che il tuo reclamo rifletta ciò che intendi veramente”, consiglia Palmer. “È un uso legittimo del software, semplicemente non è il modo in cui lo vediamo utilizzato nella pratica.”