Gio. Lug 10th, 2025
Vale la pena usare l'IA sul furbo al lavoro

Sblocca gratuitamente il digest dell'editore

All'inizio del mese scorso, i 1.500 dipendenti di uno studio legale britannico chiamato Shoosmiths hanno ricevuto alcune notizie inaspettate.

L'azienda aveva creato un bonus da 1 milione di sterline che sarebbe stato condiviso tra loro, purché avessero usato collettivamente Microsoft Copilotalo strumento AI generativo scelto dall'azienda, almeno 1 milione di volte in questo esercizio finanziario.

In altre parole, avevano 12 mesi per accumulare abbastanza istruzioni di copilota tra loro per sbloccare £ 1 milione.

David Jackson, il loro amministratore delegato, non pensava che sarebbe stato troppo difficile.

Come ha sottolineato ai colleghi, il bersaglio 1MN sarebbe facilmente raggiunto se tutti usassero il copilota solo quattro volte al giorno lavorativo.

Per aiutare, l'azienda seguirebbe e riferirebbe pubblicamente numeri rapidi ogni mese, tanto meglio per aumentare l'uso di quello che Jackson ha definito “potente abilitatore“Di AI.

Non ho sentito parlare della mossa di Shoosmiths dagli Shoosmiths, ma da due accademici presso la HEC Paris Business School, Cathy Yang e David Restrepo Amariles.

Lo hanno notato mentre si preparavano a pubblicare alcuni pertinenti e aperti ricercanei modi molto umani in cui Copilot, CHATGPT e altri prodotti AI generativi vengono utilizzati in ufficio.

Il loro lavoro mostra qualcosa che ha perfettamente senso quando ci pensi, ma è comunque snervante. È possibile andare avanti al lavoro se usi l'IA, purché non lo dica al tuo capo. E il tuo capo, inoltre, è improbabile che sappia se hai usato AI o meno.

I ricercatori lo hanno scoperto dopo aver deciso di guardare perché così tante aziende sono state così titubanti da lanciare l'IA, nonostante l'apparente guadagni di produttività che offre.

In un esperimento, hanno chiesto a 130 manager di medio livello in una grande società di consulenza senza nome per valutare una serie di slip che due analisti junior avevano compilato. Questi erano tipici di quelli fatti per i potenziali clienti in cerca di consulenti per un progetto.

Alcuni documenti sono stati fatti con l'aiuto di Chatgpt e alcuni no. I manager si sono rivelati del tutto all'oscuro di quale fosse.

Sebbene il 77 per cento delle loro valutazioni dicesse correttamente CHATGPT, questo era vicino al 73 % che ha erroneamente detto che Chatgpt era stato usato quando non lo aveva fatto.

Inoltre, anche quando ai manager è stato detto che l'IA non era sicuramente stata usata, il 44 % di loro pensava ancora che avesse.

La scoperta che è rimasta con me è questa: la valutazione che i manager hanno dato ai slip fatti con Chatgpt era quasi il 10 % superiore rispetto a quelli fatti da semplici umani.

Quando i manager hanno saputo dell'uso dell'IA, hanno declassato la loro valutazione, forse supponendo che gli analisti avessero impiegato meno tempo per fare il loro lavoro.

Ciò suggerisce che, a meno che tu non lavori per un'organizzazione che incoraggi l'uso trasparente dell'IA, potresti essere fortemente motivato a usarlo sul furbo. E il problema con questa “adozione ombra”, come i ricercatori chiamano l'uso non divulgato AI sul lavoro, è che espone l'organizzazione a gravi rischi, come le violazioni della sicurezza.

Un certo numero di aziende a volte frecciato L'accesso agli strumenti di intelligenza artificiale tra i timori che il personale possa inavvertitamente perdere dati sensibili alimentando informazioni sulle piattaforme che si trovano quindi strada verso gli utenti esterni.

C'è anche il problema del personale che rischia troppa fiducia negli strumenti di intelligenza artificiale generativi che producono risultati distorti o inventano “allucinazioni“E monitorare i dipendenti per vedere chi sta o non sta utilizzando i rischi di intelligenza artificiale eliminano i reclami sulla sorveglianza invadente.

Per evitare tutto ciò, i ricercatori dell'HEC pensano che i datori di lavoro dovrebbero elaborare linee guida per l'uso dell'IA che incoraggiano i dipendenti a utilizzare l'IA apertamente.

Poiché il loro studio mostra che il personale è probabile che venga declassato per il possesso di un aiuto per l'IA, raccomandano anche una qualche forma di allentamento per incoraggiare la divulgazione – come il bonus prompt di £ 1MN dello studio legale dello Shoosmiths.

“È un incentivo molto intelligente, perché significa che le persone devono segnalare i suggerimenti”, afferma Restrepo Amariles.

Shoosmiths afferma che il bonus è stato effettivamente creato perché l'azienda crede che l'IA sia fondamentale per la sua futura competitività e vuole aumentare il suo uso. Finora, i prompt Copilot sono “ampiamente sulla buona strada” verso il target 1MN, afferma Tony Randle, il partner responsabile della tecnologia rivolta al cliente.

“Abbiamo un partner che lo ha usato 800 volte nell'ultimo mese”, dice, suonando contento. “L'intelligenza artificiale non sostituirà la professione legale, ma gli avvocati che usano l'IA sostituiranno gli avvocati che non lo fanno.”