Dom. Nov 16th, 2025
L'arresto di un adolescente in Florida espone le preoccupazioni sulla privacy di ChatGPT che la maggior parte degli utenti potrebbe ignorare

Un tredicenne di DeLand, in Florida, ha imparato una dura lezione sulle preoccupazioni relative alla privacy di ChatGPT. Polizia Stradale arrestato l'adolescente per aver chiesto all'IA come uccidere il suo amico. L'adolescente ha utilizzato un laptop fornito dalla scuola, sul quale è stato eseguito un software di monitoraggio chiamato Gaggle che ha immediatamente segnalato la sua richiesta. Nel giro di poche ore, gli agenti si sono presentati e lo hanno prenotato.

Il tono amichevole e colloquiale dei chatbot IA induce gli utenti a trattarli come confidenti. ChatGPT risponde calorosamente, sembra comprensivo e sembra personale. Tuttavia, è solo software. Non un terapista vincolato dalla riservatezza. Non un amico che mantiene i segreti. Solo una macchina che elabora i tuoi suggerimenti. E in molti casi, tali richieste vengono registrate, monitorate o contrassegnate.

Il software di monitoraggio scolastico ha rilevato questo incidente, ma le preoccupazioni più ampie sulla privacy di ChatGPT si estendono oltre gli ambiti educativi. Ad esempio, le aziende possono monitorare l’utilizzo dell’intelligenza artificiale da parte dei dipendenti. Inoltre, i genitori possono controllare la cronologia chat dei propri figli. Nel frattempo, le forze dell’ordine possono richiedere dati. Di conseguenza, l'interfaccia conversazionale crea un falso senso di privacy che semplicemente non esiste.

L'adolescente ha affermato che stava “solo trollando” dopo che il suo amico lo aveva infastidito. Questa scusa non regge nel 2025. Soprattutto quando esistono sistemi di monitoraggio specifici per catturare questo tipo di dichiarazioni. L'ufficio dello sceriffo della contea di Volusia ha lanciato avvertimenti ai genitori, chiarendo che ciò che i ragazzi pensano siano scherzi può rapidamente diventare un crimine.

L’enigma della privacy

Questo caso evidenzia una lacuna critica nel modo in cui le persone comprendono le interazioni dei chatbot con intelligenza artificiale. Le risposte calorose e utili di ChatGPT creano l'illusione di una conversazione privata.

Le preoccupazioni sulla privacy di ChatGPT non si limitano ai computer scolastici. Qualsiasi dispositivo sul posto di lavoro, computer condiviso o rete monitorata può esporre le tue conversazioni AI. La tecnologia sembra intima ma funziona con zero protezioni di riservatezza. Gli utenti devono ricordare che ogni richiesta, ogni domanda, ogni conversazione con un’intelligenza artificiale esiste come dato a cui è possibile accedere, rivedere o utilizzare contro di loro.

La conclusione è semplice: non dire ai chatbot con intelligenza artificiale nulla che non vorresti fosse letto ad alta voce in tribunale o mostrato al tuo capo. Nonostante quanto siano amichevoli questi strumenti di intelligenza artificiale, sono macchine che elaborano informazioni, non consulenti riservati che proteggono i tuoi segreti.