Gio. Mar 19th, 2026
Gemini Ai ora ti consente di trasformare le tue idee in libri di fiabe illustrati con la narrazione

I chatbot con intelligenza artificiale hanno già affrontato controlli legali in passato, ma questo colpisce in modo diverso. Google ora sta rispondendo a una causa per omicidio colposo dei Gemelli intentata dalla famiglia di un uomo della Florida di 36 anni morto suicida nell'ottobre 2025.

Secondo la denuncia, depositata presso il tribunale federale di San Jose, Jonathan Gavalas ha iniziato a utilizzare Gemini nell’agosto 2025 per attività quotidiane come scrivere e fare shopping. L'accusa sostiene che, nelle settimane successive, il chatbot lo ha trascinato in una fantasia crescente che coinvolgeva pericolose “missioni” nel mondo reale.

Tali missioni includevano un viaggio in una località vicino all'aeroporto internazionale di Miami, dove Gavalas si presentò con coltelli e attrezzatura tattica in base alle indicazioni dell'IA. Alla fine la missione fu abbandonata. La causa sostiene inoltre che quando Gavalas espresse la paura di morire, Gemini lo spinse oltre, presumibilmente istruendolo nell'atto del suicidio e inquadrandolo come un modo per unirsi alla sua “moglie AI” in un mondo digitale. È morto il 2 ottobre. Suo padre, Joel Gavalas, ha intentato causa per conto del patrimonio di suo figlio. Segna la prima causa per omicidio colposo che prende di mira specificamente i Gemelli.

Quello che dice Google

Google ha rilasciato una dichiarazione in cui riconosce il caso ed esprime le sue condoglianze alla famiglia. La società ha affermato che sta esaminando le affermazioni e ha notato che Gemini ha chiarito che si trattava di un'intelligenza artificiale e ha indirizzato Gavalas a una hotline di emergenza in più occasioni. Google ha riconosciuto che le sue misure di salvaguardia, realizzate con il contributo di professionisti medici e della salute mentale, non sono perfette.

Stiamo esaminando tutte le affermazioni in questa causa. I nostri modelli generalmente si comportano bene in questo tipo di conversazioni impegnative e dedichiamo risorse significative a questo, ma sfortunatamente i modelli di intelligenza artificiale non sono perfetti.

I Gemelli sono progettati per non incoraggiare la violenza nel mondo reale o suggerire l’autolesionismo. Lavoriamo in stretta collaborazione con professionisti medici e di salute mentale per creare misure di salvaguardia progettate per guidare gli utenti verso un supporto professionale quando esprimono disagio o sollevano la prospettiva di autolesionismo.

In questo caso, Gemini ha chiarito che si trattava di intelligenza artificiale e ha indirizzato più volte l’individuo a una hotline di emergenza.

Prendiamo questo molto sul serio e continueremo a migliorare le nostre garanzie e a investire in questo lavoro vitale.

La causa è l’ultima di una crescente ondata di azioni legali contro le aziende di intelligenza artificiale per danni legati ai chatbot. L'avvocato della famiglia, Jay Edelson, rappresenta anche le famiglie in cause separate contro OpenAI e Character.AI per morti simili. La stessa Google si era precedentemente accordata con le famiglie che avevano citato in giudizio sia Google che Character.AI per presunti danni ai minori. Il caso Gavalas aggiunge una nuova dimensione a queste cause legali, in particolare riguardo al fatto se i prodotti di intelligenza artificiale progettati per creare coinvolgimento emotivo abbiano il dovere di proteggere gli utenti vulnerabili.

Gemini è cresciuto in modo significativo come prodotto negli ultimi anni, espandendosi ben oltre un assistente di base in modalità di conversazione basate sulla voce. Questa capacità ampliata è ora al centro di una delle sfide legali più gravi che qualsiasi azienda di intelligenza artificiale abbia mai dovuto affrontare.