Dom. Gen 25th, 2026
The Grok chatbot interface is displayed on a laptop screen, with a dark background and the word ‘Grok’ illuminated in large letters.

Il chatbot di intelligenza artificiale di Elon Musk ha generato immagini sessualizzate di bambini che sono state condivise sulla piattaforma di social media X, sollevando preoccupazioni sulla sicurezza di un modello utilizzato da milioni di persone.

Negli ultimi giorni gli utenti sono riusciti a convincere Grok, il chatbot AI sviluppato da xAI di Musk, a creare immagini sessuali di bambini, il che va contro le linee guida per gli utenti dell'azienda.

La società non ha risposto immediatamente a una richiesta di commento. In un post su X, il chatbot Grok ha affermato che il materiale pedopornografico (CSAM) è “illegale e proibito”.

L'incidente ha spinto i ministri francesi venerdì a denunciare alla procura le immagini sessuali generate da Grok. Lo hanno anche riferito ad Arcom, l'autorità di regolamentazione dei media del paese, in merito a “possibili violazioni da parte di X” dei suoi obblighi ai sensi della legge sui servizi digitali dell'UE.

Il ministero delle Finanze ha dichiarato: “I ministri condannano questi atti nei termini più forti possibili e ribadiscono l’incrollabile impegno del governo nella lotta contro ogni forma di violenza sessuale e di genere”.

Diversi problemi hanno colpito il chatbot nell'ultimo anno. A luglio, Grok ha ripetutamente elogiato Adolf Hitler e condiviso la retorica antisemita.

L’ultimo incidente solleverà ulteriori preoccupazioni su quanto sia facile ignorare i guardrail di sicurezza nei modelli di intelligenza artificiale. L’industria tecnologica e le autorità di regolamentazione sono alle prese con l’impatto sociale di vasta portata dell’intelligenza artificiale generativa.

L’intelligenza artificiale generativa ha portato a un’esplosione di immagini sessuali di bambini generate dall’intelligenza artificiale e di immagini di nudo deepfake non consensuali, poiché i modelli di intelligenza artificiale disponibili gratuitamente senza tutela dei contenuti e le app di “nudificazione” rendono la generazione di immagini illegali più semplice che mai.

IL Fondazione Internet Watchun'organizzazione no-profit con sede nel Regno Unito, ha affermato che le immagini di abusi sessuali su minori generate dall'intelligenza artificiale sono raddoppiate nell'ultimo anno, con materiale diventando sempre più estremo.

Grok è stato intenzionalmente progettato per avere meno barriere di contenuto rispetto alla concorrenza, con Musk che definisce il modello “massimamente alla ricerca della verità”.

A luglio è stato rilasciato Grok 4, l'ultimo e più potente modello di xAI, che dispone di una funzione “Spicy Mode” che consente agli utenti di generare contenuti osé e sessualmente allusivi per adulti.

La start-up di intelligenza artificiale fondata due anni fa da Musk ha acquisito X a marzo in un accordo interamente azionario per 45 miliardi di dollari. La transazione ha valutato la società combinata a 113 miliardi di dollari. X incorpora alcune funzionalità xAI, come Grok, direttamente nella piattaforma.

Le leggi che regolano i contenuti dannosi generati dall’intelligenza artificiale sono frammentarie. Nel maggio 2025, gli Stati Uniti hanno convertito in legge il Take It Down Act, che affronta il cosiddetto “revenge porno” e i deepfake generati dall’intelligenza artificiale.

Il Regno Unito sta inoltre lavorando a un disegno di legge per rendere illegale il possesso, la creazione o la distribuzione di strumenti di intelligenza artificiale in grado di generare materiale pedopornografico e per richiedere che i sistemi di intelligenza artificiale siano testati approfonditamente per verificare che non possano generare contenuti illegali.

Nel 2023, i ricercatori della Stanford University hanno scoperto che un popolare database utilizzato per creare generatori di immagini AI era pieno di materiale pedopornografico.