Grok ha generato migliaia di immagini di nudo, e non solo

Da leggere

Franz Russo
Franz Russo
Franz Russo, fondatore, nel 2008, del blog InTime, ho collaborato con grandi aziende nazionali e internazionali, come consulente per strategie di comunicazione e come divulgatore. Da sempre impegnato nella comunicazione digitale, cerco di unire sempre una profonda passione per l’innovazione tecnologica a una visione olistica dell’evoluzione dei social media e degli strumenti digitali. Il mio percorso professionale in questo campo, iniziato nel 2007, è stato caratterizzato da un costante impegno nel raccontare e interpretare i cambiamenti nel panorama digitale. Il mio approccio si basa su un mix di analisi strategica, creatività e un profondo impegno per il racconto e la divulgazione.

La situazione ormai si è trasformata in un’emergenza. Grok in pochi giorni ha generato 6.700 immagini sessualizzate all’ora. Vale a dire 84 volte più degli altri siti di deepfake. E le vittime non hanno strumenti per difendersi. L’ultimo caso riguarda anche la vicenda di Minneapolis.

Pochi giorni fa avevo raccontato in un post cosa stava accadendo su X con la nuova funzionalità “Edit Image” di Grok.

Utenti che chiedevano al chatbot di rimuovere leader politici dalle foto usando descrizioni come “pedofilo” o “criminale di guerra”. Immagini di donne modificate per “svestirle” digitalmente. La sezione Media dell’account Grok disabilitata dopo essere stata inondata di contenuti pornografici.

Avevo scritto che il problema era strutturale. Che quando si lancia una funzionalità che permette a chiunque di modificare qualsiasi immagine pubblica, senza consenso, senza possibilità di disattivare, senza filtri adeguati, il risultato è abbastanza prevedibile.

Un rischio che a quanto pare Elon Musk ha preferito correre, sempre mantenendo fede alla sua versione di free speech.

Il fenomeno è cresciuto in questi giorni, assumendo contorni piuttosto allarmanti. Ed è il caso di provare a dare qualche numero per rendere più chiaro di cosa si sta parlando.

Ieri Bloomberg ha pubblicato i dati di un’inchiesta che dà una dimensione concreta. E i numeri sono peggiori di quanto si potesse immaginare.

Grok ha generato migliaia di immagini di nudo, e non solo
Grok ha generato migliaia di immagini di nudo, e non solo

Su X 6.700 immagini sessuali all’ora generate da Grok

Secondo l’analisi condotta da Genevieve Oh, ricercatrice specializzata in deepfake, tra il 5 e il 6 gennaio 2026 Grok ha generato circa 6.700 immagini all’ora identificate come sessualmente allusive o che “spogliano” digitalmente le persone.

Per comprendere la portata, gli altri cinque principali siti per questo tipo di contenuti hanno registrato una media di 79 nuove immagini all’ora nello stesso periodo. Grok ne produce 84 volte di più.

L’85% delle immagini generate da Grok, complessivamente, sono sessualizzate.

Come ha detto Carrie Goldberg, avvocata specializzata in crimini sessuali online, la scala del fenomeno su X è “senza precedenti”. Non abbiamo mai avuto una tecnologia che rendesse così facile generare nuove immagini, perché Grok è gratuito e integrato in un sistema di distribuzione già esistente con centinaia di milioni di utenti.

Ma il peggio sembra non essere su X

Ma quello che succede su X è solo la parte visibile del problema. Wired ha rivelato che sul sito web e sull’app di Grok la situazione è molto peggiore.

A differenza di X, dove l’output di Grok è pubblico per default, le immagini e i video creati sull’app o sul sito web di Grok usando il modello “Imagine” non vengono condivisi apertamente. Ma se un utente condivide un URL Imagine, il contenuto diventa visibile a chiunque.

Wired ha analizzato un archivio di circa 1.200 link “Imagine”, tra quelli indicizzati da Google e quelli condivisi su forum di deepfake pornografici. Ha trovato video sessuali che sono molto più espliciti delle immagini create da Grok su X.

Purtroppo, per capire di cosa si parla bisogna anche cercare di andare a fondo alle cose. E spesso non è bello, ma è necessario.

Alcuni esempi di Grok Image raccapriccianti

Un video fotorealistico ospitato su Grok.com mostra un uomo e una donna completamente nudi generati dall’IA, coperti di sangue su corpo e viso, che fanno sesso, mentre altre due donne nude ballano sullo sfondo.

Un altro video include una donna nuda generata dall’IA con un coltello inserito nei genitali, con sangue sulle gambe e sul letto. Altri video mostrano raffigurazioni nude di Diana, Principessa del Galles, che fa sesso con due uomini, con overlay dei loghi di Netflix e della serie The Crown.

Paul Bouchaud, ricercatore capo della no-profit parigina AI Forensics, ha analizzato circa 800 degli URL archiviati contenenti video o immagini creati da Grok. “Sono in modo schiacciante contenuti sessuali“, ha detto. “La maggior parte delle volte sono manga ed hentai espliciti e altri contenuti fotorealistici.”

Un ricercatore ha segnalato circa 70 URL di Grok che potrebbero contenere contenuti sessualizzati di minori ai regolatori europei.

Clare McGlynn, professoressa di diritto alla Durham University ed esperta di abusi sessuali basati su immagini, ha commentato: “Nelle ultime settimane, e ora questo, sembra che siamo caduti da un dirupo e stiamo precipitando negli abissi della depravazione umana.

Le vittime non possono difendersi

Bloomberg, riportare i dati dell’analisi visti all’inizio, racconta diversi casi concreti. Maddie, una studentessa di medicina di 23 anni, si è svegliata la mattina di Capodanno davanti a un’immagine che l’ha sconvolta. Aveva pubblicato su X una foto con il fidanzato in un bar. Due sconosciuti l’hanno modificata usando Grok. Il primo ha chiesto di rimuovere il fidanzato e metterla in bikini. Il secondo ha chiesto di sostituire il bikini con un filo interdentale.

Maddie ha segnalato le immagini a X tramite i sistemi di moderazione. Non ha mai ricevuto risposta. Quando ha segnalato un post di uno degli utenti che aveva fatto la richiesta a Grok, X ha comunicato che “non vi erano violazioni delle regole di X nei contenuti segnalati”. Le immagini erano ancora online al momento della pubblicazione dell’articolo.

Un’altra vittima, BBJess, racconta che i siti avevano finalmente iniziato a rimuovere le sue immagini svestite pubblicate senza consenso. Ma Grok la scorsa settimana ha dato il via a una nuova ondata. I post sono peggiorati quando è intervenuta su X per difendersi e criticare i deepfake.

Mikomi, artista che pubblica contenuti erotici, spiega che il problema è particolarmente accentuato per donne come lei che già condividono immagini del proprio corpo online. Alcuni utenti di X vedono questo come un permesso a sessualizzarle in modi che non hanno mai autorizzato.

Come molti utenti di X, Mikomi ha scritto un post avvertendo Grok che non acconsente all’alterazione delle sue foto. “Non funziona”, ha detto. “Bloccare Grok non funziona. Niente funziona.” Non può abbandonare la piattaforma perché è vitale per il suo lavoro.

“Cosa dovrei fare? Vuoi che perda il mio lavoro?”

La differenza con gli altri chatbot

Come già sottolineato, a differenza di altri chatbot, Grok non impone limiti efficaci agli utenti e non li blocca dal generare contenuti sessualizzati di persone reali, compresi i minori.

Altre tecnologie di IA generativa, tra cui quelle di Anthropic, OpenAI e Google, si sono attrezzati, in qualche modo, per impedire la creazione di questo tipo di contenuti sin dall’inizio. Ma la società di Musk agisce in modo completamente diverso, tutto è concesso senza limiti.

Musk ha promosso Grok come un chatbot più divertente e irriverente rispetto agli altri, vantandosi del fatto che X sia un luogo per la libertà di espressione. Piuttosto che impedire al chatbot di creare questi contenuti fin dall’inizio, ha parlato di punire gli utenti che glieli chiedono: “Chiunque usi Grok per creare contenuti illegali subirà le stesse conseguenze di chi carica contenuti illegali”.

Ma questo non lascia molte opzioni alle vittime.

La risposta delle istituzioni UE

L’Unione Europea ha deciso di intervenire su questo caso.

La Commissione Europea ha infatti ordinato a X di conservare tutti i documenti interni e i dati relativi a Grok fino alla fine del 2026. Il portavoce Thomas Regnier ha spiegato il senso dell’ordine: “Questo significa dire a una piattaforma: conserva i tuoi documenti interni, non liberartene, perché abbiamo dubbi sulla tua conformità“.

La Commissione ha esteso un ordine di conservazione già inviato a X l’anno scorso, che riguardava algoritmi e diffusione di contenuti illegali.

È un passaggio che si inserisce in un percorso già avviato. Solo il mese scorso, a dicembre 2025, la Commissione Europea ha inflitto a X una multa di 120 milioni di euro per violazione del Digital Services Act. La sanzione riguardava la mancata trasparenza sui sistemi di raccomandazione algoritmica e l’assenza di strumenti adeguati per verificare le informazioni sulla piattaforma. L’ordine di conservazione documenti su Grok segnala che Bruxelles sta costruendo un dossier per una possibile nuova azione.

Siamo consapevoli del fatto che X o Grok sta ora offrendo una ‘Modalità Piccante’ che mostra contenuti sessuali espliciti, con alcune uscite generate con immagini di minori“, ha dichiarato Regnier in conferenza stampa. “Questo non è piccante. Questo è illegale.”

Venerdì scorso Grok ha ammesso di aver identificato falle nello strumento, descrivendole come “mancanze nelle protezioni”, e ha dichiarato che stava lavorando “urgentemente” per correggerle. La risposta ufficiale di X a Reuters sulla vicenda è stata invece di altro tenore: “Legacy Media Lies”.

Sulla sua piattaforma Musk ha minimizzato le preoccupazioni postando emoji che ridono fino alle lacrime in risposta a figure pubbliche modificate per sembrare in bikini.

Nel frattempo, altri enti regolatori si stanno muovendo.

Ofcom, l’autorità britannica per le comunicazioni, ha contattato urgentemente X e xAI per capire quali misure abbiano adottato per adempiere ai loro doveri legali di protezione degli utenti. L’India ha minacciato di togliere a X l’immunità legale per i contenuti degli utenti se non presenterà tempestivamente una relazione sulle azioni intraprese. Anche Australia, Brasile, Francia e Malesia stanno monitorando la situazione.

Negli Stati Uniti la situazione è più complessa. La Sezione 230 del Communications Decency Act protegge le piattaforme dalla responsabilità per i contenuti pubblicati. Ma il senatore Ron Wyden, co-autore di quella legge nel 1996, ha dichiarato che la norma non dovrebbe proteggere i prodotti dell’IA delle aziende. “Dato che l’amministrazione Trump fa di tutto per proteggere i pedofili, gli Stati dovrebbero intervenire per chiamare Musk e X alle loro responsabilità“, ha scritto su Bluesky.

Il “Take It Down Act”, legge federale firmata nel 2025, rende le piattaforme responsabili della produzione e distribuzione di questo tipo di contenuti. Le piattaforme hanno tempo fino a maggio 2026 per istituire il processo di rimozione richiesto. Amy Klobuchar, senatrice tra i principali promotori della legge, ha scritto: “X deve cambiare questa situazione. Se non lo farà, il Take It Down Act presto glielo imporrà.

Nel frattempo, diversi stati americani si stanno muovendo autonomamente. California, New Mexico e New York stanno valutando azioni legali.

C’è un dettaglio che rende la vicenda ancora più paradossale. Grok è un software utilizzato dal governo federale americano. Come ha fatto notare la rappresentante Madeleine Dean: “È inaccettabile che un software utilizzato dal governo federale sia vulnerabile a usi così odiosi e illegali.”

Filtri insufficienti e mancanza di rispetto

Nelle ultime ore, probabilmente nella giornata dell’8 gennaio, xAI sembrerebbe aver introdotto alcuni filtri. Le richieste più esplicite di nudità completa vengono ora bloccate. Nel senso che Grok su X non da seguito alla richiesta.

Ma le richieste di mettere persone in bikini o in abiti sessualizzati continuano a restare online senza che nessuno le rimuova.

Un caso emerso oggi mostra quanto questi filtri siano insufficienti.

Grok l’immagine folle della ragazza uccisa a Minneapolis

Un utente ha risposto ad un post dove era stata condivisia la foto della ragazza uccisa a Minneapolis, un caso che ha coinvolto l’ICE e sta facendo molto discutere. La foto ritraeva Renee Nicole Good ormai esanime.

Questo utenti ha utilizzao l’immagine per a Grok di “metterla in bikini”. Grok ha eseguito la richiesta senza opporre alcuna resistenza.

Grok e l'immagine della ragazza uccisa a Minneapolis
Grok e l’immagine della ragazza uccisa a Minneapolis
Grok e l'immagine della ragazza uccisa a Minneapolis
Grok e l’immagine della ragazza uccisa a Minneapolis

Il post con la richiesta ha superato le 480.000 visualizzazioni. L’immagine generata da Grok ne ha raggiunto 427.000. Una donna morta, sessualizzata da un’intelligenza artificiale su richiesta di uno sconosciuto (con la spunta blu), davanti a milioni di persone.

Questo esempio è la sintesi di tutto. Non è solo la generazione di contenuti sessualizzati non consensuali. È la totale assenza di qualsiasi filtro contestuale. Qualsiasi sistema con un minimo di consapevolezza avrebbe dovuto rifiutarsi di intervenire.

Il problema è strutturale

Torniamo al punto che avevamo sollevato pochi giorni fa. Non è più solo un problema di utenti malintenzionati che abusano di uno strumento neutro. È un problema di architettura.

Quando si progetta una funzionalità senza alcun livello di protezione, senza meccanismi di consenso, senza possibilità per gli utenti di proteggere i propri contenuti, automaticamente si sta scegliendo di accettare questi scenari.

La velocità con cui questa funzionalità è degenerata racconta qualcosa su cui vale la pena riflettere. Dal lancio il 24 dicembre a oggi, 8 gennaio, sono passate due settimane. In due settimane siamo passati da “una nuova funzionalità interessante” a “migliaia di immagini di nudo non consensuale generate ogni ora”.

E questo ci riporta al concetto di algoritmo del proprietario. Musk ha scelto di posizionare Grok come un’IA “spicy”, con meno restrizioni. Ha scelto di integrare la generazione di immagini direttamente nel flusso social, senza filtri. Ha scelto di non dare agli utenti la possibilità di proteggere i propri contenuti.

Queste sono scelte. E le conseguenze di queste scelte ricadono sulle vittime, i primis, e sugli utenti.

Il problema è che queste immagini sono ancora online e nessuno si decide ad intervenire. Men che meno il proprietario della piattaforma.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Ultimi articoli

Elon Musk ha ingannato gli azionisti di Twitter, e li deve risarcire

La giuria federale di San Francisco ha giudicato Elon Musk responsabile di frode sui titoli Twitter. Risarcimento stimato fino a 2,6 miliardi di dollari. Prima sconfitta legale per il proprietario di X in un processo per frode

Potrebbe interessare