La UE apre un’indagine su X per le immagini di nudo di Grok

Da leggere

Franz Russo
Franz Russo
Franz Russo, fondatore, nel 2008, del blog InTime, ho collaborato con grandi aziende nazionali e internazionali, come consulente per strategie di comunicazione e come divulgatore. Da sempre impegnato nella comunicazione digitale, cerco di unire sempre una profonda passione per l’innovazione tecnologica a una visione olistica dell’evoluzione dei social media e degli strumenti digitali. Il mio percorso professionale in questo campo, iniziato nel 2007, è stato caratterizzato da un costante impegno nel raccontare e interpretare i cambiamenti nel panorama digitale. Il mio approccio si basa su un mix di analisi strategica, creatività e un profondo impegno per il racconto e la divulgazione.

La Commissione UE ha deciso di aprire un’indagine sulle immagine di nudo generate dall’intelligenza artificiale Grok. L’indagine si estende anche ai sistemi di raccomandazione basati sull’intelligenza artificiale di xAI. X rischia sanzioni fino al 6% del fatturato globale.

Era una questione di tempo e quel tempo è arrivato oggi. Infatti, la Commissione Europea ha aperto un’indagine formale su X per la diffusione di materiale sessualmente esplicito generato dal chatbot Grok.

L’indagine viene condotta ai sensi del Digital Services Act, lo stesso regolamento che a dicembre ha portato alla prima multa della storia per X ai sensi del DSA.

Ma questa volta la posta in gioco è decisamente più alta. Non si tratta più di spunte blu ingannevoli o di registri pubblicitari incompleti. Si parla di deepfake non consensuali che coinvolgono donne e minori; di immagini generate a un ritmo industriale; di una tecnologia rilasciata senza i filtri minimi necessari a prevenirne l’abuso.

La UE apre un'indagine su X per le immagini di nudo di Grok
La UE apre un’indagine su X per le immagini di nudo di Grok

Le parole di Bruxelles non lasciano spazio a interpretazioni

Henna Virkkunen, vicepresidente esecutiva della Commissione responsabile per sovranità tecnologica, sicurezza e democrazia, ha usato parole senza mezzi termini. I deepfake sessuali non consensuali di donne e bambini rappresentano “una forma violenta e inaccettabile di degradazione”.

E ha aggiunto che l’indagine servirà a determinare “se X ha rispettato i propri obblighi legali ai sensi del DSA, oppure se ha trattato i diritti dei cittadini europei, inclusi quelli di donne e minori, come danni collaterali del proprio servizio”.

Danni collaterali. È un’espressione che chi segue questa vicenda da settimane sa bene a cosa si riferisce. Perché è esattamente quello che è successo.

Come avevo illustrato all’inizio di gennaio nell’articolo sulle migliaia di immagini di nudo generate da Grok, le stime indicavano che Grok stava generando circa 6.700 immagini sessualizzate all’ora, un ritmo 84 volte superiore a quello degli altri cinque principali siti specializzati in questo tipo di contenuti. L’85% delle immagini generate era di natura sessuale. E le vittime non avevano alcuno strumento per difendersi.

L’indagine si allarga ai sistemi di raccomandazione

C’è un secondo aspetto dell’annuncio di oggi che merita attenzione. La Commissione ha anche esteso un’indagine già in corso, avviata a dicembre 2023, per verificare se X abbia valutato e mitigato correttamente tutti i rischi sistemici legati ai suoi sistemi di raccomandazione.

In particolare, i regolatori vogliono capire quale sarà l’impatto del passaggio al nuovo sistema basato interamente su Grok.

Questo è un punto che avevo approfondito analizzando come cambia l’algoritmo di X con Grok nel 2026.

A ottobre 2025 Musk aveva annunciato che entro poche settimane tutte le euristiche manuali sarebbero state eliminate, lasciando all’intelligenza artificiale il compito di analizzare e raccomandare contenuti. Quel codice è ora pubblico su GitHub, e la transizione è completata. Ma una cosa è pubblicare il codice, un’altra è garantire che il sistema non amplifichi contenuti dannosi o illegali.

La Commissione ha chiarito che X potrebbe dover affrontare misure provvisorie se non apporterà modifiche significative al proprio servizio. È un avvertimento che non era mai stato formulato in questi termini.

La risposta tardiva di xAI

La difesa di X si basa su quanto comunicato a metà gennaio. La società ha dichiarato di aver implementato misure tecniche per impedire all’account Grok su X di consentire la modifica di immagini di persone reali in abbigliamento succinto.

Ha inoltre limitato la creazione di immagini ai soli abbonati paganti e bloccato la generazione di questo tipo di contenuti nelle “giurisdizioni dove è illegale”, senza però specificare quali siano queste giurisdizioni.

Come avevo scritto nell’analisi su Grok e la spunta blu che non rende sicura la generazione di immagini, spostare la funzionalità dietro un paywall non è una misura di sicurezza. Significa in buona sostanza, avallare la monetizzazione dell’abuso. La spunta blu non funziona come filtro morale, e i dati lo dimostrano. Lo ricordiamo ancora una volta, l’utente che ha chiesto a Grok di manipolare l’immagine della donna uccisa a Minneapolis era un abbonato verificato.

Il contesto internazionale si fa sempre più ostile

Ma l’UE non è la sola a procedere in questa direzione. Anche Regno Unito, India, Malesia e altri paesi stanno conducendo indagini parallele.

In Francia, la procura di Parigi ha esteso un’indagine su X per includere accuse secondo cui Grok sarebbe stato usato per generare e diffondere materiale pedopornografico. In California, il governatore Newsom ha chiesto al procuratore generale di indagare su xAI.

E proprio nel Regno Unito, dove il governo UK ha varato la legge contro i deepfake di Grok, si è compiuto un passo decisivo. La nuova norma prevede pene detentive fino a due anni per chiunque generi deepfake intimi non consensuali, a prescindere dall’intento di condividerli. Diventa illegale anche la distribuzione di software di “denudazione”. E le piattaforme rischiano sanzioni fino al 10% del fatturato globale annuo attraverso l’Online Safety Act.

Il Regno Unito si posiziona così come il primo mercato occidentale a criminalizzare l’intero ciclo di vita del deepfake, dalla progettazione del software alla sua distribuzione, fino alla generazione della singola immagine.

Cosa succede ora

L’indagine della Commissione valuterà se X ha correttamente valutato e mitigato i rischi associati all’implementazione delle funzionalità di Grok nell’Unione Europea. Il DSA impone alle piattaforme di grandi dimensioni di identificare, analizzare e mitigare i rischi sistemici derivanti dai propri servizi.

Se la Commissione dovesse concludere che X ha violato questi obblighi, le sanzioni potrebbero arrivare fino al 6% del fatturato globale annuo.

Assumendo che il fatturato globale 2025 di X è, secondo le stime, di 2,9 miliardi di dollari, il 6% sarebbe in sostanza 174 milioni di dollari. Vale a dire, circa 146,5 milioni di euro.

Ma c’è di più. La multa di dicembre, 120 milioni di euro, era stata definita dalla stessa Commissaria Virkkunen come “modesta ma proporzionata”. Questa nuova indagine riguarda violazioni di natura completamente diversa.

Infatti, non si tratta di trasparenza pubblicitaria o di accesso ai dati per i ricercatori, pur sempre temi di una certa rilevanza. Si tratta della diffusione di contenuti che, nelle parole dei regolatori UE, costituiscono “una forma di violenza”.

La scelta di Musk di posizionare Grok come un’intelligenza artificiale “spicy”, con meno restrizioni, si scontra ora con un ecosistema normativo che non concede più sconti.

Il vero vantaggio competitivo per chi sviluppa intelligenza artificiale, oggi, non risiede nella libertà assoluta di generare qualsiasi contenuto. Ma risiede nella capacità di costruire sistemi sicuri per design.

Anche questo concetto, proprio in virtù dell’apertura di queste indagini, è utile ribadire.

Le aziende che sapranno garantire che la loro tecnologia non possa essere usata come arma di aggressione digitale saranno quelle in grado di operare in un mercato che, da oggi, ha regole molto più stringenti.

E questa è forse la lezione più importante di questa vicenda. Le conseguenze delle scelte di progettazione ricadono sempre su qualcuno. E quando ricadono sulle vittime, lo Stato interviene.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Ultimi articoli

Elon Musk ha ingannato gli azionisti di Twitter, e li deve risarcire

La giuria federale di San Francisco ha giudicato Elon Musk responsabile di frode sui titoli Twitter. Risarcimento stimato fino a 2,6 miliardi di dollari. Prima sconfitta legale per il proprietario di X in un processo per frode

Potrebbe interessare