Categoria: Social Media

In questa categoria trovate articoli che riportano dati e ricerche sul mondo dei Social Media. Dal numero di utenti connessi, al tempo trascorso su ciascun social network

  • La UE apre un’indagine su X per le immagini di nudo di Grok

    La UE apre un’indagine su X per le immagini di nudo di Grok

    La Commissione UE ha deciso di aprire un’indagine sulle immagine di nudo generate dall’intelligenza artificiale Grok. L’indagine si estende anche ai sistemi di raccomandazione basati sull’intelligenza artificiale di xAI. X rischia sanzioni fino al 6% del fatturato globale.

    Era una questione di tempo e quel tempo è arrivato oggi. Infatti, la Commissione Europea ha aperto un’indagine formale su X per la diffusione di materiale sessualmente esplicito generato dal chatbot Grok.

    L’indagine viene condotta ai sensi del Digital Services Act, lo stesso regolamento che a dicembre ha portato alla prima multa della storia per X ai sensi del DSA.

    Ma questa volta la posta in gioco è decisamente più alta. Non si tratta più di spunte blu ingannevoli o di registri pubblicitari incompleti. Si parla di deepfake non consensuali che coinvolgono donne e minori; di immagini generate a un ritmo industriale; di una tecnologia rilasciata senza i filtri minimi necessari a prevenirne l’abuso.

    La UE apre un'indagine su X per le immagini di nudo di Grok
    La UE apre un’indagine su X per le immagini di nudo di Grok

    Le parole di Bruxelles non lasciano spazio a interpretazioni

    Henna Virkkunen, vicepresidente esecutiva della Commissione responsabile per sovranità tecnologica, sicurezza e democrazia, ha usato parole senza mezzi termini. I deepfake sessuali non consensuali di donne e bambini rappresentano “una forma violenta e inaccettabile di degradazione”.

    E ha aggiunto che l’indagine servirà a determinare “se X ha rispettato i propri obblighi legali ai sensi del DSA, oppure se ha trattato i diritti dei cittadini europei, inclusi quelli di donne e minori, come danni collaterali del proprio servizio”.

    Danni collaterali. È un’espressione che chi segue questa vicenda da settimane sa bene a cosa si riferisce. Perché è esattamente quello che è successo.

    Come avevo illustrato all’inizio di gennaio nell’articolo sulle migliaia di immagini di nudo generate da Grok, le stime indicavano che Grok stava generando circa 6.700 immagini sessualizzate all’ora, un ritmo 84 volte superiore a quello degli altri cinque principali siti specializzati in questo tipo di contenuti. L’85% delle immagini generate era di natura sessuale. E le vittime non avevano alcuno strumento per difendersi.

    L’indagine si allarga ai sistemi di raccomandazione

    C’è un secondo aspetto dell’annuncio di oggi che merita attenzione. La Commissione ha anche esteso un’indagine già in corso, avviata a dicembre 2023, per verificare se X abbia valutato e mitigato correttamente tutti i rischi sistemici legati ai suoi sistemi di raccomandazione.

    In particolare, i regolatori vogliono capire quale sarà l’impatto del passaggio al nuovo sistema basato interamente su Grok.

    Questo è un punto che avevo approfondito analizzando come cambia l’algoritmo di X con Grok nel 2026.

    A ottobre 2025 Musk aveva annunciato che entro poche settimane tutte le euristiche manuali sarebbero state eliminate, lasciando all’intelligenza artificiale il compito di analizzare e raccomandare contenuti. Quel codice è ora pubblico su GitHub, e la transizione è completata. Ma una cosa è pubblicare il codice, un’altra è garantire che il sistema non amplifichi contenuti dannosi o illegali.

    La Commissione ha chiarito che X potrebbe dover affrontare misure provvisorie se non apporterà modifiche significative al proprio servizio. È un avvertimento che non era mai stato formulato in questi termini.

    La risposta tardiva di xAI

    La difesa di X si basa su quanto comunicato a metà gennaio. La società ha dichiarato di aver implementato misure tecniche per impedire all’account Grok su X di consentire la modifica di immagini di persone reali in abbigliamento succinto.

    Ha inoltre limitato la creazione di immagini ai soli abbonati paganti e bloccato la generazione di questo tipo di contenuti nelle “giurisdizioni dove è illegale”, senza però specificare quali siano queste giurisdizioni.

    Come avevo scritto nell’analisi su Grok e la spunta blu che non rende sicura la generazione di immagini, spostare la funzionalità dietro un paywall non è una misura di sicurezza. Significa in buona sostanza, avallare la monetizzazione dell’abuso. La spunta blu non funziona come filtro morale, e i dati lo dimostrano. Lo ricordiamo ancora una volta, l’utente che ha chiesto a Grok di manipolare l’immagine della donna uccisa a Minneapolis era un abbonato verificato.

    Il contesto internazionale si fa sempre più ostile

    Ma l’UE non è la sola a procedere in questa direzione. Anche Regno Unito, India, Malesia e altri paesi stanno conducendo indagini parallele.

    In Francia, la procura di Parigi ha esteso un’indagine su X per includere accuse secondo cui Grok sarebbe stato usato per generare e diffondere materiale pedopornografico. In California, il governatore Newsom ha chiesto al procuratore generale di indagare su xAI.

    E proprio nel Regno Unito, dove il governo UK ha varato la legge contro i deepfake di Grok, si è compiuto un passo decisivo. La nuova norma prevede pene detentive fino a due anni per chiunque generi deepfake intimi non consensuali, a prescindere dall’intento di condividerli. Diventa illegale anche la distribuzione di software di “denudazione”. E le piattaforme rischiano sanzioni fino al 10% del fatturato globale annuo attraverso l’Online Safety Act.

    Il Regno Unito si posiziona così come il primo mercato occidentale a criminalizzare l’intero ciclo di vita del deepfake, dalla progettazione del software alla sua distribuzione, fino alla generazione della singola immagine.

    Cosa succede ora

    L’indagine della Commissione valuterà se X ha correttamente valutato e mitigato i rischi associati all’implementazione delle funzionalità di Grok nell’Unione Europea. Il DSA impone alle piattaforme di grandi dimensioni di identificare, analizzare e mitigare i rischi sistemici derivanti dai propri servizi.

    Se la Commissione dovesse concludere che X ha violato questi obblighi, le sanzioni potrebbero arrivare fino al 6% del fatturato globale annuo.

    Assumendo che il fatturato globale 2025 di X è, secondo le stime, di 2,9 miliardi di dollari, il 6% sarebbe in sostanza 174 milioni di dollari. Vale a dire, circa 146,5 milioni di euro.

    Ma c’è di più. La multa di dicembre, 120 milioni di euro, era stata definita dalla stessa Commissaria Virkkunen come “modesta ma proporzionata”. Questa nuova indagine riguarda violazioni di natura completamente diversa.

    Infatti, non si tratta di trasparenza pubblicitaria o di accesso ai dati per i ricercatori, pur sempre temi di una certa rilevanza. Si tratta della diffusione di contenuti che, nelle parole dei regolatori UE, costituiscono “una forma di violenza”.

    La scelta di Musk di posizionare Grok come un’intelligenza artificiale “spicy”, con meno restrizioni, si scontra ora con un ecosistema normativo che non concede più sconti.

    Il vero vantaggio competitivo per chi sviluppa intelligenza artificiale, oggi, non risiede nella libertà assoluta di generare qualsiasi contenuto. Ma risiede nella capacità di costruire sistemi sicuri per design.

    Anche questo concetto, proprio in virtù dell’apertura di queste indagini, è utile ribadire.

    Le aziende che sapranno garantire che la loro tecnologia non possa essere usata come arma di aggressione digitale saranno quelle in grado di operare in un mercato che, da oggi, ha regole molto più stringenti.

    E questa è forse la lezione più importante di questa vicenda. Le conseguenze delle scelte di progettazione ricadono sempre su qualcuno. E quando ricadono sulle vittime, lo Stato interviene.

  • Su Threads arrivano le ads a livello globale, Meta vuole monetizzare

    Su Threads arrivano le ads a livello globale, Meta vuole monetizzare

    Meta lancia le ads su Threads a livello globale dopo un anno di test. La piattaforma ha superato i 400 milioni di utenti mensili e ha sorpassato X per utenti giornalieri su mobile.

    Meta ha annunciato l’espansione delle pubblicità su Threads a tutti gli utenti nel mondo. Il rollout inizierà la prossima settimana e sarà graduale, potrebbe richiedere alcuni mesi per completarsi.

    La piattaforma, nata nel luglio 2023 come alternativa a X, ha ora superato i 400 milioni di utenti attivi mensili.

    Il percorso delle ads su Threads, i formati

    Il percorso verso la monetizzazione di Threads è stato metodico. Meta aveva iniziato i test il 24 gennaio 2025 con un gruppo ristretto di brand in Stati Uniti e Giappone. Ad aprile 2025 l’azienda ha aperto la piattaforma pubblicitaria agli inserzionisti globali in mercati selezionati, aggiungendo poi a settembre i formati carousel e catalog ads insieme a un nuovo formato immagine espanso.

    Nel suo comunicato ufficiale, Meta spiega che le ads su Threads rappresentano un modo semplice per gli inserzionisti di estendere la portata delle campagne esistenti.

    I formati supportati includono immagini, video e carousel, tutti integrati nativamente nel feed. La novità è che Threads sarà attivato di default per le nuove campagne che utilizzano Advantage+ o i posizionamenti manuali, con la possibilità di escluderlo manualmente.

    Su Threads arrivano le ads a livello globale, Meta vuole monetizzare
    Su Threads arrivano le ads a livello globale, Meta vuole monetizzare

    Threads supera X sugli smartphone

    L’annuncio arriva in un momento particolare per la competizione tra piattaforme. Secondo i dati Similarweb pubblicati qualche giorno fa, Threads ha superato X per utenti attivi giornalieri su mobile a livello globale.

    A inizio del mese di gennaio 2026 Threads contava 141,5 milioni di utenti attivi giornalieri su iOS e Android, contro i 125 milioni di X.

    Il sorpasso non è stato improvviso. Similarweb indica che Threads ha superato X per la prima volta il 5 settembre 2025, con 130 milioni di utenti giornalieri contro 129 milioni. Da allora il divario è cresciuto progressivamente.

    Nel corso dell’ultimo anno Threads è cresciuto del 37,8% su mobile, mentre X ha perso l’11,9% di utenti giornalieri nello stesso periodo.

    La situazione cambia però se consideriamo il web. X mantiene circa 150 milioni di visite giornaliere da browser, mentre Threads raccoglie appena 8,5 milioni di visite tra Threads.com e Threads.net.

    È una differenza sostanziale che riflette la natura mobile-first della piattaforma di Meta.

    La crescita di Threads in numeri

    La traiettoria di crescita di Threads merita qualche attenzione in più.

    Al lancio nel luglio 2023 la piattaforma ha registrato un’impennata iniziale seguita da un calo fisiologico. Ma da allora i numeri hanno continuato a salire con costanza.

    A metà 2024 Threads aveva raggiunto 200 milioni di utenti mensili.

    A gennaio 2025 erano 320 milioni, saliti a 350 milioni ad aprile 2025 e ora a oltre 400 milioni.

    Meta dichiara ufficialmente 150 milioni di utenti attivi giornalieri, una metrica che l’azienda ha iniziato a condividere solo nell’ottobre 2025. Mark Zuckerberg ha più volte indicato l’obiettivo di raggiungere un miliardo di utenti nei prossimi anni.

    Inizialmente Meta aveva suggerito che le ads sarebbero arrivate solo al raggiungimento di quel traguardo, ma la crescita sostenuta ha evidentemente accelerato i piani.

    Cosa cambia per gli inserzionisti

    Per chi già investe in pubblicità su Meta, l’integrazione è pensata per essere il più fluida possibile. Le ads su Threads utilizzano lo stesso sistema pubblicitario basato su intelligenza artificiale di Facebook e Instagram, con lo stesso livello di personalizzazione e profilazione. Gli inserzionisti possono gestire le campagne Threads insieme a quelle per Facebook, Instagram e WhatsApp attraverso le Business Settings.

    Meta ha anche esteso a Threads la verifica di terze parti già disponibile su Facebook e Instagram attraverso i Meta Business Partners. Questo fornisce agli inserzionisti una verifica indipendente sulla brand safety, un elemento rilevante considerando i problemi che il competitor X sta affrontando con la diffusione di deepfake non consensuali generati attraverso Grok.

    L’azienda ha specificato che inizialmente la frequenza delle ads nel feed rimarrà bassa mentre il sistema scala verso la disponibilità globale. È un approccio prudente che mira a non compromettere l’esperienza utente durante la fase di espansione.

    La monetizzazione su Threads arriva nel momento più turbolento per X

    La monetizzazione di Threads avviene mentre X attraversa un periodo turbolento.

    Oltre ai problemi con i contenuti generati dall’AI, la piattaforma di Elon Musk ha visto un calo significativo degli utenti negli Stati Uniti. Secondo Similarweb, gli utenti mobile giornalieri americani di X sono circa la metà rispetto a un anno fa.

    Threads evidentemente beneficia dell’integrazione con l’ecosistema Meta. La piattaforma può fare leva sulla base utenti di Instagram per le promozioni incrociate e sulla sofisticata infrastruttura pubblicitaria che genera la maggior parte dei ricavi dell’azienda.

    È, nei fatti, un vantaggio strutturale che nessun competitor può replicare facilmente.

    Con questa mossa Meta trasforma Threads da esperimento in fonte di ricavi. La domanda ora è quanto velocemente la piattaforma riuscirà a contribuire ai risultati finanziari dell’azienda, considerando anche gli investimenti massicci in infrastruttura AI annunciati per il 2026.

  • Come cambia l’algoritmo di X con Grok nel 2026

    Come cambia l’algoritmo di X con Grok nel 2026

    Il nuovo algoritmo di X basato su Grok è ora pubblico su GitHub. Ho provato cosa contiene il repository, a spiegare cosa cambia rispetto al 2023 e quali sono le implicazioni concrete per utenti e creator.

    Come certamente ricorderete, a ottobre 2025 Elon Musk annunciava che entro poche settimane l’algoritmo di X sarebbe stato interamente gestito dall’intelligenza artificiale Grok, eliminando tutte le euristiche manuali. Oggi, a distanza di due mesi, quel codice è pubblico, disponibile su GitHub nel repository xai-org/x-algorithm.

    Non è la prima volta che X rende disponibile il proprio algoritmo. Era già capitato nel 2023, poco dopo l’acquisizione di Twitter, quando Musk aveva già pubblicato il codice sorgente del sistema di raccomandazione. Ma quello che vediamo oggi è qualcosa di completamente diverso. Non si tratta di un aggiornamento incrementale, ma ci troviamo di fronte ad una riscrittura totale dell’architettura.

    L’obiettivo di questo articolo è analizzare cosa contiene il repository, osservare e riportare cosa cambia rispetto al sistema precedente e quali sono le implicazioni concrete per chi usa la piattaforma. Non si tratta di una considerazione tecnica, ma di comprendere insieme cosa cambia il nuovo algoritmo di X gestito da Grok, l’intelligenza artificiale di xAI.

    Breve cenno all’algoritmo del 2023

    Nell’agosto 2023, in un articolo sempre qui su questo blog, intitolato Come funziona il nuovo algoritmo di Twitter/X, avevo analizzato il funzionamento del sistema di raccomandazione introdotto da Musk.

    Quel sistema si basava ancora su euristiche manuali, ovvero regole fisse definite dagli sviluppatori che assegnavano pesi specifici alle diverse interazioni.

    Le risposte ai tweet valevano quanto 27 tweet normali. I reply dell’autore a una risposta arrivavano a pesare come 75 tweet. I link esterni venivano penalizzati perché la piattaforma tendeva a favorire contenuti interni. Gli hashtag, simbolo storico di Twitter, stavano progressivamente perdendo rilevanza.

    Era già evidente, allora, quello che avevo definito “algoritmo del proprietario“: un sistema progettato per rispecchiare la visione di Musk, orientando i contenuti verso i suoi principi e le sue priorità. La trasparenza del codice non eliminava questo problema, semplicemente lo rendeva visibile a tutti.

    Come cambia l'algoritmo di X con Grok nel 2026
    Come cambia l’algoritmo di X con Grok nel 2026

    L’annuncio nel nuovo algoritmo basato su Grok

    A ottobre 2025, con un altro articolo su questo blog intitolato Come l’algoritmo di X sarà gestito dalla IA Grok, avevo raccontato l’annuncio di Musk: entro 4-6 settimane tutte le euristiche manuali sarebbero state eliminate. L’intero sistema sarebbe stato affidato a Grok, l’intelligenza artificiale sviluppata da xAI.

    Da quello che in quel momento era dato sapere, Grok avrebbe analizzato ogni post, immagine e video pubblicati su X, oltre 100 milioni di contenuti al giorno, per valutarne la qualità e abbinarli agli interessi degli utenti. Gli utenti avrebbero potuto interagire con Grok per regolare il proprio feed. I pesi del modello sarebbero stati pubblicati per garantire trasparenza.

    Oggi possiamo verificare cosa è stato effettivamente realizzato.

    Cosa contiene il repository

    Il repository xai-org/x-algorithm, pubblicato su GitHub sotto licenza Apache 2.0, contiene il codice sorgente dell’algoritmo che alimenta il feed “Per Te” di X. Il sistema è scritto principalmente in Rust (62,9%) e Python (37,1%) e si articola in quattro componenti principali.

    Home Mixer: il coordinatore

    È il livello di orchestrazione che assembla il feed. Coordina tutte le fasi del processo: recupero dei contenuti potenzialmente rilevanti, arricchimento dei dati, filtraggio, processo di valutazione e selezione finale. Espone un endpoint gRPC, ossia che restituisce i post ordinati per rilevanza.

    Thunder: i contenuti della tua rete

    Un sistema di archiviazione in memoria che traccia i post recenti degli account che si seguono. Il sistema si aggiorna in tempo reale e mantiene sezioni separate per post originali, reply, repost e video. Garantisce ricerche sotto il millisecondo senza interrogare database esterni.

    Phoenix: il cuore dell’intelligenza artificiale

    È il componente ML centrale, derivato da Grok-1. Svolge due funzioni distinte.

    La prima è il “recupero dei post”, basato su un modello Two-Tower. Trova post rilevanti fuori dalla rete di un utente. Una torre codifica le caratteristiche dell’utente e la sua storia di engagement, l’altra codifica tutti i post con gli interessi dell’utente per trovare quelli più affini. Una ricerca per similarità restituisce i contenuti più affini agli interessi degli utenti.

    La seconda è il ranking, il modello valuta ogni post in modo indipendente, assegnando un punteggio che non dipende dagli altri contenuti presenti nella stessa sessione di analisi. Predice le probabilità di engagement per ogni post. Durante l’inferenza, i candidati non possono “vedersi” tra loro, così il punteggio di un post non dipende dagli altri post analizzati nello stesso momento.

    Candidate Pipeline: il sistema di selezione

    Un framework riutilizzabile per costruire pipeline di raccomandazione. Definisce interfacce standardizzate per Source (recupero dei post potenziali), Hydrator (arricchimento dati), Filter (rimozione contenuti ineligibili), Scorer (calcolo punteggi) e Selector (ordinamento e selezione finale).

    Come funziona il ranking del nuovo algoritmo di X

    Il modello Phoenix predice probabilità per 15 tipi di azioni diverse.

    Non si limita a stimare se ad un utente piacerà un contenuto, ma calcola quanto è probabile che l’utente compia ciascuna di queste azioni: mettere like, rispondere, ripostare, citare, cliccare, visitare il profilo dell’autore, guardare un video, espandere una foto, condividere, soffermarti sul contenuto, seguire l’autore.

    Ma predice anche le azioni negative: segnalare “non mi interessa”, bloccare l’autore, silenziare l’autore, segnalare il contenuto.

    Il punteggio finale è una somma pesata di tutte queste probabilità.

    Le azioni positive hanno pesi positivi, quelle negative pesi negativi.

    In teoria, questo dovrebbe penalizzare i contenuti tossici. In pratica, se un contenuto genera molte interazioni prima di essere segnalato, il sistema lo avrà già amplificato.

    Cosa cambia nel concreto nel nuovo algoritmo di X

    Il confronto tra il sistema del 2023 e quello attuale rivela una trasformazione radicale dell’architettura, ma alcune costanti rimangono.

    Elemento
    2023 (euristiche manuali)
    2026 (Grok/Phoenix)
    Link esterni Penalizzazione esplicita nel codice Penalizzazione confermata: i post con link sono considerati meno “nativi” e distribuiti meno
    Video nativi Favoriti rispetto ai link Priorità esplicita nell’algoritmo
    Account verificati/premium Boost per abbonati Twitter Blue Priorità confermata per account verificati e Premium
    Valutazione contenuti Regole fisse (reply = 27 tweet, reply dell’autore = 75 tweet) Transformer predice 15 tipi di engagement
    Contenuti fuori rete Limitati, focus sui seguiti 50-70% del feed “Per Te” può provenire da account non seguiti
    Timeline “Seguiti” Cronologica pura Di default ordinata dall’algoritmo, cronologica solo su richiesta
    Contenuti provocatori Non documentato Possono diffondersi se generano interazioni, anche negative
    Hashtag Progressivamente ignorati Non più rilevanti nel nuovo sistema

     

    I link esterni: la conferma di una scelta strategica

    Nel 2023 avevo scritto che era preferibile condividere tweet senza includere link esterni, perché la piattaforma tendeva a tenere tutto “in casa”. Tre anni dopo, con un sistema completamente riscritto e basato su IA, il comportamento è identico.

    Grok stesso conferma che i post con collegamenti esterni nel testo principale sono penalizzati nella distribuzione, perché l’algoritmo li considera meno “nativi” alla piattaforma. La strategia del “link in commento” resta valida: un articolo condiviso con il link visibile nel post raggiunge meno persone rispetto a un riassunto testuale con il link in un commento separato.

    Questo orienta X verso una piattaforma sempre più chiusa e autonoma, dove i contenuti nativi hanno la precedenza su qualsiasi risorsa esterna.

    Per i creator che dipendono dal traffico verso i propri siti, blog o canali YouTube, è un segnale netto: X non è più un canale di distribuzione, è una destinazione che vuole trattenere l’attenzione al suo interno.

    Come cambia il feed “Per Te” di X col nuovo algoritmo

    Uno dei cambiamenti più significativi apportati dal nuovo algoritmo di X basato su Grok riguarda la composizione del feed.

    Se ricordate il Twitter originale, la timeline era cronologica e mostrava i post degli account seguiti. Nel sistema del 2023, l’algoritmo aveva già iniziato a introdurre contenuti esterni, ma in maniera moderata.

    Oggi, secondo il nuovo algoritmo basato su Grok, il 50-70% del feed “Per Te” può provenire da account che l’utente non segue.

    Il sistema Phoenix Retrieval cerca attivamente contenuti rilevanti su tutta la piattaforma X, non solo nella rete sociale dell’utente.

    Questo potrebbe significare maggiore scoperta di contenuti interessanti. Ma significa anche meno controllo su cosa appare nel feed. Seguire o non seguire un account diventa sempre meno rilevante rispetto a ciò che l’algoritmo ritiene “interessante” per te.

    La timeline “Seguiti” di X diventa algoritmica

    Un cambiamento che potrebbe passare inosservato riguarda la timeline “Seguiti”. Prima era puramente cronologica: i post degli account seguiti apparivano in ordine temporale, dal più recente al meno recente. Era l’ultima traccia di ciò che rimaneva di Twitter.

    Ora anche questa timeline è soggetta all’algoritmo di default. Il sistema ordina i contenuti in base a una stima di rilevanza calcolata dal modello automatico. La visualizzazione cronologica pura resta disponibile, ma bisogna attivarla manualmente.

    L’impatto è notevole per chi usa X per notizie o aggiornamenti rapidi. Post importanti da amici o account seguiti potrebbero non apparire in cima se il sistema li considera meno coinvolgenti rispetto ad altri. Serve “scrollare” di più, oppure l’uso consapevole dei filtri manuali per tornare alla cronologia.

    La rilevanza dei contenuti polarizzanti su X

    Il nuovo algoritmo di X introduce la possibilità che i contenuti considerati di bassa qualità o polarizzanti, quelli che generano rabbia ma poche interazioni positive, potrebbero diffondersi di più in certi contesti, portando a un flusso percepito come più caotico.

    Nel repository, il modello Phoenix predice sia azioni positive sia negative, con pesi negativi per blocco, silenziamento, segnalazione.

    In teoria, questo dovrebbe penalizzare i contenuti tossici nel ranking. In pratica, c’è una finestra temporale tra la pubblicazione e le segnalazioni durante la quale il contenuto viene amplificato se genera engagement.

    È molto probabile che il flusso diventi troppo imprevedibile o polarizzato. Significa che ci sono seri rischi di trovarci di fronte ad un sistema orientato all’engagement automatico.

    Il rischio delle bolle informative su X

    Il nuovo sistema trasforma l’uso passivo della piattaforma, la semplice lettura, in uno più attivo. L’algoritmo premia i contenuti che generano reazioni: se si ignorano certi post, il sistema li ridurrà nel flusso dell’utente; se si reagisce positivamente, se ne vedranno di simili.

    Questo meccanismo rischia di aumentare il rischio di “bolle informative” dove si vede solo ciò che conferma i gusti e le opinioni degli utenti. L’esperienza diventa più coinvolgente, ma potenzialmente più chiusa.

    Per chi cerca varietà di punti di vista o vuole restare informato su temi che non generano engagement immediato, il nuovo sistema richiede uno sforzo consapevole: esplorare attivamente, interagire con contenuti diversi, usare la timeline cronologica quando serve.

    I limiti della trasparenza dell’algoritmo di X

    Il repository è pubblico, ma cosa manca per capire davvero come funziona il sistema?

    Mancano i pesi del modello. Il codice descrive l’architettura del transformer, ma i parametri numerici che determinano effettivamente il comportamento non sono inclusi. Sappiamo che esiste un sistema di calcolo del punteggio che combina le predizioni, ma non conosciamo i pesi specifici assegnati a like, risposte, repost o alle azioni negative.

    Mancano i dati di training. Il modello Phoenix apprende dai comportamenti degli utenti, ma non sappiamo su quali dati è stato addestrato, quali periodi coprono, se includono bias storici della piattaforma.

    Mancano le policy di moderazione dei contenuti. I filtri tecnici sono documentati (rimozione duplicati, contenuti eliminati, spam, violenza), ma le decisioni più sottili su cosa promuovere e cosa penalizzare restano poco chiare.

    In altre parole, il codice ci dice come il sistema è costruito, non come si comporta. È come avere il progetto di un motore senza conoscere la miscela di carburante che lo alimenta.

    Un sistema ML poco esplicito

    Nel 2023, l’algoritmo del proprietario era visibile nelle euristiche manuali. Si poteva leggere nel codice che certi comportamenti venivano premiati e altri penalizzati. Era contestabile, ma almeno era documentato.

    Oggi il controllo si è spostato a un livello più profondo. Non ci sono più regole esplicite che dicono “penalizza i link esterni”. C’è un modello di machine learning che ha appreso, dai dati storici della piattaforma, che i contenuti nativi performano meglio. La penalizzazione dei link non è una scelta visibile nel codice, è un comportamento emergente del sistema.

    Se qualcuno chiede “perché i miei post con link hanno meno visibilità?”, la risposta non è più “perché c’è una regola che li penalizza”, ma “perché il modello ha imparato che generano meno engagement”. La responsabilità si dissolve nell’opacità del machine learning.

    Il repository afferma con orgoglio di aver eliminato tutte le feature ingegnerizzate manualmente. Ma eliminare le euristiche manuali non significa eliminare i bias. Significa solo renderli impliciti invece che espliciti.

    Cosa significa per utenti e creator di X

    Per chi usa X come utente, il nuovo sistema significa un feed sempre più personalizzato ma meno prevedibile. La maggioranza dei contenuti potrebbe arrivare da account mai seguiti. E il rischio di ritrovarsi in una sorta di TikTok è molto alto.

    Anche la timeline dei “Seguiti” non è più cronologica per definizione. La sensazione di controllo sulla propria esperienza diminuisce, a meno di non intervenire attivamente sulle impostazioni.

    L’esperienza diventa più “intuitiva” nel senso che il sistema cerca di mostrare ciò che trattiene più a lungo l’utente. Ma se non si interagisce con certi tipi di post, si rischia di vederne sempre meno, con la possibilità concreta di ritrovarsi in una bolla informativa costruita su azioni passate.

    Per i creator, le regole sono chiare: i contenuti nativi (video, immagini, testi completi) hanno la precedenza. I link esterni vanno inseriti nel “primo commento”, vale a dire non nel primo post ma in quello che segue immediatamente. Le interazioni contano più dei follower. Gli account verificati e premium hanno un vantaggio strutturale nel nuovo algoritmo. Vantaggio tutto da verificare.

    Per chi analizza le piattaforme, questo caso conferma una tendenza. La trasparenza formale, ossia pubblicare il codice, non equivale a trasparenza sostanziale.

    Senza i pesi del modello e i dati di training, capire perché un contenuto viene promosso rispetto a un altro resta impossibile.

    Conclusione

    Il rilascio del repository xai-org/x-algorithm chiude un cerchio iniziato con le promesse fatte a ottobre 2025. Il codice è pubblico, l’architettura è documentata, la transizione verso un sistema interamente basato su IA è ormai completata.

    Ma la domanda di fondo resta senza risposta. Un algoritmo trasparente nel codice ma opaco nei comportamenti è davvero trasparente? Un sistema che elimina le regole manuali ma eredita i bias dai dati è davvero neutrale?

    L’algoritmo del proprietario, come definisco ormai da un po’ algoritmi come questi, non è scomparso, anzi. Si è evoluto. E continuerò a monitorarlo, come sempre.

  • Dina Powell McCormick presidente di Meta col favore di Trump

    Dina Powell McCormick presidente di Meta col favore di Trump

    La nomina di Dina Powell McCormick, ex vice consigliera per la sicurezza nazionale Usa, alla guida operativa di Meta dice molto sulla direzione che sta prendendo l’azienda di Menlo Park. Non si tratta solo di competenze finanziarie, ma di un riposizionamento strategico nei confronti della Casa Bianca.

    Mark Zuckerberg ha scelto Dina Powell McCormick come nuova presidente e vice chairman di Meta. La notizia, annunciata nei giorni scorsi, ha immediatamente ricevuto l’applauso pubblico di Donald Trump su Truth Social. Un dettaglio che vale più di qualsiasi comunicato stampa.

    Powell McCormick non è una figura qualsiasi. È stata vice consigliera per la sicurezza nazionale durante il primo mandato Trump e ha ricoperto ruoli di rilievo anche sotto l’amministrazione Bush.

    Sedici anni in Goldman Sachs ai massimi livelli, poi vice presidente di BDT & MSD Partners. Un profilo che combina finanza globale, relazioni istituzionali e vicinanza ai circoli repubblicani. Quello che serve a Mark Zuckerberg in questa fase storica.

    Dina Powell McCormick presidente di Meta col favore di Trump
    Dina Powell McCormick presidente di Meta col favore di Trump

    Il nuovo corso di Meta

    Questa nomina si inserisce in un contesto più ampio. Meta sta costruendo quello che Zuckerberg definisce il modello aziendale e finanziario che alimenterà il prossimo decennio di all’insegna della IA. Data center, sistemi energetici, connettività globale su scala senza precedenti. E per farlo serve qualcuno che sappia parlare con governi e fondi sovrani.

    Powell McCormick avrà proprio questo compito. Il comunicato ufficiale è esplicito su questo punto. La nuova presidente Meta sarà coinvolta nelle relazioni con governi e paesi per costruire, sviluppare, investire e finanziare l’infrastruttura IA di Meta. Non stiamo parlando di pubbliche relazioni, ma di negoziati ad alti livelli del valore di miliardi di dollari.

    Le piattaforme digitali non sono mai neutrali. Riflettono gli interessi, le priorità e le relazioni di chi le controlla. E quando il proprietario di una piattaforma da tre miliardi di utenti nomina come presidente una figura così vicina all’amministrazione in carica, il messaggio è chiaro.

    Del resto, Zuckerberg è uno dei tech leader che un anno fa avevano finanziato con 1 milione di dollari la cerimonia di insediamento della seconda amministrazione Trump. E sedeva sul loggione d’onore insieme a suoi colleghi come Musk o Bezos.

     

    Una strategia che viene da lontano

    La nomina di Powell McCormick non deve sembrare un evento isolato. Nelle ultime settimane Meta ha assunto anche Curtis Joseph Mahoney come chief legal officer, un altro ex funzionario dell’amministrazione Trump. Dana White, CEO della UFC e figura notoriamente vicina al presidente, siede nel board dell’azienda.

    Zuckerberg stesso ha cenato di recente alla Casa Bianca e ha annunciato investimenti per centinaia di miliardi di dollari in infrastrutture sul territorio americano.

    Lo stesso giorno della nomina di Powell McCormick, ha presentato Meta Compute, una nuova iniziativa infrastrutturale per l’intelligenza artificiale che prevede la costruzione di decine di gigawatt di capacità energetica in questo decennio.

    Il percorso è evidente. Meta sta ricostruendo le proprie relazioni istituzionali dopo anni di scontri con la politica americana. E lo sta facendo nel modo più diretto possibile, portando figure dell’amministrazione direttamente nel proprio management.

    Cosa significa tutto questo per l’Europa

    Questo riposizionamento ha conseguenze che vanno oltre i confini americani.

    Se Meta si allinea sempre più strettamente con gli interessi della Casa Bianca, le tensioni con i regolatori europei potrebbero acuirsi ulteriormente.

    Il Digital Services Act, le normative sulla privacy, le regole sulla trasparenza algoritmica: tutto questo potrebbe diventare terreno di scontro ancora più aspro.

    C’è anche un aspetto meno visibile ma altrettanto rilevante.

    Powell McCormick era legata a BDT & MSD Partners, un’azienda il cui nome è circolato nelle trattative per l’acquisizione di TikTok. Esiste ancora un 5% della nuova joint venture americana che non è stato ufficialmente assegnato. Le connessioni tra questi mondi sono più fitte di quanto appaia.

    Cosa comporta questo per gli utenti

    Per chi usa quotidianamente Facebook, Instagram o WhatsApp, queste dinamiche possono apparire distanti. Ma non lo sono.

    Le scelte in termini di governance di una piattaforma determinano quali contenuti vengono amplificati e quali penalizzati; quali funzionalità vengono sviluppate e quali abbandonate; quali mercati vengono privilegiati e quali trascurati.

    Quando Jamie Dimon, CEO di JPMorgan Chase, definisce Powell McCormick una banchiera migliore di molti CEO della grande finanza, sta descrivendo una persona che sa muoversi in mezzo ad interessi enormi.

    Quegli interessi ora includeranno le decisioni che riguardano miliardi di persone ogni giorno. Ecco perché questa nomina riguarda tutti gli utenti della galassia Meta e riguarda quindi tutti noi.

  • Deepfake, il governo Uk vara la legge contro Grok questa settimana

    Deepfake, il governo Uk vara la legge contro Grok questa settimana

    Il governo Uk ha annunciato l’arrivo in questa settimana di una nuova legge per contrastare il fenomeno deepfake di Grok: 2 anni di carcere per la creazione di deepfake; stop alla distribuzione di software di denudazione; sanzioni per le piattaforme fino al 10% del fatturato globale annuo.

    Il governo del Regno Unito ha deciso di imprimere un’accelerazione decisa alla regolamentazione dell’Intelligenza Artificiale generativa. Dopo giorni in cui si sono rincorse tante notizie, il governo di Starmer ha optato per la strada regolatoria.

    Secondo quanto riportato BBC, in questa settimana entra in vigore la nuova fattispecie di reato che punisce la sola creazione di deepfake intimi non consensuali. La norma prevede pene detentive fino a due anni di reclusione per chiunque generi tali immagini, a prescindere dall’intento di condividerle o pubblicarle.

    La svolta legislativa, integrata nel Data Use and Access Act, introduce un ulteriore livello di restrizione: il divieto di diffusione.

    Londra si prepara a rendere illegali i software e i servizi di “denudazione”, ovvero gli strumenti progettati per denudare digitalmente attraverso l’uso di immagini di persone reali.

    L’obiettivo è colpire la filiera tecnologica alla radice, rendendo perseguibili non solo gli utenti, ma anche gli sviluppatori e i distributori di tali applicazioni.

    Deepfake, il governo Uk vara la legge contro Grok questa settimana
    Deepfake, il governo Uk vara la legge contro Grok questa settimana

    La pressione su X e i blocchi internazionali

    L’iniziativa di Downing Street giunge in un momento di forte pressione su Grok, l’IA di xAI integrata nella piattaforma X. Nei giorni scorsi, Malesia e Indonesia hanno già provveduto a bloccare l’utilizzo di Grok integrato nella piattaforma X, citando l’assenza di filtri efficaci.

    Il Premier britannico, Keir Starmer, è intervenuto direttamente sulla vicenda con un monito esplicito: “se le piattaforme non dimostreranno di poter controllare i propri strumenti e proteggere i cittadini, lo Stato utilizzerà pienamente i propri poteri coercitivi”.

    Keir Starmer annuncio legge deepfake Regno Unito gennaio 2026
    Keir Starmer annuncio legge deepfake Regno Unito gennaio 2026

    La Technology Secretary, Liz Kendall, ha rincarato la dose definendo questi software “armi di abuso” che “alimentano la misoginia e la violenza sessuale”, confermando che la scelta di X di limitare queste funzioni agli utenti Premium non è considerata una misura di sicurezza valida.

    Liz Kendall, Segretaria di Stato Uk per la Scienza, l'Innovazione e la Tecnologia
    Liz Kendall, Segretaria di Stato Uk per la Scienza, l’Innovazione e la Tecnologia

    I numeri dell’emergenza: i dati Ofcom e NPCC

    L’urgenza del provvedimento è dettata da evidenze che hanno alimentato il senso di emergenza:

    • Produzione estesa di deepfake: le stime indicano che tramite Grok vengono generate circa 6.700 immagini pornografiche non consensuali ogni ora, spesso coinvolgendo figure pubbliche e minori.

    • Incremento dei reati: secondo il National Policing Statement 2024 dell’NPCC, la violenza abilitata dalla tecnologia contro donne e ragazze è aumentata del 37% tra il 2018 e il 2023.

    • Sanzioni: l’autorità Ofcom ha ora il mandato per procedere con indagini che possono portare a sanzioni pecuniarie fino al 10% del fatturato globale annuo di X per il mancato rispetto dei doveri di cura stabiliti dall’Online Safety Act.

    Grok ha generato migliaia di immagini di nudo, e non solo

    Legge Uk colpisce il ciclo deepfake

    Con l’attivazione delle nuove norme, il Regno Unito si posiziona come il primo mercato occidentale a criminalizzare l’intero ciclo di vita del deepfake: dalla progettazione del software alla sua fornitura, fino alla generazione della singola immagine.

    La messa al bando dei servizi di “denudazione” e l’introduzione della responsabilità penale individuale segnano, possiamo dirlo, la fine della fase di autoregolamentazione per le aziende produttrici di IA generativa.

  • Grok, la spunta blu non rende sicura la generazione di immagini

    Grok, la spunta blu non rende sicura la generazione di immagini

    X ha ufficialmente limitato la creazione di immagini ai soli utenti Premium. Una mossa che non sorprende, ma che sposta semplicemente la violenza digitale dietro un abbonamento, confermando che la sicurezza per Elon Musk è un servizio accessorio e non un requisito strutturale.

    Dopo le polemiche, inevitabili, X ha deciso finalmente di operare su quello che è diventata una grave emergenza. Il fenomeno della modifica delle immagini attraverso messaggi testuali a Grok (la IA di xAI) ha assunto dimensioni allarmanti e i dati che ho raccolto nell’articolo di ieri lo dimostrano.

    Grok, la generazione di immagini su X solo per abbonati a Premium

    Ebbene, il messaggio apparso agli utenti nelle ultime ore mostra questo atteso, ma comunque tardivo, cambio di passo: “La generazione e la modifica di immagini sono attualmente limitate agli abbonati paganti”. Questa restrizione arriva, ricordiamolo, dopo una settimana di critiche globali e pressioni senza precedenti da parte del governo britannico e della Commissione Europea.

    Grok, la spunta blu non rende sicura la generazione di immagini
    Il messaggio di Grok in risposta alla richiesta di account non abbonati a X

    Come abbiamo visto, la “spunta blu” non funziona come una sorta di filtro morale. L’utente che ha chiesto di manipolare l’immagine della donna uccisa a Minneapolis, un esempio che definisce il punto più basso di questa deriva tecnologica, era proprio un utente abbonato. Limitare l’accesso a chi paga significa ammettere che, una volta abbonato, la dignità delle persone rimane un territorio di conquista privo di filtri.

    Grok e l'immagine della ragazza uccisa a Minneapolis
    Grok e l’immagine della ragazza uccisa a Minneapolis
    Grok e l'immagine della ragazza uccisa a Minneapolis
    Grok e l’immagine della ragazza uccisa a Minneapolis

    I numeri allarmanti dell’emergenza su X

    I dati, ricordati ieri, che emergono dalle ultime inchieste delineano un quadro di abuso sistemico che nessuna limitazione di accesso sembra aver ancora frenato:

    • 6.700 immagini sessualizzate all’ora: è il ritmo di generazione rilevato da ricercatori citati da Bloomberg durante i picchi di attività di questa settimana.

    • 3/4 delle richieste analizzate: secondo una ricerca del Trinity College di Dublino, circa il 75% dei prompt raccolti riguardava la richiesta di “denudare” o sessualizzare donne e minori.

    • 800 contenuti pedopornografici o violenti: rintracciati dall’organizzazione AI Forensics tramite l’app “Grok Imagine”, che sembra mantenere maglie ancora più larghe rispetto all’interfaccia standard.

    Grok ha generato migliaia di immagini di nudo, e non solo

    La posizione UE: “Non è piccante, è illegale”

    Bruxelles ha già chiarito che non accetterà soluzioni di comodo. Thomas Regnier, portavoce della Commissione Europea per il digitale, è stato categorico definendo i contenuti generati “disgustosi” e “illegali”, sottolineando che la narrazione di Musk su una “IA piccante” non ha basi giuridiche in Europa.

    La Commissione ha già ordinato a X di conservare tutti i documenti interni e i dati relativi a Grok fino alla fine del 2026 per facilitare le indagini in corso. Il rischio per la piattaforma è altissimo:

    1. Sanzioni DSA: dopo la multa di 120 milioni di euro ricevuta a dicembre 2025, X rischia ora sanzioni fino al 10% del fatturato globale.

    2. Online Safety Act (UK): il primo ministro Keir Starmer ha dichiarato che Ofcom ha il pieno supporto per agire, inclusa la possibilità di richiedere il blocco della piattaforma nel Regno Unito.

    Grok, la spunta blu non rende sicura la generazione di immagini
    Grok, la spunta blu non rende sicura la generazione di immagini

    Oltre il paywall: la sicurezza come vantaggio competitivo

    In definitiva, l’errore di fondo rimane la scelta di aver rilasciato in uso a chiunque uno strumento così potente senza alcun tipo di filtro semantico e contestuale. Lo spostamento della funzionalità dietro un paywall non è una misura di sicurezza, ma una monetizzazione dell’abuso. Oltre che una foglia di fico.

    Il vero vantaggio competitivo per chi sviluppa Intelligenza Artificiale oggi non risiede nella “libertà assoluta” di generare orrori, ma nella capacità di costruire sistemi sicuri per design (safety-by-design).

    Le aziende che sapranno garantire che la loro tecnologia non possa essere usata come arma di aggressione digitale saranno quelle in grado di procedere all’interno di un ecosistema normativo che, da oggi, non concede più sconti.

  • Grok ha generato migliaia di immagini di nudo, e non solo

    Grok ha generato migliaia di immagini di nudo, e non solo

    La situazione ormai si è trasformata in un’emergenza. Grok in pochi giorni ha generato 6.700 immagini sessualizzate all’ora. Vale a dire 84 volte più degli altri siti di deepfake. E le vittime non hanno strumenti per difendersi. L’ultimo caso riguarda anche la vicenda di Minneapolis.

    Pochi giorni fa avevo raccontato in un post cosa stava accadendo su X con la nuova funzionalità “Edit Image” di Grok.

    Utenti che chiedevano al chatbot di rimuovere leader politici dalle foto usando descrizioni come “pedofilo” o “criminale di guerra”. Immagini di donne modificate per “svestirle” digitalmente. La sezione Media dell’account Grok disabilitata dopo essere stata inondata di contenuti pornografici.

    Avevo scritto che il problema era strutturale. Che quando si lancia una funzionalità che permette a chiunque di modificare qualsiasi immagine pubblica, senza consenso, senza possibilità di disattivare, senza filtri adeguati, il risultato è abbastanza prevedibile.

    Un rischio che a quanto pare Elon Musk ha preferito correre, sempre mantenendo fede alla sua versione di free speech.

    Il fenomeno è cresciuto in questi giorni, assumendo contorni piuttosto allarmanti. Ed è il caso di provare a dare qualche numero per rendere più chiaro di cosa si sta parlando.

    Ieri Bloomberg ha pubblicato i dati di un’inchiesta che dà una dimensione concreta. E i numeri sono peggiori di quanto si potesse immaginare.

    Grok ha generato migliaia di immagini di nudo, e non solo
    Grok ha generato migliaia di immagini di nudo, e non solo

    Su X 6.700 immagini sessuali all’ora generate da Grok

    Secondo l’analisi condotta da Genevieve Oh, ricercatrice specializzata in deepfake, tra il 5 e il 6 gennaio 2026 Grok ha generato circa 6.700 immagini all’ora identificate come sessualmente allusive o che “spogliano” digitalmente le persone.

    Per comprendere la portata, gli altri cinque principali siti per questo tipo di contenuti hanno registrato una media di 79 nuove immagini all’ora nello stesso periodo. Grok ne produce 84 volte di più.

    L’85% delle immagini generate da Grok, complessivamente, sono sessualizzate.

    Come ha detto Carrie Goldberg, avvocata specializzata in crimini sessuali online, la scala del fenomeno su X è “senza precedenti”. Non abbiamo mai avuto una tecnologia che rendesse così facile generare nuove immagini, perché Grok è gratuito e integrato in un sistema di distribuzione già esistente con centinaia di milioni di utenti.

    Ma il peggio sembra non essere su X

    Ma quello che succede su X è solo la parte visibile del problema. Wired ha rivelato che sul sito web e sull’app di Grok la situazione è molto peggiore.

    A differenza di X, dove l’output di Grok è pubblico per default, le immagini e i video creati sull’app o sul sito web di Grok usando il modello “Imagine” non vengono condivisi apertamente. Ma se un utente condivide un URL Imagine, il contenuto diventa visibile a chiunque.

    Wired ha analizzato un archivio di circa 1.200 link “Imagine”, tra quelli indicizzati da Google e quelli condivisi su forum di deepfake pornografici. Ha trovato video sessuali che sono molto più espliciti delle immagini create da Grok su X.

    Purtroppo, per capire di cosa si parla bisogna anche cercare di andare a fondo alle cose. E spesso non è bello, ma è necessario.

    Alcuni esempi di Grok Image raccapriccianti

    Un video fotorealistico ospitato su Grok.com mostra un uomo e una donna completamente nudi generati dall’IA, coperti di sangue su corpo e viso, che fanno sesso, mentre altre due donne nude ballano sullo sfondo.

    Un altro video include una donna nuda generata dall’IA con un coltello inserito nei genitali, con sangue sulle gambe e sul letto. Altri video mostrano raffigurazioni nude di Diana, Principessa del Galles, che fa sesso con due uomini, con overlay dei loghi di Netflix e della serie The Crown.

    Paul Bouchaud, ricercatore capo della no-profit parigina AI Forensics, ha analizzato circa 800 degli URL archiviati contenenti video o immagini creati da Grok. “Sono in modo schiacciante contenuti sessuali“, ha detto. “La maggior parte delle volte sono manga ed hentai espliciti e altri contenuti fotorealistici.”

    Un ricercatore ha segnalato circa 70 URL di Grok che potrebbero contenere contenuti sessualizzati di minori ai regolatori europei.

    Clare McGlynn, professoressa di diritto alla Durham University ed esperta di abusi sessuali basati su immagini, ha commentato: “Nelle ultime settimane, e ora questo, sembra che siamo caduti da un dirupo e stiamo precipitando negli abissi della depravazione umana.

    Le vittime non possono difendersi

    Bloomberg, riportare i dati dell’analisi visti all’inizio, racconta diversi casi concreti. Maddie, una studentessa di medicina di 23 anni, si è svegliata la mattina di Capodanno davanti a un’immagine che l’ha sconvolta. Aveva pubblicato su X una foto con il fidanzato in un bar. Due sconosciuti l’hanno modificata usando Grok. Il primo ha chiesto di rimuovere il fidanzato e metterla in bikini. Il secondo ha chiesto di sostituire il bikini con un filo interdentale.

    Maddie ha segnalato le immagini a X tramite i sistemi di moderazione. Non ha mai ricevuto risposta. Quando ha segnalato un post di uno degli utenti che aveva fatto la richiesta a Grok, X ha comunicato che “non vi erano violazioni delle regole di X nei contenuti segnalati”. Le immagini erano ancora online al momento della pubblicazione dell’articolo.

    Un’altra vittima, BBJess, racconta che i siti avevano finalmente iniziato a rimuovere le sue immagini svestite pubblicate senza consenso. Ma Grok la scorsa settimana ha dato il via a una nuova ondata. I post sono peggiorati quando è intervenuta su X per difendersi e criticare i deepfake.

    Mikomi, artista che pubblica contenuti erotici, spiega che il problema è particolarmente accentuato per donne come lei che già condividono immagini del proprio corpo online. Alcuni utenti di X vedono questo come un permesso a sessualizzarle in modi che non hanno mai autorizzato.

    Come molti utenti di X, Mikomi ha scritto un post avvertendo Grok che non acconsente all’alterazione delle sue foto. “Non funziona”, ha detto. “Bloccare Grok non funziona. Niente funziona.” Non può abbandonare la piattaforma perché è vitale per il suo lavoro.

    “Cosa dovrei fare? Vuoi che perda il mio lavoro?”

    La differenza con gli altri chatbot

    Come già sottolineato, a differenza di altri chatbot, Grok non impone limiti efficaci agli utenti e non li blocca dal generare contenuti sessualizzati di persone reali, compresi i minori.

    Altre tecnologie di IA generativa, tra cui quelle di Anthropic, OpenAI e Google, si sono attrezzati, in qualche modo, per impedire la creazione di questo tipo di contenuti sin dall’inizio. Ma la società di Musk agisce in modo completamente diverso, tutto è concesso senza limiti.

    Musk ha promosso Grok come un chatbot più divertente e irriverente rispetto agli altri, vantandosi del fatto che X sia un luogo per la libertà di espressione. Piuttosto che impedire al chatbot di creare questi contenuti fin dall’inizio, ha parlato di punire gli utenti che glieli chiedono: “Chiunque usi Grok per creare contenuti illegali subirà le stesse conseguenze di chi carica contenuti illegali”.

    Ma questo non lascia molte opzioni alle vittime.

    La risposta delle istituzioni UE

    L’Unione Europea ha deciso di intervenire su questo caso.

    La Commissione Europea ha infatti ordinato a X di conservare tutti i documenti interni e i dati relativi a Grok fino alla fine del 2026. Il portavoce Thomas Regnier ha spiegato il senso dell’ordine: “Questo significa dire a una piattaforma: conserva i tuoi documenti interni, non liberartene, perché abbiamo dubbi sulla tua conformità“.

    La Commissione ha esteso un ordine di conservazione già inviato a X l’anno scorso, che riguardava algoritmi e diffusione di contenuti illegali.

    È un passaggio che si inserisce in un percorso già avviato. Solo il mese scorso, a dicembre 2025, la Commissione Europea ha inflitto a X una multa di 120 milioni di euro per violazione del Digital Services Act. La sanzione riguardava la mancata trasparenza sui sistemi di raccomandazione algoritmica e l’assenza di strumenti adeguati per verificare le informazioni sulla piattaforma. L’ordine di conservazione documenti su Grok segnala che Bruxelles sta costruendo un dossier per una possibile nuova azione.

    Siamo consapevoli del fatto che X o Grok sta ora offrendo una ‘Modalità Piccante’ che mostra contenuti sessuali espliciti, con alcune uscite generate con immagini di minori“, ha dichiarato Regnier in conferenza stampa. “Questo non è piccante. Questo è illegale.”

    Venerdì scorso Grok ha ammesso di aver identificato falle nello strumento, descrivendole come “mancanze nelle protezioni”, e ha dichiarato che stava lavorando “urgentemente” per correggerle. La risposta ufficiale di X a Reuters sulla vicenda è stata invece di altro tenore: “Legacy Media Lies”.

    Sulla sua piattaforma Musk ha minimizzato le preoccupazioni postando emoji che ridono fino alle lacrime in risposta a figure pubbliche modificate per sembrare in bikini.

    Nel frattempo, altri enti regolatori si stanno muovendo.

    Ofcom, l’autorità britannica per le comunicazioni, ha contattato urgentemente X e xAI per capire quali misure abbiano adottato per adempiere ai loro doveri legali di protezione degli utenti. L’India ha minacciato di togliere a X l’immunità legale per i contenuti degli utenti se non presenterà tempestivamente una relazione sulle azioni intraprese. Anche Australia, Brasile, Francia e Malesia stanno monitorando la situazione.

    Negli Stati Uniti la situazione è più complessa. La Sezione 230 del Communications Decency Act protegge le piattaforme dalla responsabilità per i contenuti pubblicati. Ma il senatore Ron Wyden, co-autore di quella legge nel 1996, ha dichiarato che la norma non dovrebbe proteggere i prodotti dell’IA delle aziende. “Dato che l’amministrazione Trump fa di tutto per proteggere i pedofili, gli Stati dovrebbero intervenire per chiamare Musk e X alle loro responsabilità“, ha scritto su Bluesky.

    Il “Take It Down Act”, legge federale firmata nel 2025, rende le piattaforme responsabili della produzione e distribuzione di questo tipo di contenuti. Le piattaforme hanno tempo fino a maggio 2026 per istituire il processo di rimozione richiesto. Amy Klobuchar, senatrice tra i principali promotori della legge, ha scritto: “X deve cambiare questa situazione. Se non lo farà, il Take It Down Act presto glielo imporrà.

    Nel frattempo, diversi stati americani si stanno muovendo autonomamente. California, New Mexico e New York stanno valutando azioni legali.

    C’è un dettaglio che rende la vicenda ancora più paradossale. Grok è un software utilizzato dal governo federale americano. Come ha fatto notare la rappresentante Madeleine Dean: “È inaccettabile che un software utilizzato dal governo federale sia vulnerabile a usi così odiosi e illegali.”

    Filtri insufficienti e mancanza di rispetto

    Nelle ultime ore, probabilmente nella giornata dell’8 gennaio, xAI sembrerebbe aver introdotto alcuni filtri. Le richieste più esplicite di nudità completa vengono ora bloccate. Nel senso che Grok su X non da seguito alla richiesta.

    Ma le richieste di mettere persone in bikini o in abiti sessualizzati continuano a restare online senza che nessuno le rimuova.

    Un caso emerso oggi mostra quanto questi filtri siano insufficienti.

    Grok l’immagine folle della ragazza uccisa a Minneapolis

    Un utente ha risposto ad un post dove era stata condivisia la foto della ragazza uccisa a Minneapolis, un caso che ha coinvolto l’ICE e sta facendo molto discutere. La foto ritraeva Renee Nicole Good ormai esanime.

    Questo utenti ha utilizzao l’immagine per a Grok di “metterla in bikini”. Grok ha eseguito la richiesta senza opporre alcuna resistenza.

    Grok e l'immagine della ragazza uccisa a Minneapolis
    Grok e l’immagine della ragazza uccisa a Minneapolis
    Grok e l'immagine della ragazza uccisa a Minneapolis
    Grok e l’immagine della ragazza uccisa a Minneapolis

    Il post con la richiesta ha superato le 480.000 visualizzazioni. L’immagine generata da Grok ne ha raggiunto 427.000. Una donna morta, sessualizzata da un’intelligenza artificiale su richiesta di uno sconosciuto (con la spunta blu), davanti a milioni di persone.

    Questo esempio è la sintesi di tutto. Non è solo la generazione di contenuti sessualizzati non consensuali. È la totale assenza di qualsiasi filtro contestuale. Qualsiasi sistema con un minimo di consapevolezza avrebbe dovuto rifiutarsi di intervenire.

    Il problema è strutturale

    Torniamo al punto che avevamo sollevato pochi giorni fa. Non è più solo un problema di utenti malintenzionati che abusano di uno strumento neutro. È un problema di architettura.

    Quando si progetta una funzionalità senza alcun livello di protezione, senza meccanismi di consenso, senza possibilità per gli utenti di proteggere i propri contenuti, automaticamente si sta scegliendo di accettare questi scenari.

    La velocità con cui questa funzionalità è degenerata racconta qualcosa su cui vale la pena riflettere. Dal lancio il 24 dicembre a oggi, 8 gennaio, sono passate due settimane. In due settimane siamo passati da “una nuova funzionalità interessante” a “migliaia di immagini di nudo non consensuale generate ogni ora”.

    E questo ci riporta al concetto di algoritmo del proprietario. Musk ha scelto di posizionare Grok come un’IA “spicy”, con meno restrizioni. Ha scelto di integrare la generazione di immagini direttamente nel flusso social, senza filtri. Ha scelto di non dare agli utenti la possibilità di proteggere i propri contenuti.

    Queste sono scelte. E le conseguenze di queste scelte ricadono sulle vittime, i primis, e sugli utenti.

    Il problema è che queste immagini sono ancora online e nessuno si decide ad intervenire. Men che meno il proprietario della piattaforma.

  • Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

    Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

    Il Pentagono ha annunciato un accordo con xAI per integrare Grok nei sistemi di difesa USA. L’IA di Musk avrà accesso diretto ai flussi di contenuti condivisi su X. Le modalità dell’accordo e la stessa possibile integrazione sollevano interrogativi su dati, controllo e trasparenza.

    Il Pentagono – oggi DOW, Dipartimento della Guerra – ha annunciato una partnership con xAI, l’azienda di intelligenza artificiale fondata da Elon Musk, per integrare il modello Grok nella piattaforma governativa GenAI.mil.

    Il rilascio è previsto per l’inizio del 2026 e coinvolgerà circa tre milioni di dipendenti militari e civili del Dipartimento della Difesa.

    A prima vista, potrebbe sembrare una notizia come tante nell’era dell’IA generativa. Ma guardando più da vicino emergono elementi che meritano qualche approfondimento in più. Perché questa non è semplicemente l’adozione di un nuovo strumento tecnologico da parte dell’esercito americano. In questi casi siamo oltre, e si entra nella sfera dell’inedito.

    Cosa prevede l’accordo tra il Pentagono e xAI

    Grok opererà a Impact Level 5 (IL5), il livello di sicurezza che consente la gestione di Controlled Unclassified Information (CUI). Si tratta di informazioni sensibili ma non classificate.

    Ossia, dati personali dei dipendenti, informazioni su infrastrutture critiche, dettagli operativi non segreti, comunicazioni interne governative. Singolarmente, questi dati non compromettono la sicurezza nazionale Usa, ma aggregati da un’IA possono rivelare elementi di una certa rilevanza.

    All’interno del comunicato diramato si legge che gli utenti, militari e civili del DOW (Department of War)) avranno accesso a “insight globali in tempo reale dalla piattaforma X”, fornendo al personale del Dipartimento della Guerra quello che viene definito un “vantaggio informativo decisivo” e una “consapevolezza situazionale globale”. È prevista anche una possibile estensione futura a “carichi di lavoro classificati”.

    Il valore del contratto è di 200 milioni di dollari, parte di accordi più ampi che includono anche OpenAI, Google e Anthropic. Ma qui emerge già un primo elemento di criticità.

    Secondo un ex funzionario del Pentagono, il contratto con xAI “è arrivato dal nulla”, quando altre aziende erano sotto osservazione da mesi. La senatrice Elizabeth Warren ha formalmente interrogato il Dipartimento della Difesa su questa circostanza.

    Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari
    Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

    Non esiste alcuna separazione tra Grok e X

    Questo è il nodo che distingue l’accordo Pentagon-xAI da qualsiasi altra partnership tra governo e aziende di IA. Grok non è un modello isolato. È un sistema profondamente integrato con la piattaforma X, e questa integrazione opera su più livelli.

    Training sui dati di X

    Grok viene addestrato sui post di X con un opt-in automatico attivato di default, senza informare gli utenti. L’impostazione è nascosta nelle opzioni di privacy e disattivabile solo da desktop.

    Secondo le policy della piattaforma, X può “utilizzare post, interazioni utente, input e risultati con Grok per training e fine-tuning, condividendoli con xAI”.

    Accesso in tempo reale

    Grok integra le API di X, processa nuovi tweet via WebSocket per aggiornamenti istantanei, non batch processing. Usa endpoint come GET /2/tweets/search/stream, GET /2/tweets/sample/stream, GET /2/trends/place.

    L’algoritmo di X determina quali contenuti hanno visibilità sulla piattaforma, e quindi quali dati alimentano Grok. In virtù di questo accordo, l’intelligenza artificiale Grok entra nel Pentagono con accesso diretto a quei flussi.

    Un cortocircuito epistemologico

    Un’analisi di Archyde coglie un punto da evidenziare: “L’obiettivo dichiarato, maggiore efficienza, sembra sottostimato. Il vero potenziale risiede nella capacità di elaborare e analizzare vasti dataset, identificando pattern e minacce che sarebbero impossibili da rilevare per gli analisti umani.

    Fermiamoci su questo passaggio. Dunque, il Pentagono userà un’IA per identificare minacce basandosi su dati provenienti da una piattaforma il cui algoritmo è progettato non per rappresentare la realtà, ma per massimizzare l’engagement.

    E quello stesso algoritmo è controllato dalla stessa persona che controlla l’IA.

    Non è solo un conflitto di interessi. È una struttura in cui la percezione della realtà dell’apparato militare più potente del mondo passa attraverso un filtro privato, opaco, potenzialmente manipolato.

    I “vasti dataset” menzionati sono in realtà contenuti di X già filtrati dall’algoritmo. I “pattern” identificati saranno pattern di una realtà distorta, se l’algoritmo amplifica certi contenuti e ne sopprime altri. Le “minacce” vengono definite secondo criteri incorporati nel modello. Chi li ha stabiliti? Con quali bias? Con quale trasparenza?

    Accordo xAI Pentagono, Grook entra nei sistemi militari USA
    Accordo xAI Pentagono, Grook entra nei sistemi militari USA

    Altri precedenti problematici

    La senatrice Warren ha sollevato preoccupazioni specifiche nella sua lettera al Pentagono. Musk ha promosso Grok come chatbot “non filtrato” e orientato alla “ricerca della verità” (truth-seeking) che non si conforma agli standard politicamente corretti.

    Ma Grok è noto per fornire informazioni inaccurate quando interrogato su eventi storici e disastri naturali, inclusi nomi, date e dettagli sbagliati.

    Giorni dopo che Musk aveva dichiarato sui social “miglioramenti significativi” al chatbot, Grok si autodefiniva “MechaHitler” e raccomandava un secondo Olocausto ad account neonazisti. La mancanza di filtri di sicurezza ha prodotto contenuti antisemiti e offensivi. Come ha osservato un esperto di sicurezza: “X è piena di fake news e visioni estremiste, non è ciò su cui vuoi che un LLM sia addestrato.”

    E questa è l’IA che ora avrà accesso ai flussi informativi del Pentagono per fornire “consapevolezza situazionale globale”.

    Le domande che resteranno senza risposta

    Chi garantisce che i dati di X usati da Grok rappresentino una visione equilibrata della realtà e non una versione amplificata algoritmicamente? Chi verifica che i modelli e le minacce identificate non riflettano i bias del sistema di training?

    Come viene gestito il conflitto di interessi di Musk, che con Starlink in zone di conflitto, SpaceX con contratti governativi, e ora un’IA che potrebbe influenzare le valutazioni di sicurezza nazionale su questi stessi dossier?

    E per i partner NATO? L’intelligence condivisa con gli Stati Uniti passerà attraverso sistemi integrati con l’IA di Musk? Con quale trasparenza? E con quali garanzie?

    Dall’algoritmo del proprietario all’IA del proprietario

    Ho scritto spesso di come l’”algoritmo del proprietario” serva gli obiettivi strategici di chi controlla la piattaforma, non gli interessi degli utenti. Ma qui siamo a un livello successivo.

    Non si tratta più solo di un algoritmo in mani private. È un’intera catena gestita da un singolo a servizio, ora, di apparati governativi.

    X come piattaforma che genera flussi informativi globali in tempo reale, xAI e Grok come IA che processa e interpreta quei flussi, Starlink come infrastruttura di connettività anche in zone di conflitto. E ora l’integrazione diretta con l’apparato militare degli Stati Uniti.

    È una forma di potere inedita: non statale, non puramente privata. Qualcosa di nuovo per cui forse non esiste ancora un nome adeguato.

    Cosa significa tutto questo per l’Europa

    L’Europa non ha equivalenti di X, xAI o Starlink. Questa asimmetria nell’infrastruttura cognitiva è un tema che diventerà sempre più urgente.

    Non stiamo parlando solo di disinformazione o manipolazione elettorale. Stiamo parlando della possibilità che la percezione della realtà dell’apparato militare più potente del mondo sia mediata da un’infrastruttura privata, poco chiara, controllata da un singolo individuo con interessi economici e politici globali.

    È un tema che richiederà analisi approfondite nei prossimi mesi. Perché quando l’IA non è più solo uno strumento ma diventa il filtro attraverso cui un’istituzione percepisce la realtà, le implicazioni vanno ben oltre l’”efficienza operativa”.

  • TikTok US, ora c’è la firma: il 22 gennaio 2026 sarà operativa

    TikTok US, ora c’è la firma: il 22 gennaio 2026 sarà operativa

    TikTok US prenderà il via il prossimo 22 gennaio 2026. ByteDance e TikTok hanno firmato gli accordi vincolanti per la joint venture americana. Oracle avrà un ruolo cruciale, con accesso all’algoritmo.

    La firma dell’accordo è finalmente arrivata. ByteDance e TikTok hanno firmato, giovedì 18 dicembre 2025, gli accordi vincolanti per la creazione di TikTok US.

    A comunicarlo è stato il CEO Shou Chew in un memo interno ai dipendenti, confermato da diverse testate internazionali.

    Dopo mesi di trattative, proroghe e tensioni diplomatiche tra Washington e Pechino, la piattaforma video più discussa degli ultimi anni entra in una nuova fase. Quella definitiva, almeno sulla carta, relativamente agli Usa ricordiamolo.

    L’accordo segue l’ordine esecutivo firmato da Donald Trump nel settembre scorso, che aveva delineato la struttura della nuova entità americana. Adesso quella struttura ha una data di chiusura prevista per il 22 gennaio 2026.

    TikTok US, la struttura della joint venture

    La nuova entità si chiamerà TikTok USDS Joint Venture LLC. La governance sarà affidata a un consiglio di amministrazione composto da sette membri, a maggioranza americana.

    Sul fronte della proprietà, il consorzio di investitori americani deterrà il 50% della nuova società. Oracle, Silver Lake e MGX, il fondo degli Emirati Arabi, controlleranno ciascuno il 15%. Gli affiliati degli attuali investitori di ByteDance manterranno circa il 30,1%, mentre ByteDance conserverà una quota del 19,9%.

    Il valore complessivo dell’operazione è stimato in circa 14 miliardi di dollari. Una cifra che riflette il peso di TikTok nel mercato americano, dove la piattaforma conta oltre 170 milioni di utenti.

    TikTok US, ora c'è la firma: il 22 gennaio 2026 sarà operativa
    TikTok US, ora c’è la firma: il 22 gennaio 2026 sarà operativa

    Il ruolo di Oracle e la sicurezza dei dati

    Come già ricordato, Oracle assume un ruolo centrale nell’operazione. La società di Larry Ellison, storico sostenitore di Trump, diventa il trusted security partner responsabile dell’audit e della certificazione della conformità ai termini di sicurezza nazionale.

    La joint venture americana sarà responsabile della protezione dei dati degli utenti statunitensi, della sicurezza dell’algoritmo, della moderazione dei contenuti e della garanzia software. Oracle supervisionerà lo storage delle informazioni degli americani, in linea con quanto annunciato dalla Casa Bianca nei mesi scorsi.

    Un passaggio cruciale riguarda l’algoritmo di raccomandazione. La nuova entità dovrà riallenare l’algoritmo sui dati degli utenti americani per garantire che il feed dei contenuti sia libero da manipolazioni esterne. Questo è il cuore della questione sicurezza che ha animato l’intero dibattito su TikTok negli Stati Uniti.

    Le criticità che restano aperte

    Non mancano le perplessità. Molti esperti ed osservatori hanno osservato che l’accordo non interrompe completamente i legami con ByteDance. Secondo queste voci, la struttura somiglia più a un accordo di franchising che lascia la tecnologia core in Cina, piuttosto che a una vera dismissione.

    La legge approvata dal Congresso nel 2024 richiedeva una separazione netta tra TikTok US e ByteDance.

    La struttura negoziata dall’amministrazione Trump sembra aggirare questo requisito, mantenendo ByteDance come licenziante dell’algoritmo e gestore delle attività commerciali globali, inclusi e-commerce, advertising e marketing sulla piattaforma americana.

    Dalla Cina ancora non è stato espresso un comunicato ufficiale sull’approvazione della transazione. Un passaggio non scontato, considerando che Pechino aveva posto il veto alla cessione dell’algoritmo già nel 2020.

    TikTok US e l’algoritmo del proprietario

    Come ho già osservato in passato, siamo di fronte a un altro caso di quello che definisco algoritmo del proprietario. L’accesso di Oracle al codice sorgente di TikTok apre scenari inediti sulla possibilità di modellare l’algoritmo di raccomandazione secondo gli interessi dei nuovi proprietari.

    X, sotto la gestione di Elon Musk, ha già dimostrato come la proprietà di una piattaforma possa influenzarne profondamente i meccanismi di distribuzione dei contenuti. Con TikTok US la dinamica sarà diversa, ma l’accesso privilegiato all’algoritmo da parte di soggetti vicini al governo americano solleva interrogativi legittimi.

    La fine di una storia iniziata nel 2020

    La firma degli accordi segna la conclusione di una saga iniziata nel 2020, quando la prima amministrazione Trump aveva tentato di vietare TikTok con un ordine esecutivo poi annullato da Biden.

    La legge bipartisan del 2024 ha riportato la questione al centro dell’agenda politica, costringendo ByteDance a trovare una soluzione per mantenere la piattaforma operativa negli Stati Uniti.

    Un compromesso che non accontenta tutti

    Il risultato è un compromesso che soddisfa parzialmente entrambe le parti. Gli Stati Uniti ottengono il controllo formale sulla piattaforma e sui dati degli utenti americani. ByteDance mantiene una presenza, seppur minoritaria, e continua a licenziare la tecnologia che ha reso TikTok un fenomeno globale.

    La domanda resta la stessa di settembre.

    Quanto durerà l’equilibrio trovato? In poco più di un mese, anche se c’è la firma, tutto ancora potrebbe succedere.

    La firma dell’accordo resta comunque un punto di non ritorno nella storia di TikTok. E resta un capitolo importante nella storia delle piattaforme digitali alla voce “Sovranità digitale”.

  • Operation Bluebird e il possibile ritorno di Twitter

    Operation Bluebird e il possibile ritorno di Twitter

    Operation Bluebird, startup guidata dall’ex responsabile marchi di Twitter, ha chiesto all’USPTO di cancellare i marchi Twitter e tweet da X Corp per rilanciare la piattaforma con twitter.new.

    È una di quelle notizie che, a prima lettura, sembra quasi paradossale. Ma sicuramente mette di buonumore i tanti nostalgici che dal 2022 sperano in un ritorno.

    Negli anni abbiamo assistito a piattaforme che hanno segnato il tempo, poi scomparse quando gli algoritmi sono diventati più importanti degli utenti. E ora si torna a parlare di Twitter, mai del tutto dimenticato.

    Eppure è tutto vero, e la base legale su cui poggia è tutt’altro che trascurabile.

    Operation Bluebird, una startup con sede in Virginia, ha presentato lo scorso 2 dicembre 2025 una petizione formale all’U.S. Patent and Trademark Office (USPTO) per chiedere la cancellazione dei marchi registrati “Twitter” e “tweet“, attualmente detenuti da X Corp, la società di Elon Musk.

    L’obiettivo è quello di utilizzare quei marchi per lanciare una nuova piattaforma social, chiamata twitter.new, che intende riportare in vita lo spirito originario della “piazza pubblica digitale” che Twitter rappresentava prima dell’acquisizione da parte di Musk nel 2022.

    Operation Bluebird e il possibile ritorno di Twitter
    Operation Bluebird e il possibile ritorno di Twitter

    Chi c’è dietro Operation Bluebird

    La startup non è guidata da improvvisati. Anzi, il team legale conosce molto bene il terreno ispido su cui si muove.

    Stephen Jadie Coates, general counsel di Operation Bluebird, è stato Associate Director for Trademarks, Domain Names and Marketing di Twitter dal 2014 al 2016. È stato lui, di fatto, il primo responsabile marchi assunto dall’azienda, colui che ha costruito da zero la strategia di protezione del brand Twitter. Conosce ogni sfumatura legale di quei marchi perché li ha gestiti in prima persona.

    Al suo fianco c’è Michael Peroff, fondatore di Operation Bluebird, avvocato specializzato in proprietà intellettuale e protezione dei marchi con base nell’Illinois e quasi 15 anni di esperienza nel settore.

    Non si tratta quindi di un tentativo opportunistico di qualche sconosciuto. Chi sta dietro questa operazione ha le competenze tecniche per comprendere esattamente cosa sta facendo e quali sono le probabilità di successo.

    L’argomento legale: l’abbandono del marchio

    La petizione di Operation Bluebird si basa su un principio cardine del diritto dei marchi statunitense. In buona sostanza: se non usi un marchio commercialmente, rischi di perderlo.

    Il Lanham Act (15 U.S.C. § 1127) stabilisce infatti che un marchio si considera “abbandonato” quando il suo uso è stato interrotto con l’intenzione di non riprenderlo.

    Secondo la normativa americana, tre anni consecutivi di non utilizzo creano una presunzione di abbandono. E qui i fatti sono abbastanza chiari:

    • Il logo del celebre uccellino blu (internamente chiamato “Larry Bird”) è stato completamente rimosso.
    • La piattaforma è stata ribattezzata X, con conseguente migrazione dell’interfaccia e del branding.
    • Il 17 maggio 2024, X Corp ha completato l’integrazione finale, reindirizzando definitivamente twitter.com verso x.com.
    • Il termine “tweet” è stato sostituito con “post” in tutta l’interfaccia e nelle comunicazioni ufficiali.

    Come ha dichiarato Coates a Reuters: “X ha abbandonato legalmente il marchio TWITTER“. La questione, secondo lui, è “straightforward”, lineare.

    Il paradosso del rinnovo del 2023

    Un elemento interessante della vicenda riguarda il fatto che X Corp ha effettivamente rinnovato la registrazione del marchio Twitter nel 2023. Ma quel rinnovo è stato approvato mentre l’azienda stava attivamente eliminando ogni traccia del brand dai propri prodotti e servizi.

    Come osservato da esperti di proprietà intellettuale, questa situazione crea un paradosso. Infatti, rinnovare un marchio che si sta pubblicamente demolendo è un po’ come “rinnovare l’abbonamento alla palestra mentre la stai demolendo”.

    Il semplice rinnovo burocratico, in assenza di un uso commerciale effettivo, potrebbe non bastare a proteggere il marchio. Altri esperti, come Mark Lemley, professore di diritto a Stanford ed esperto di diritto dei brand, sostiene che “un uso meramente simbolico non basta a preservare il marchio”.

    Interfaccia twitter.new
    Interfaccia twitter.new

    Il progetto twitter.new

    Operation Bluebird non si limita a chiedere la cancellazione dei marchi. Nei fatti, ha già presentato una domanda di registrazione per “Twitter” e sta costruendo una piattaforma alternativa.

    Sul sito twitter.new è già possibile riservare il proprio username in vista del lancio, previsto potenzialmente per la fine del 2026.

    Il messaggio sulla homepage è programmatico: “The public square is broken, but we still believe in it. One brand tried to fix it, then burned it all down. We are bringing it back – this time with trust” – La piazza pubblica è rotta, ma ci crediamo ancora. Un brand ha provato a sistemarla, poi ha dato fuoco a tutto. La stiamo riportando in vita – questa volta con fiducia.

    Come ha spiegato Peroff ad Ars Technica, l’obiettivo non è solo rilanciare un nome: “Esistono certamente alternative come Threads, Mastodon e Bluesky, ma nessuna ha raggiunto la scala o il riconoscimento del brand che Twitter aveva prima dell’acquisizione di Musk“.

    Ha aggiunto Coates: “Ricordo quando celebrity reagivano ai miei contenuti su Twitter durante il Super Bowl o altri eventi. Vogliamo che quell’esperienza torni, quella piazza pubblica dove tutti eravamo coinvolti insieme“.

    Quali gli scenari che si aprono

    La petizione di Operation Bluebird apre scenari legali interessanti e pone X Corp di fronte a un dilemma strategico. X Corp ha tempo fino ai primi di febbraio 2026 per presentare una risposta formale alla petizione di cancellazione.

    Se X decidesse di difendere i marchi, dovrà dimostrare di utilizzarli ancora commercialmente o di avere intenzione di riprenderne l’uso. Ma questo contraddirebbe le dichiarazioni pubbliche di Musk e le azioni concrete dell’azienda negli ultimi due anni. Difendere un brand che hai pubblicamente “annullato” creerebbe inoltre un paradosso enorme: se Twitter ha ancora valore, perché l’hai abbandonato?

    Se X non difendesse i marchi, Operation Bluebird potrebbe appropriarsi di uno dei nomi più riconoscibili nella storia dei social media. Un brand costruito in oltre 15 anni passerebbe nelle mani di una startup. Per ricominciare a volare.

    C’è però un terzo elemento da considerare. Anche in caso di cancellazione dei marchi registrati, X Corp potrebbe comunque citare in giudizio Operation Bluebird per violazione di marchio basandosi sul concetto di “residual goodwill” (avviamento residuo).

    La domanda che tutti gli esperti, e non solo, si fanno in questo momento: “Ma davvero Musk spenderebbe milioni di dollari per proteggere un brand che ha deliberatamente gettato nella spazzatura?“. In effetti, Operation Bluebird sta scommettendo che la risposta sia no.

    Gli utenti legati ancora a Twitter

    Già a settembre 2023, a pochi mesi dal rebranding, avevo riportato come il 69% degli utenti americani continuasse a chiamare la piattaforma ‘Twitter’.

    Inoltre, i dati più recenti confermano la stessa tendenza.

    Secondo un’analisi di Omnisend su oltre 14.500 email di marketing (luglio 2024), l’89% dei brand a livello globale – con punte del 95% in Italia – continua a riferirsi alla piattaforma con il vecchio nome.

    E secondo YouGov (2024), il 55% degli utenti giornalieri americani la chiama ancora Twitter. Il brand costruito in 17 anni non si cancella con un cambio di logo.

    Le implicazioni più ampie

    Al di là dell’esito specifico di questa controversia del tutto inattesa, il caso Operation Bluebird solleva questioni rilevanti per il mondo corporate e per chiunque si occupi di brand management.

    In primo luogo, evidenzia i rischi di un rebranding totale senza una chiara strategia di gestione dei marchi legacy. Le aziende che cambiano radicalmente identità devono decidere se difendere formalmente i vecchi marchi, cederli in modo controllato, o accettare che possano essere reclamati da altri.

    In secondo luogo, il caso dimostra che marchi iconici non sono immuni dall’abbandono legale. Anche un nome riconosciuto globalmente come Twitter può diventare vulnerabile se il proprietario smette di utilizzarlo in modo sostanziale.

    Infine, la vicenda rappresenta un interessante precedente su come le decisioni di un singolo proprietario possano alterare radicalmente il destino di asset intangibili dal valore inestimabile.

    Musk ha pagato 44 miliardi di dollari per Twitter nel 2022; ma ora qualcun altro potrebbe ottenere il diritto di usare quel nome attraverso una petizione legale.

    Per chiudere, la vicenda Operation Bluebird rappresenta qualcosa di più di una vicenda legale. È un caso che potrebbe stabilire, intanto, un precedente significativo su come le aziende tech gestiscono (o non gestiscono) i propri asset di brand durante processi di rebranding radicale.

    E se tutto dovesse andare bene, permetterebbe all’uccellino blu di tornare a volare. Senza che ci sia di mezzo Elon Musk.