Categoria: Intelligenza Artificiale

In questa categoria troverete articoli su Intelligenza Artificiale e Machine Learning, soprattutto su come queste tecnologie stanno evolvendosi, con esempi concreti

  • Il DPC irlandese indaga sulle immagini di deepfake pubblicate su X

    Il DPC irlandese indaga sulle immagini di deepfake pubblicate su X

    Il DPC irlandese avvia un’indagine su Grok per immagini sessualizzate non consensuali, ai sensi del GDPR. È il terzo fronte regolatorio UE contro X, che rischia sanzioni fino al 4% del fatturato globale.

    Il Data Protection Commission (DPC) irlandese ha notificato a X l’avvio di un’indagine formale su Grok, la IA integrata sulla piattaforma. L’oggetto dell’inchiesta è verificare se il trattamento dei dati personali da parte del chatbot di xAI viola il GDPR, il regolamento europeo sulla protezione dei dati.

    Ma il contesto è più ampio e riguarda ik problema che ho raccontato anche qui nelle scorse settimane. E riguarda la capacità di Grok di generare immagini sessualizzate di persone reali, soprattutto donne e minori.

    Graham Doyle, vice commissario del DPC, ha spiegato che l’autorità sta interagendo con X Internet Unlimited Company (XIUC), la società irlandese che gestisce le operazioni europee della piattaforma di Elon Musk, da quando sono emersi i primi report sulla possibilità di usare l’account @Grok su X per generare questo tipo di contenuti. E ora si passa dalle interlocuzioni informali a un’indagine strutturata.

    Perché l’Irlanda è al centro di tutto

    Il DPC irlandese è il regolatore principale per X in tutta l’Unione Europea, perché le operazioni europee dell’azienda hanno sede a Dublino. Questo significa che l’indagine irlandese ha valore per tutti i 27 stati membri dell’UE e per lo Spazio Economico Europeo.

    Le sanzioni potenziali posso arrivare fino al 4% del fatturato globale dell’azienda. Per un’azienda delle dimensioni di X, parliamo di cifre nell’ordine di centinaia di milioni di euro.

    Ma c’è un aspetto che rende questa indagine particolarmente rilevante. Il DPC ha avviato quella che definisce una “large-scale inquiry”, un’indagine su larga scala che esaminerà la conformità di X agli obblighi fondamentali del GDPR: i principi del trattamento dati; la liceità del trattamento; la protezione dei dati fin dalla progettazione e per impostazione predefinita; e l’obbligo di condurre una valutazione d’impatto sulla protezione dei dati.

    Il DPC irlandese indaga sulle immagini di nudo pubblicate su X
    Il DPC irlandese indaga sulle immagini di nudo pubblicate su X

    Grok e il terzo fronte europeo

    L’indagine del DPC si aggiunge a due procedimenti già aperti. Il 26 gennaio la Commissione Europea ha avviato un’indagine per verificare se Grok diffonde contenuti illegali ai sensi del Digital Services Act.

    E il 3 febbraio l’autorità britannica per la privacy, l’ICO, ha aperto un’indagine analoga a quella irlandese, sempre focalizzata sul GDPR e sulla generazione di immagini sessualizzate.

    Tre indagini diverse, tre autorità diverse, ma tutte puntate sullo stesso problema: un chatbot che genera immagini di nudo non consensuali senza filtri efficaci.

    Grok e cosa è successo a gennaio

    Per capire il contesto di questa indagine bisogna tornare a quanto accaduto nelle prime settimane del 2026.

    Come già ricordato, a fine 2025 X ha rilasciato la possibilità delle modifiche delle immagini direttamente nei post pubblici, quindi visibili a tutti.

    A distanza di pochi giorni, a gennaio, Grok ha iniziato a generare immagini sessualizzate su richiesta degli utenti in modo massiccio. Un’inchiesta riportata anche da Bloomberg ha quantificato il fenomeno: circa 6.700 immagini sessualizzate all’ora, 84 volte più dei principali siti dedicati ai deepfake. L’85% delle immagini prodotte da Grok era classificabile come contenuto sessualizzato.

    Le storie delle vittime hanno fatto il giro dei media internazionali.

    Donne che si ritrovavano versioni nude delle proprie foto pubblicate su X, senza aver dato alcun consenso e senza strumenti efficaci per rimuoverle. Una di loro aveva pubblicato una foto con il fidanzato in un bar: due sconosciuti l’hanno modificata usando Grok, prima mettendola in bikini, poi sostituendo il bikini con un filo interdentale. Ha segnalato le immagini a X. Non ha mai ricevuto risposta.

    X, in risposta al fenomeno dilagante, ha poi annunciato alcune restrizioni, limitando la generazione di immagini agli abbonati paganti. Ma le verifiche condotte da Reuters all’inizio di questo mese hanno dimostrato che Grok continuava a produrre immagini sessualizzate quando sollecitato.

    La differenza tra DSA e GDPR

    L’indagine della Commissione Europea si muove sul binario del Digital Services Act, il regolamento che disciplina i contenuti online e la moderazione delle piattaforme. È lo stesso regolamento che a dicembre 2025 ha portato a una multa di 120 milioni di euro contro X per la questione delle spunte blu ingannevoli.

    L’indagine del DPC irlandese si muove invece sul binario del GDPR, che riguarda specificamente la protezione dei dati personali. Sono due strumenti diversi, con logiche diverse e sanzioni diverse. E X rischia, appunto, su entrambi i fronti.

    Il GDPR richiede che il trattamento dei dati personali sia lecito, corretto e trasparente. Richiede che i dati siano raccolti per finalità determinate e trattati in modo compatibile con quelle finalità.

    Richiede una valutazione d’impatto quando il trattamento può comportare rischi elevati per i diritti delle persone. Generare immagini sessualizzate di persone reali senza il loro consenso, infatti, solleva questioni su tutti questi punti.

    La risposta di Musk e le tensioni con l’UE

    La posizione di Elon Musk e della sua amministrazione sulle regolamentazioni UE è nota. Musk ha espresso più volte le sue obiezioni alle norme UE sui contenuti online. L’amministrazione Trump ha descritto le multe imposte alle aziende tecnologiche americane come una forma di tassazione.

    Ma le autorità UE non sembrano intenzionate a fare passi indietro. La Commissione ha già ordinato a X di conservare tutti i documenti relativi a Grok fino alla fine del 2026. È un segnale, come ricordato, che indica la costruzione di un dossier per eventuali azioni future.

    Cosa c’è da aspettarsi

    L’indagine del DPC richiederà tempo, settimane o mesi. Ma il fatto che si sia passati da interlocuzioni informali a un procedimento formale indica che il DPC ha ritenuto insufficienti le risposte di X alle prime sollecitazioni.

    Nel frattempo, negli Stati Uniti il Take It Down Act prevede che le piattaforme si adeguino entro maggio 2026. È una legge che riguarda specificamente la rimozione di immagini intime non consensuali, incluse quelle generate dall’intelligenza artificiale.

    Il Take It Down Act (approvato negli USA a maggio 2025) è una legge federale statunitense che obbliga le piattaforme online a rimuovere immagini e video intimi non consensuali (inclusi deepfake e revenge porn) entro 48 ore dalla segnalazione, garantendo una maggiore protezione delle vittime di abusi digitali e pornografia generata da IA.

    X si trova quindi sotto pressione su più fronti: UE, Regno Unito, Stati Uniti.

    E al centro di tutto c’è Grok, il chatbot che Musk ha promosso come più divertente e irriverente degli altri. Quella irriverenza, però, rischia di costare molto cara.

  • L’UE accusa Meta di abuso di posizione dominante su WhatsApp

    L’UE accusa Meta di abuso di posizione dominante su WhatsApp

    La Commissione UE contesta a Meta l’esclusione dei chatbot AI concorrenti da WhatsApp e prepara misure provvisorie per evitare danni irreparabili al mercato degli assistenti di intelligenza artificiale in UE.

    La Commissione Europea ha inviato oggi, 9 febbraio 2026, una comunicazione formale a Meta Platforms, contestando formalmente la violazione delle norme antitrust dell’Unione Europea.

    Al centro della vicenda c’è la decisione di Meta di escludere da WhatsApp tutti gli assistenti di intelligenza artificiale concorrenti di Meta AI, il proprio servizio proprietario.

    Con questa comunicazione, la Commissione intende imporre misure provvisorie per evitare quelli che definisce “danni gravi e irreparabili al mercato”.

    Ma come si è arrivati fin qui? Per capirlo bisogna fare un passo indietro di qualche mese.

    Cosa ha fatto Meta e perché l’UE si è mossa

    Nell’ottobre 2025, Meta ha annunciato un aggiornamento dei termini della WhatsApp Business Solution, il sistema attraverso cui le aziende comunicano con i propri clienti sulla piattaforma di messaggistica.

    La modifica, in sostanza, ha introdotto un divieto per i fornitori di intelligenza artificiale di utilizzare le API di WhatsApp Business quando l’AI rappresenta il servizio principale offerto.

    Per le imprese già presenti sulla piattaforma, la nuova regola è diventata pienamente operativa dal 15 gennaio 2026. Per i nuovi ingressi, il divieto era già in vigore dal 15 ottobre 2025.

    Il risultato concreto è che dal 15 gennaio 2026 l’unico assistente AI disponibile su WhatsApp nello Spazio economico europeo è Meta AI.

    Servizi come ChatGPT di OpenAI, Copilot di Microsoft, Perplexity e la startup spagnola Luzia, che conta oltre 85 milioni di utenti a livello globale, si sono trovati esclusi dal canale.

    E qui sta il punto critico rilevato dalla Commissione, perché l’azienda non ha vietato ogni forma di AI sulla piattaforma. Le imprese possono ancora usare strumenti di intelligenza artificiale per funzioni di supporto, come l’assistenza clienti automatizzata.

    Ciò che è stato eliminato è la possibilità per i chatbot generalisti di terze parti di raggiungere gli utenti attraverso WhatsApp.

    L'UE accusa Meta di abuso di posizione dominante su WhatsApp
    L’UE accusa Meta di abuso di posizione dominante su WhatsApp

    La posizione della Commissione Europea

    Nella comunicazione a Meta, la Commissione ha espresso la propria opinione preliminare secondo cui la condotta dell’azienda sembra, a prima vista, come ricordato in apertura, violare le norme antitrust dell’UE.

    Bruxelles ha concluso in via preliminare che è probabile che Meta occupi una posizione dominante nel mercato delle applicazioni di comunicazione per consumatori nello Spazio economico europeo, in particolare tramite WhatsApp. Una piattaforma che conta oltre 2 miliardi di utenti a livello globale e che solo in Italia raggiunge circa 37 milioni di utenti attivi mensili, pari a circa il 90% della popolazione connessa.

    La Commissione ritiene che WhatsApp rappresenti in questa fase “un importante punto di ingresso” per consentire agli assistenti AI generici di raggiungere i consumatori. E la condotta di Meta, sempre secondo la Commissione, “rischia di innalzare barriere all’ingresso e all’espansione, e di marginalizzare irreparabilmente i concorrenti più piccoli sul mercato degli assistenti di intelligenza artificiale generici“.

    La vicepresidente esecutiva Teresa Ribera, responsabile della Concorrenza, ha dichiarato che non si può permettere alle grandi aziende tecnologiche “di sfruttare illegalmente la propria posizione dominante per ottenere un vantaggio sleale” e che i mercati dell’AI si stanno sviluppando a ritmo accelerato, motivo per cui anche l’azione regolatoria deve essere altrettanto rapida.

    Misure provvisorie e il precedente italiano

    La Commissione intende imporre misure provvisorie che obbligherebbero Meta a mantenere l’accesso degli assistenti AI di terze parti a WhatsApp alle condizioni precedenti la modifica contrattuale dell’ottobre 2025, e quindi a ripristinare lo status quo ante mentre l’indagine prosegue.

    Si tratta di uno strumento che l’esecutivo comunitario può adottare d’ufficio a indagine in corso, a titolo precauzionale. Meta ha ora la possibilità di rispondere alle obiezioni della Commissione e di chiedere un confronto.

    Se al termine di questa fase i servizi dell’esecutivo dovessero concludere che sussistono le condizioni necessarie, la Commissione UE potrà adottare una decisione vincolante.

    Va detto che l’Italia ha giocato d’anticipo su questa vicenda.

    L’Autorità Garante della Concorrenza e del Mercato (AGCM) aveva già avviato un’istruttoria a luglio 2025 per possibile abuso di posizione dominante legato alla pre-installazione di Meta AI su WhatsApp. A novembre 2025 l’indagine è stata ampliata per includere i nuovi termini contrattuali e, il 22 dicembre 2025, l’AGCM ha imposto a Meta misure cautelari, ordinando la sospensione immediata dei WhatsApp Business Solution Terms sul territorio italiano.

    Non a caso, l’indagine formale della Commissione Europea copre l’intero Spazio economico europeo a eccezione dell’Italia, proprio per evitare sovrapposizioni con il procedimento nazionale. Le due autorità stanno lavorando in coordinamento.

    L'UE accusa Meta di abuso di posizione dominante su WhatsApp
    L’UE accusa Meta di abuso di posizione dominante su WhatsApp

    La posizione di Meta

    Meta ha respinto le contestazioni in modo deciso. Un portavoce dell’azienda ha affermato che non esiste motivo per l’intervento dell’UE, perché le opzioni per accedere ai servizi AI sono numerose: app store, sistemi operativi, siti web, partnership industriali.

    La logica della Commissione, secondo Meta, “presuppone erroneamente che la WhatsApp Business API sia un canale di distribuzione chiave per questi chatbot”.

    Già a dicembre, in risposta all’intervento dell’Antitrust italiano, WhatsApp aveva definito la decisione “fondamentalmente viziata, sostenendo che la propria API non è stata progettata per supportare la distribuzione di chatbot AI di terze parti e che l’emergere di questi servizi sulle Business API aveva messo sotto pressione sistemi non concepiti per tale utilizzo.

    Una vicenda che riguarda i confini della IA

    Quello che si sta delineando tra Bruxelles e Meta va oltre la singola disputa commerciale. Si tratta di un caso che definirà i confini entro cui le grandi piattaforme digitali potranno integrare i propri servizi di intelligenza artificiale nei propri ecosistemi, senza escludere la concorrenza.

    Il mercato dell’AI generativa nell’Unione Europea, secondo i dati citati dall’AGCM, valeva circa 4,4 miliardi di dollari nel 2024, è cresciuto a 7,3 miliardi nel 2025 e si stima possa raggiungere gli 11,7 miliardi nel 2026.

    Siamo ancora in una fase iniziale, ma la velocità di crescita è tale che le scelte regolatorie compiute oggi avranno effetti strutturali nel medio e lungo periodo.

    Può una piattaforma di messaggistica con oltre 2 miliardi di utenti, che viene utilizzata quotidianamente per comunicazioni personali e professionali, trasformarsi in un canale di distribuzione esclusivo per il servizio AI del suo proprietario?

    Secondo la Commissione Europea e l’Antitrust italiano la risposta è no, perché una scelta del genere rischia di cristallizzare il mercato attorno a pochi operatori dominanti prima ancora che la competizione possa dispiegarsi sui meriti.

    Potrebbe essere un precedente per tutto il settore IA

    Se il provvedimento dovesse essere confermato, si consoliderebbe un precedente rilevante per l’intero ecosistema digitale europeo.

    La competizione nei mercati dell’intelligenza artificiale non potrà più essere condotta sfruttando asimmetrie di accesso agli utenti e ai dati, ma dovrà fondarsi sulla qualità dei servizi offerti.

    Un principio che, se affermato, contribuirebbe a mantenere aperti e contendibili mercati che, senza intervento, rischiano di chiudersi rapidamente.

    In caso di violazione accertata delle norme antitrust, Meta rischia una sanzione fino al 10% del fatturato annuo globale. Stiamo parlando di una cifra che si aggira attorno ai 20 miliardi di euro, sarebbe quindi la multa più alta mai comminata. E, inoltre, finirebbe per rendere ancora più aspre le relazioni Usa-UE di quanto non lo siano oggi.

    Ma al di là delle cifre, la posta in gioco è il modello stesso di regolazione della concorrenza nell’era dell’intelligenza artificiale. E l’UE, ancora una volta, si propone come il regolatore di riferimento.

  • SpaceX acquisisce xAI, nasce un colosso da 1,25 trilioni di dollari

    SpaceX acquisisce xAI, nasce un colosso da 1,25 trilioni di dollari

    SpaceX assorbe xAI creando un colosso privato da 1,25 trilioni di dollari. Un’operazione che intreccia spazio, AI, piattaforme e istituzioni, ponendo interrogativi su potere, controllo e supervisione.

    SpaceX ha annunciato l’acquisizione di xAI. Non si tratta della solita operazione tra startup della Silicon Valley, ma è qualcosa di diverso. SpaceX, l’azienda che ha rivoluzionato il settore spaziale con i razzi riutilizzabili e che oggi domina il mercato dei lanci orbitali, ha assorbito xAI, la società di intelligenza artificiale che controlla anche X, l’ex Twitter. Il risultato è un’entità privata dal valore stimato di 1,25 trilioni di dollari, destinata a diventare la più grande azienda privata al mondo.

    Elon Musk ha commentato l’operazione parlando di “il motore di innovazione più ambizioso e verticalmente integrato sulla Terra (e fuori)”, un motore di innovazione che combina AI, razzi, internet satellitare e quella che lui definisce “la piattaforma di informazione in tempo reale e libertà di parola più importante al mondo“, cioè X.

    Ma dietro la retorica della visione di Musk, ci sono numeri e fatti che ci mostrano una storia più complessa.

    SpaceX e xAI, i numeri dell’operazione

    SpaceX era stata valutata circa 800 miliardi di dollari nell’ultima vendita secondaria di azioni, a dicembre 2025. xAI aveva raggiunto i 230 miliardi nel round di finanziamento da 20 miliardi chiuso a gennaio 2026, con investitori come Nvidia, Fidelity, il Qatar Investment Authority e il fondo di Abu Dhabi MGX.

    La valutazione combinata dell’entità post-fusione è stimata a 1,25 trilioni di dollari, una cifra che incorpora le aspettative del mercato in vista dell’IPO prevista per metà giugno 2026. Se confermata, sarebbe una delle più grandi quotazioni della storia, superiore al record di Saudi Aramco del 2019.

    I dati fondamentali delle due aziende sono però molto diversi.

    SpaceX ha generato nel 2025 ricavi stimati tra 15 e 16 miliardi di dollari, con profitti intorno agli 8 miliardi secondo Reuters. Starlink conta oltre 9 milioni di clienti e più di 9.000 satelliti in orbita. È un’azienda che funziona. xAI è un’altra storia.

    Secondo quanto riporta Bloomberg, la società brucia circa un miliardo di dollari al mese. Nel terzo trimestre del 2025 ha registrato una perdita netta di 1,46 miliardi, in aumento rispetto al miliardo del primo trimestre. Nei primi nove mesi dell’anno ha consumato 7,8 miliardi di dollari in cassa. I ricavi si attestano a 107 milioni nel Q3 2025, in crescita ma lontani anni luce dai costi.

    SpaceX acquisisce xAI, nasce un colosso da 1,25 trilioni di dollari
    SpaceX acquisisce xAI, nasce un colosso da 1,25 trilioni di dollari

    I fondi QIA e MGX

    Per inciso, il Qatar Investment Authority e il fondo di Abu Dhabi MGX non sono nomi che passano inosservati.

    Il Qatar Investment Authority ha investito 375 milioni di dollari nell’acquisizione di Twitter da parte di Musk nel 2022. È coinvolto anche in xAI all’interno di un investimento, round E, da 20 miliardi.

    Il fondo di Abu Dhabi MGX detiene il 15% di TikTok US, l’app appena varata negli Usa che sostituisce TikTok. Lo stesso MGX, come il Qatar Investment Authority, ha investito anche in xAI in un round E da 20 miliardi. Ha investito anche nel consorzio che ha appena acquistato Aligned Data Centers per 40 miliardi insieme a Nvidia, Microsoft, BlackRock e xAI stessa.

    Il significato di questa acquisizione

    Per comprendere meglio cosa significa questa acquisizione bisogna ricostruire la catena di controllo.

    Nel marzo 2025, xAI ha acquisito X (ex Twitter) con un’operazione all-stock da 33 miliardi di dollari. Da quel momento, la piattaforma social e il chatbot Grok sono diventati parte della stessa entità. Ora xAI viene assorbita da SpaceX.

    Questo significa che SpaceX controlla adesso razzi e lanci orbitali, la costellazione Starlink con i suoi 9.000 satelliti, la piattaforma X con i suoi dati e il suo algoritmo, e Grok, l’intelligenza artificiale che alimenta X e che è integrata nei sistemi del Pentagono.

    Infatti, a gennaio 2026, il Dipartimento della Difesa americano ha annunciato una partnership con xAI per integrare Grok nella piattaforma governativa GenAI.mil. Il contratto, del valore di 200 milioni di dollari, prevede che circa tre milioni di dipendenti militari e civili del Penatgono abbiano accesso a Grok, con la capacità di elaborare “insight globali in tempo reale dalla piattaforma X”.

    Tesla per il momento è fuori

    La Tesla per il momento resta fuori dalla fusione, ma non è estranea alla vicenda. Il 16 gennaio 2026, Tesla ha investito 2 miliardi di dollari in xAI come parte del round Series E.

    L’investimento è stato annunciato nonostante gli azionisti Tesla avessero votato contro una proposta simile a novembre 2025. Il voto non vincolante aveva raccolto più voti favorevoli che contrari, ma le astensioni, trattate come voti negativi secondo lo statuto societario, avevano fatto fallire la proposta. Il board ha proceduto comunque.

    C’è anche una causa in corso. Alcuni azionisti Tesla hanno citato Musk per violazione dei doveri fiduciari, sostenendo che avrebbe dirottato risorse e talenti da Tesla verso xAI, un’azienda privata in cui detiene una quota di controllo maggiore. La causa era già in corso quando Tesla ha effettuato l’investimento.

    Ora quegli stessi 2 miliardi di dollari degli azionisti Tesla sono di fatto confluiti in SpaceX attraverso l’acquisizione. Gli azionisti Tesla possiedono indirettamente una piccola quota di SpaceX, senza aver mai votato per questo.

    C’è chi parla apertamente di una vera e propria operazione di salvataggio. xAI stava bruciando cassa a ritmi difficilmente sostenibili e l’ingresso nell’orbita SpaceX le garantisce l’accesso a un’azienda profittevole e, soprattutto, una possibile via d’uscita per gli investitori in vista di una futura quotazione.

    Non a caso, in molti richiamano il precedente dell’acquisizione di SolarCity da parte di Tesla nel 2016, letta allora, e ancora oggi, come un’operazione di sistema più che come una semplice scelta industriale.

    La visione dei data center orbitali

    Musk giustifica l’operazione con una visione futuristica. Nel comunicato, ha scritto che “la domanda globale di elettricità per l’AI semplicemente non può essere soddisfatta con soluzioni terrestri, nemmeno nel breve termine, senza imporre disagi alle comunità e all’ambiente”. La soluzione di cui Musk ha parlato anche al recente World Economic Forume di Davos, è spostare di data center nello spazio e alimentarli attraverso energia solare costante.

    SpaceX ha già chiesto alla FCC l’autorizzazione per lanciare fino a un milione di satelliti per questo scopo.

    Musk sostiene che “entro 2-3 anni, il modo più economico per generare AI compute sarà nello spazio”. Gli analisti sono scettici. Le sfide tecniche sono enormi, dalla latenza ai danni da radiazioni, dalla manutenzione impossibile all’obsolescenza rapida dell’hardware.

    Il punto, probabilmente, è un altro.

    Legare SpaceX alla crescente domanda di infrastruttura per l’intelligenza artificiale, con la possibilità di considerare xAI come primo grande utilizzatore interno, consente di attribuire a SpaceX una nuova cornice di valutazione e, allo stesso tempo, di iniziare a far percepire l’infrastruttura in orbita come una possibile risposta ai limiti che l’AI sta cominciando a incontrare sulla Terra.

    È una dinamica perfettamente coerente con il modo di pensare di Musk: non presentare soluzioni già compiute, ma rendere un’idea abbastanza concreta da permettere al mercato di iniziare a darle un prezzo.

    Il vero senso di questa operazione

    L’acquisizione di xAI da parte di SpaceX non è una semplice fusione tra due aziende tecnologiche. Ma è la creazione di un’entità che possiamo ben definire senza precedenti, che combina capacità spaziali, infrastruttura di comunicazione globale, piattaforma social, intelligenza artificiale e contratti governativi sensibili.

    Tutto sotto il controllo di una singola persona. Il patrimonio netto di Musk, già il più alto al mondo, supera i 670 miliardi di dollari. Con l’IPO di SpaceX, potrebbe diventare il primo trilionario della storia.

    A questo punto sorge spontaneo chiedersi che tipo di supervisione si possa esercitare su un’entità di questo tipo.

    Ricapitolando: SpaceX lancia i satelliti nello spazio, anche satelliti militari americani; Starlink fornisce connettività ovunque nel mondo, anche alle forze armate in zona di guerra; Grok, tra le altre cose, analizza dati per il Pentagono attingendo ai flussi di X; X, a sua volta, determina quali contenuti hanno visibilità per centinaia di milioni di persone.

    Tutto questo fa capo a un unico proprietario.

    Non è fantascienza, ma è realtà.

  • Meta, 2025 da record verso la superintelligenza personale

    Meta, 2025 da record verso la superintelligenza personale

    I risultati di Meta del Q4 2025 confermano la crescita delle piattaforme social, con oltre 3,5 miliardi di utenti giornalieri. Per il 2026 si prevedono investimenti fino a 135 miliardi di dollari in infrastrutture IA.

    Meta ha rilasciato i risultati finanziari del quarto trimestre e dell’intero anno fiscale 2025. Numeri che superano le aspettative degli analisti finanziari su tutti i principali indicatori.

    Ma al di là dei numeri puramente finanziari, quello che emerge dalla conference call di Mark Zuckerberg è una visione chiara e ambiziosa per il futuro dell’azienda, che passa attraverso l’intelligenza artificiale e una riorganizzazione profonda delle proprie piattaforme.

    Meta numeri del trimestre Q4 2025

    I ricavi del Q4 2025 hanno raggiunto i 59,89 miliardi di dollari, in crescita del 24% rispetto allo stesso periodo dell’anno precedente.

    L’utile netto si è attestato a 22,8 miliardi di dollari con un EPS di 8,88 dollari, superando le stime degli analisti che si fermavano a 8,23 dollari.

    Per l’intero anno fiscale 2025, Meta ha generato ricavi per 200,97 miliardi di dollari, con una crescita del 22% rispetto al 2024.

    La società ha chiuso l’anno con 81,59 miliardi di dollari in liquidità e titoli negoziabili.

    Meta, 2025 da record verso la superintelligenza personale
    Meta, 2025 da record verso la superintelligenza personale

    Le piattaforme Meta: Facebook, Instagram, WhatsApp e Threads

    Sono i numeri delle piattaforme a raccontare la storia più interessante per noi e chi legge InTime Blog.

    Meta ha chiuso il 2025 con oltre 3,5 miliardi di persone che utilizzano almeno una delle sue app ogni giorno. Facebook e WhatsApp hanno entrambe superato i 2 miliardi di utenti attivi giornalieri, mentre Instagram si attesta poco sotto questa soglia.

    Rispetto al Q4 2024, gli utenti attivi giornalieri complessivi sono cresciuti del 7%, raggiungendo i 3,58 miliardi a dicembre 2025.

    Su Instagram, il tempo di visualizzazione dei Reels è aumentato di oltre il 30% anno su anno negli Usa, mentre la prevalenza di contenuti originali è cresciuta di 10 punti percentuali nel Q4, con il 75% delle raccomandazioni che ora proviene da post originali.

    Su Facebook, il tempo dedicato ai video è cresciuto a doppia cifra anno su anno negli USA, con le ottimizzazioni del Q4 che hanno prodotto un aumento del 7% nelle visualizzazioni di post organici nel feed e nei video.

    Threads continua a mostrare una crescita sostenuta, con 150 milioni di utenti attivi giornalieri a fine ottobre 2025 e oltre 400 milioni di utenti attivi mensili.

    Le ottimizzazioni delle raccomandazioni nel Q4 hanno generato un aumento del 20% nel tempo trascorso sulla piattaforma.

    Zuckerberg ha dichiarato che Threads è sulla buona strada per diventare leader nella sua categoria, quella del social testuale di breve formato dove compete direttamente con X.

    Dina Powell McCormick presidente di Meta col favore di Trump

    Meta AI e la visione della superintelligenza personale

    Meta AI ha superato il miliardo di utenti attivi mensili (erano 600 milioni a ottobre 2025), diventando una delle piattaforme AI a più rapida crescita nella storia.

    Ma Zuckerberg continua a guardare oltre. Durante la conference call ha delineato quella che definisce una “major AI acceleration” per il 2026, con l’obiettivo dichiarato di costruire quella che chiama “personal superintelligence”.

    L’azienda sta lavorando per fondere i modelli linguistici di grandi dimensioni con i sistemi di raccomandazione che alimentano Facebook, Instagram e Threads. Zuckerberg ha spiegato che i sistemi attuali sono primitivi rispetto a quello che sarà possibile a breve, quando l’AI sarà in grado di comprendere gli obiettivi personali unici di ogni utente e personalizzare i feed per mostrare contenuti che aiutino le persone a migliorare la propria vita.

    Nel 2025 Meta ha ricostruito le fondamenta del proprio programma AI, portando Alexandr Wang, CEO di Scale AI, a guidare i Meta Superintelligence Labs attraverso un accordo da 14,3 miliardi di dollari.

    Nei prossimi mesi l’azienda inizierà a rilasciare nuovi modelli AI. Zuckerberg si aspetta che i primi modelli siano buoni, ma soprattutto che dimostrino la rapida traiettoria su cui si trova l’azienda, con l’obiettivo di spingere costantemente la frontiera nel corso dell’anno.

    Meta, investimenti IA fino a 135 miliardi per il 2026

    Per sostenere questa visione, Meta prevede spese in conto capitale tra 115 e 135 miliardi di dollari nel 2026, quasi il doppio rispetto ai 72,2 miliardi spesi nel 2025.

    L’aumento è destinato principalmente agli sforzi dei Meta Superintelligence Labs e al core business. Come ha sottolineato la CFO Susan Li, la domanda continua a superare la capacità disponibile e l’azienda si aspetta di rimanere vincolata dalla capacità per gran parte del 2026 fino a quando le nuove strutture non entreranno in funzione.

    Meta ha anche annunciato un accordo pluriennale fino a 6 miliardi di dollari con Corning per la fornitura di cavi in fibra ottica per i propri data center.

    Nadella e gli altri big del tech stanno correndo tutti nella stessa direzione. Ossia costruire i data center del futuro e accumulare capacità computazionale.

    Reality Labs e gli occhiali Ray-Ban

    Reality Labs ha registrato una perdita operativa di 6 miliardi di dollari nel Q4, ma Zuckerberg ha indicato che si aspetta che questo sia l’anno di picco delle perdite della divisione, che inizieranno a ridursi gradualmente.

    La notizia più interessante riguarda gli occhiali Ray-Ban con AI integrata: le vendite sono più che triplicate nell’ultimo anno. Zuckerberg vede questo come un momento simile all’arrivo degli smartphone, quando era solo questione di tempo prima che tutti i telefoni a conchiglia diventassero smartphone. Gli occhiali, ha detto, sono l’incarnazione definitiva della visione dell’azienda.

    L’IA come strumento di trasformazione interna

    Meta sta anche investendo in strumenti AI per la propria forza lavoro.

    Zuckerberg ha annunciato che l’azienda eleverà i contributori individuali e appiattirà i team. E cioè che quello che oggi fanno molti grandi team può essere realizzato da una singola persona molto talentuosa con l’ausilio dell’AI.

    Meta contava 78.865 dipendenti a fine 2025, in crescita del 6% anno su anno, ma ha anche effettuato 1.500 licenziamenti a Reality Labs a inizio gennaio.

    Meta, le sfide e rischi all’orizzonte

    La società ha segnalato che i venti contrari che arrivano dall’Unione Europea e dagli Stati Uniti potrebbero avere un impatto significativo sul business. Precisamente per l’UE ci si riferisce all’impianto di norme per regolare la IA e non solo.

    Diversi processi ad alto profilo sui social media inizieranno nel corso dell’anno e potrebbero sfociare in perdite materiali. Ma la fiducia degli investitori resta alta. Infatti, il titolo è balzato di oltre il 10% nell’after-hours dopo l’annuncio dei risultati.

    Secondo Zuckerberg, il 2025 è stato un anno di ricostruzione delle fondamenta mentre il 2026 sarà l’anno dell’accelerazione.

    La domanda da farsi adesso è se la corsa agli armamenti IA tra i giganti tech porterà effettivamente ai benefici promessi per gli utenti, o se rappresenterà principalmente un trasferimento di valore verso i produttori di chip e infrastrutture.

    Meta sembra convinta della prima ipotesi. Vedremo se sarà così.

  • TikTok US al via tra le polemiche, ecco chi gestirà l’algoritmo

    TikTok US al via tra le polemiche, ecco chi gestirà l’algoritmo

    TikTok US ha preso il via e Oracle avrà accesso all’algoritmo. Larry Ellison, stretto alleato di Trump, è quindi al centro dell’operazione. A pochi giorni dall’accordo, già polemiche sulla visibilità dei contenuti politici.

    La data era attesa ed è arrivata. Il 22 gennaio 2026 segna la nascita ufficiale di TikTok US.

    Dopo anni di tensioni – dal 2020 -, proroghe, ordini esecutivi e ricorsi alla Corte Suprema, l’accordo tra Washington e Pechino è stato finalmente finalizzato.

    TikTok ha annunciato la creazione di TikTok USDS Joint Venture LLC, la nuova entità che gestirà le operazioni americane della piattaforma video più discussa degli ultimi anni.

    Donald Trump non ha perso l’occasione per intestarsi il risultato. Su Truth Social il presidente Usa ha ringraziato il suo staff e, soprattutto, il presidente cinese Xi Jinping “per aver lavorato con noi e, alla fine, approvato l’accordo”. Una dichiarazione che segna un cambio di registro notevole, considerando che lo stesso Trump nel 2020 aveva tentato di vietare completamente l’app.

    TikTok US, la struttura dell’accordo

    La nuova società sarà guidata da Adam Presser, mentre il CEO di TikTok Shou Chew siederà nel consiglio di amministrazione. ByteDance mantiene una quota del 19,9%, formalmente minoritaria ma comunque significativa.

    Oracle, Silver Lake e il fondo emiratino MGX detengono ciascuna il 15%, per un totale del 45% nelle mani del consorzio principale.

    Il valore complessivo dell’operazione resta fissato a 14 miliardi di dollari. Una cifra che riflette il peso di TikTok sul mercato americano, dove la piattaforma conta ora oltre 200 milioni di utenti attivi.

    TikTok US al via tra le polemiche, ecco chi gestirà l'algoritmo
    TikTok US al via tra le polemiche, ecco chi gestirà l’algoritmo

    TikTok US, il cuore dell’accordo è l’algoritmo

    Questo è il punto centrale che merita molta attenzione.

    Come già ricordato, Oracle non si limiterà a ospitare i dati degli utenti americani sui propri server. La società di Larry Ellison avrà accesso al codice sorgente di TikTok, quindi avrà accesso all’algoritmo di raccomandazione che ha reso la piattaforma un fenomeno globale.

    La nuova entità dovrà riallenare l’algoritmo utilizzando esclusivamente dati degli utenti americani. L’obiettivo dichiarato è garantire che il feed dei contenuti sia libero da manipolazioni esterne. Ma le implicazioni vanno ben oltre la sicurezza nazionale.

    Chi controlla l’algoritmo di raccomandazione controlla ciò che oltre 170 milioni di americani vedono ogni giorno. E la domanda diventa inevitabile: chi garantisce che il nuovo algoritmo “americano” non venga a sua volta modellato secondo interessi diversi da quelli degli utenti?

    TikTok US e il ruolo di Larry Ellison

    Larry Ellison non è un attore neutrale in questa partita. Il fondatore di Oracle è uno dei principali sostenitori di Trump, con oltre 46 milioni di dollari donati a campagne e comitati repubblicani dal 2012. Ha ospitato eventi di raccolta fondi per Trump nella sua tenuta in California. Nel novembre 2020 ha partecipato a una telefonata con altri alleati del presidente per discutere strategie volte a contestare i risultati delle elezioni.

    La sua vicinanza a Trump si è intensificata negli ultimi anni. A gennaio 2025 era presente alla Casa Bianca per l’annuncio del progetto Stargate, la joint venture per l’intelligenza artificiale con OpenAI e SoftBank. Non solo. Attraverso il figlio David, Ellison controlla ora Paramount Global (che include CBS News) e sta puntando a Warner Bros. Discovery, la società madre di CNN.

    In altre parole, l’uomo che avrà accesso all’algoritmo di TikTok sta costruendo un impero mediatico che potrebbe includere presto anche alcune delle principali testate giornalistiche americane.

    TikTok US e l’algoritmo del proprietario, ancora una volta

    Come ho già osservato in passato, siamo di fronte a un altro caso di quello che definisco “algoritmo del proprietario”. X sotto la gestione di Elon Musk ha già dimostrato come la proprietà di una piattaforma possa influenzarne profondamente i meccanismi di distribuzione dei contenuti.

    Con TikTok US la dinamica sarà diversa, ma il principio resta lo stesso. L’accesso privilegiato all’algoritmo da parte di soggetti vicini al potere politico pone interrogativi legittimi sulla neutralità della piattaforma.

    Oracle potrà isolare infrastrutture e parametri, ricostruire un modello “americano”. E chi ha accesso a questi elementi ha la possibilità di modellare ciò che milioni di persone vedono.

    TikTok US, un compromesso geopolitico

    L’accordo soddisfa parzialmente entrambe le parti. Gli Stati Uniti ottengono il controllo formale sulla piattaforma e sui dati degli utenti americani. ByteDance mantiene una presenza, seppur minoritaria, e continuerà a monetizzare attraverso licenze e attività commerciali.

    Ma restano perplessità. Alcuni esperti osservano, come già fatto mesi fa, che la struttura somiglia più a un accordo di franchising che a una vera dismissione. ByteDance non esce di scena completamente. E il fatto che circa il 30% della nuova società resti in mano ad “affiliati degli investitori esistenti di ByteDance” lascia aperti margini di ambiguità.

    La legge bipartisan del 2024 richiedeva una separazione netta. La struttura negoziata dall’amministrazione Trump sembra aggirare questo requisito. Il Congresso ha già chiesto di visionare i dettagli dell’accordo per verificare la conformità ai requisiti di sicurezza nazionale.

    I primi giorni di TikTok US: segnalazioni e polemiche

    A pochi giorni dalla chiusura dell’accordo, sono emerse le prime segnalazioni da parte di creator e politici americani. Diversi utenti hanno denunciato un crollo improvviso della visibilità sui contenuti politici, con video fermi a zero views nonostante follower nell’ordine delle decine di migliaia.

    Il senatore californiano Scott Wiener ha scritto su X: “TikTok is now state-controlled media”. Un suo video su una proposta di legge è rimasto fermo a zero visualizzazioni. Brian Krassenstein, creator con oltre 125.000 follower, ha segnalato che i suoi post politici ricevono tra 0 e 1000 views da quando gli alleati di Trump hanno preso il controllo della piattaforma.

    Bernie Sanders ha elencato pubblicamente l’impero mediatico che Larry Ellison ora controlla, da TikTok a CBS, MTV, Paramount+, Nickelodeon, Simon & Schuster. E ha concluso: “This is what Oligarchy looks like.”

    TikTok USDS JV ha risposto con un comunicato ufficiale attribuendo i problemi a un’interruzione infrastrutturale nei data center. Secondo la nuova entità, si tratterebbe di un “display error caused by server timeouts” che avrebbe causato temporaneamente zero views e mancati guadagni per i creator.

    La spiegazione tecnica però non ha convinto tutti. E il dibattito sulla neutralità dell’algoritmo americano è destinato a proseguire.

    Una storia iniziata nel 2020

    La vicenda TikTok negli Stati Uniti ha attraversato sei anni di alti e bassi. Dal primo ordine esecutivo di Trump nel 2020, annullato poi da Biden; alla legge bipartisan del 2024, alla conferma della Corte Suprema nel gennaio 2025; al breve blocco dell’app, alle proroghe successive.

    Dopo sei anni quella storia trova un punto di approdo. Non una conclusione definitiva, diciamolo, ma certamente un capitolo nuovo.

    Alla fine, TikTok resta disponibile per oltre 170 milioni di utenti americani e l’algoritmo più potente del mondo passa sotto controllo statunitense, anche se in maniera temporanea.

    Quanto durerà l’equilibrio trovato? La storia recente insegna che, quando si tratta di Trump, di rapporti con la Cina e di piattaforme digitali, nulla è mai davvero definitivo.

  • La UE apre un’indagine su X per le immagini di nudo di Grok

    La UE apre un’indagine su X per le immagini di nudo di Grok

    La Commissione UE ha deciso di aprire un’indagine sulle immagine di nudo generate dall’intelligenza artificiale Grok. L’indagine si estende anche ai sistemi di raccomandazione basati sull’intelligenza artificiale di xAI. X rischia sanzioni fino al 6% del fatturato globale.

    Era una questione di tempo e quel tempo è arrivato oggi. Infatti, la Commissione Europea ha aperto un’indagine formale su X per la diffusione di materiale sessualmente esplicito generato dal chatbot Grok.

    L’indagine viene condotta ai sensi del Digital Services Act, lo stesso regolamento che a dicembre ha portato alla prima multa della storia per X ai sensi del DSA.

    Ma questa volta la posta in gioco è decisamente più alta. Non si tratta più di spunte blu ingannevoli o di registri pubblicitari incompleti. Si parla di deepfake non consensuali che coinvolgono donne e minori; di immagini generate a un ritmo industriale; di una tecnologia rilasciata senza i filtri minimi necessari a prevenirne l’abuso.

    La UE apre un'indagine su X per le immagini di nudo di Grok
    La UE apre un’indagine su X per le immagini di nudo di Grok

    Le parole di Bruxelles non lasciano spazio a interpretazioni

    Henna Virkkunen, vicepresidente esecutiva della Commissione responsabile per sovranità tecnologica, sicurezza e democrazia, ha usato parole senza mezzi termini. I deepfake sessuali non consensuali di donne e bambini rappresentano “una forma violenta e inaccettabile di degradazione”.

    E ha aggiunto che l’indagine servirà a determinare “se X ha rispettato i propri obblighi legali ai sensi del DSA, oppure se ha trattato i diritti dei cittadini europei, inclusi quelli di donne e minori, come danni collaterali del proprio servizio”.

    Danni collaterali. È un’espressione che chi segue questa vicenda da settimane sa bene a cosa si riferisce. Perché è esattamente quello che è successo.

    Come avevo illustrato all’inizio di gennaio nell’articolo sulle migliaia di immagini di nudo generate da Grok, le stime indicavano che Grok stava generando circa 6.700 immagini sessualizzate all’ora, un ritmo 84 volte superiore a quello degli altri cinque principali siti specializzati in questo tipo di contenuti. L’85% delle immagini generate era di natura sessuale. E le vittime non avevano alcuno strumento per difendersi.

    L’indagine si allarga ai sistemi di raccomandazione

    C’è un secondo aspetto dell’annuncio di oggi che merita attenzione. La Commissione ha anche esteso un’indagine già in corso, avviata a dicembre 2023, per verificare se X abbia valutato e mitigato correttamente tutti i rischi sistemici legati ai suoi sistemi di raccomandazione.

    In particolare, i regolatori vogliono capire quale sarà l’impatto del passaggio al nuovo sistema basato interamente su Grok.

    Questo è un punto che avevo approfondito analizzando come cambia l’algoritmo di X con Grok nel 2026.

    A ottobre 2025 Musk aveva annunciato che entro poche settimane tutte le euristiche manuali sarebbero state eliminate, lasciando all’intelligenza artificiale il compito di analizzare e raccomandare contenuti. Quel codice è ora pubblico su GitHub, e la transizione è completata. Ma una cosa è pubblicare il codice, un’altra è garantire che il sistema non amplifichi contenuti dannosi o illegali.

    La Commissione ha chiarito che X potrebbe dover affrontare misure provvisorie se non apporterà modifiche significative al proprio servizio. È un avvertimento che non era mai stato formulato in questi termini.

    La risposta tardiva di xAI

    La difesa di X si basa su quanto comunicato a metà gennaio. La società ha dichiarato di aver implementato misure tecniche per impedire all’account Grok su X di consentire la modifica di immagini di persone reali in abbigliamento succinto.

    Ha inoltre limitato la creazione di immagini ai soli abbonati paganti e bloccato la generazione di questo tipo di contenuti nelle “giurisdizioni dove è illegale”, senza però specificare quali siano queste giurisdizioni.

    Come avevo scritto nell’analisi su Grok e la spunta blu che non rende sicura la generazione di immagini, spostare la funzionalità dietro un paywall non è una misura di sicurezza. Significa in buona sostanza, avallare la monetizzazione dell’abuso. La spunta blu non funziona come filtro morale, e i dati lo dimostrano. Lo ricordiamo ancora una volta, l’utente che ha chiesto a Grok di manipolare l’immagine della donna uccisa a Minneapolis era un abbonato verificato.

    Il contesto internazionale si fa sempre più ostile

    Ma l’UE non è la sola a procedere in questa direzione. Anche Regno Unito, India, Malesia e altri paesi stanno conducendo indagini parallele.

    In Francia, la procura di Parigi ha esteso un’indagine su X per includere accuse secondo cui Grok sarebbe stato usato per generare e diffondere materiale pedopornografico. In California, il governatore Newsom ha chiesto al procuratore generale di indagare su xAI.

    E proprio nel Regno Unito, dove il governo UK ha varato la legge contro i deepfake di Grok, si è compiuto un passo decisivo. La nuova norma prevede pene detentive fino a due anni per chiunque generi deepfake intimi non consensuali, a prescindere dall’intento di condividerli. Diventa illegale anche la distribuzione di software di “denudazione”. E le piattaforme rischiano sanzioni fino al 10% del fatturato globale annuo attraverso l’Online Safety Act.

    Il Regno Unito si posiziona così come il primo mercato occidentale a criminalizzare l’intero ciclo di vita del deepfake, dalla progettazione del software alla sua distribuzione, fino alla generazione della singola immagine.

    Cosa succede ora

    L’indagine della Commissione valuterà se X ha correttamente valutato e mitigato i rischi associati all’implementazione delle funzionalità di Grok nell’Unione Europea. Il DSA impone alle piattaforme di grandi dimensioni di identificare, analizzare e mitigare i rischi sistemici derivanti dai propri servizi.

    Se la Commissione dovesse concludere che X ha violato questi obblighi, le sanzioni potrebbero arrivare fino al 6% del fatturato globale annuo.

    Assumendo che il fatturato globale 2025 di X è, secondo le stime, di 2,9 miliardi di dollari, il 6% sarebbe in sostanza 174 milioni di dollari. Vale a dire, circa 146,5 milioni di euro.

    Ma c’è di più. La multa di dicembre, 120 milioni di euro, era stata definita dalla stessa Commissaria Virkkunen come “modesta ma proporzionata”. Questa nuova indagine riguarda violazioni di natura completamente diversa.

    Infatti, non si tratta di trasparenza pubblicitaria o di accesso ai dati per i ricercatori, pur sempre temi di una certa rilevanza. Si tratta della diffusione di contenuti che, nelle parole dei regolatori UE, costituiscono “una forma di violenza”.

    La scelta di Musk di posizionare Grok come un’intelligenza artificiale “spicy”, con meno restrizioni, si scontra ora con un ecosistema normativo che non concede più sconti.

    Il vero vantaggio competitivo per chi sviluppa intelligenza artificiale, oggi, non risiede nella libertà assoluta di generare qualsiasi contenuto. Ma risiede nella capacità di costruire sistemi sicuri per design.

    Anche questo concetto, proprio in virtù dell’apertura di queste indagini, è utile ribadire.

    Le aziende che sapranno garantire che la loro tecnologia non possa essere usata come arma di aggressione digitale saranno quelle in grado di operare in un mercato che, da oggi, ha regole molto più stringenti.

    E questa è forse la lezione più importante di questa vicenda. Le conseguenze delle scelte di progettazione ricadono sempre su qualcuno. E quando ricadono sulle vittime, lo Stato interviene.

  • Come cambia l’algoritmo di X con Grok nel 2026

    Come cambia l’algoritmo di X con Grok nel 2026

    Il nuovo algoritmo di X basato su Grok è ora pubblico su GitHub. Ho provato cosa contiene il repository, a spiegare cosa cambia rispetto al 2023 e quali sono le implicazioni concrete per utenti e creator.

    Come certamente ricorderete, a ottobre 2025 Elon Musk annunciava che entro poche settimane l’algoritmo di X sarebbe stato interamente gestito dall’intelligenza artificiale Grok, eliminando tutte le euristiche manuali. Oggi, a distanza di due mesi, quel codice è pubblico, disponibile su GitHub nel repository xai-org/x-algorithm.

    Non è la prima volta che X rende disponibile il proprio algoritmo. Era già capitato nel 2023, poco dopo l’acquisizione di Twitter, quando Musk aveva già pubblicato il codice sorgente del sistema di raccomandazione. Ma quello che vediamo oggi è qualcosa di completamente diverso. Non si tratta di un aggiornamento incrementale, ma ci troviamo di fronte ad una riscrittura totale dell’architettura.

    L’obiettivo di questo articolo è analizzare cosa contiene il repository, osservare e riportare cosa cambia rispetto al sistema precedente e quali sono le implicazioni concrete per chi usa la piattaforma. Non si tratta di una considerazione tecnica, ma di comprendere insieme cosa cambia il nuovo algoritmo di X gestito da Grok, l’intelligenza artificiale di xAI.

    Breve cenno all’algoritmo del 2023

    Nell’agosto 2023, in un articolo sempre qui su questo blog, intitolato Come funziona il nuovo algoritmo di Twitter/X, avevo analizzato il funzionamento del sistema di raccomandazione introdotto da Musk.

    Quel sistema si basava ancora su euristiche manuali, ovvero regole fisse definite dagli sviluppatori che assegnavano pesi specifici alle diverse interazioni.

    Le risposte ai tweet valevano quanto 27 tweet normali. I reply dell’autore a una risposta arrivavano a pesare come 75 tweet. I link esterni venivano penalizzati perché la piattaforma tendeva a favorire contenuti interni. Gli hashtag, simbolo storico di Twitter, stavano progressivamente perdendo rilevanza.

    Era già evidente, allora, quello che avevo definito “algoritmo del proprietario“: un sistema progettato per rispecchiare la visione di Musk, orientando i contenuti verso i suoi principi e le sue priorità. La trasparenza del codice non eliminava questo problema, semplicemente lo rendeva visibile a tutti.

    Come cambia l'algoritmo di X con Grok nel 2026
    Come cambia l’algoritmo di X con Grok nel 2026

    L’annuncio nel nuovo algoritmo basato su Grok

    A ottobre 2025, con un altro articolo su questo blog intitolato Come l’algoritmo di X sarà gestito dalla IA Grok, avevo raccontato l’annuncio di Musk: entro 4-6 settimane tutte le euristiche manuali sarebbero state eliminate. L’intero sistema sarebbe stato affidato a Grok, l’intelligenza artificiale sviluppata da xAI.

    Da quello che in quel momento era dato sapere, Grok avrebbe analizzato ogni post, immagine e video pubblicati su X, oltre 100 milioni di contenuti al giorno, per valutarne la qualità e abbinarli agli interessi degli utenti. Gli utenti avrebbero potuto interagire con Grok per regolare il proprio feed. I pesi del modello sarebbero stati pubblicati per garantire trasparenza.

    Oggi possiamo verificare cosa è stato effettivamente realizzato.

    Cosa contiene il repository

    Il repository xai-org/x-algorithm, pubblicato su GitHub sotto licenza Apache 2.0, contiene il codice sorgente dell’algoritmo che alimenta il feed “Per Te” di X. Il sistema è scritto principalmente in Rust (62,9%) e Python (37,1%) e si articola in quattro componenti principali.

    Home Mixer: il coordinatore

    È il livello di orchestrazione che assembla il feed. Coordina tutte le fasi del processo: recupero dei contenuti potenzialmente rilevanti, arricchimento dei dati, filtraggio, processo di valutazione e selezione finale. Espone un endpoint gRPC, ossia che restituisce i post ordinati per rilevanza.

    Thunder: i contenuti della tua rete

    Un sistema di archiviazione in memoria che traccia i post recenti degli account che si seguono. Il sistema si aggiorna in tempo reale e mantiene sezioni separate per post originali, reply, repost e video. Garantisce ricerche sotto il millisecondo senza interrogare database esterni.

    Phoenix: il cuore dell’intelligenza artificiale

    È il componente ML centrale, derivato da Grok-1. Svolge due funzioni distinte.

    La prima è il “recupero dei post”, basato su un modello Two-Tower. Trova post rilevanti fuori dalla rete di un utente. Una torre codifica le caratteristiche dell’utente e la sua storia di engagement, l’altra codifica tutti i post con gli interessi dell’utente per trovare quelli più affini. Una ricerca per similarità restituisce i contenuti più affini agli interessi degli utenti.

    La seconda è il ranking, il modello valuta ogni post in modo indipendente, assegnando un punteggio che non dipende dagli altri contenuti presenti nella stessa sessione di analisi. Predice le probabilità di engagement per ogni post. Durante l’inferenza, i candidati non possono “vedersi” tra loro, così il punteggio di un post non dipende dagli altri post analizzati nello stesso momento.

    Candidate Pipeline: il sistema di selezione

    Un framework riutilizzabile per costruire pipeline di raccomandazione. Definisce interfacce standardizzate per Source (recupero dei post potenziali), Hydrator (arricchimento dati), Filter (rimozione contenuti ineligibili), Scorer (calcolo punteggi) e Selector (ordinamento e selezione finale).

    Come funziona il ranking del nuovo algoritmo di X

    Il modello Phoenix predice probabilità per 15 tipi di azioni diverse.

    Non si limita a stimare se ad un utente piacerà un contenuto, ma calcola quanto è probabile che l’utente compia ciascuna di queste azioni: mettere like, rispondere, ripostare, citare, cliccare, visitare il profilo dell’autore, guardare un video, espandere una foto, condividere, soffermarti sul contenuto, seguire l’autore.

    Ma predice anche le azioni negative: segnalare “non mi interessa”, bloccare l’autore, silenziare l’autore, segnalare il contenuto.

    Il punteggio finale è una somma pesata di tutte queste probabilità.

    Le azioni positive hanno pesi positivi, quelle negative pesi negativi.

    In teoria, questo dovrebbe penalizzare i contenuti tossici. In pratica, se un contenuto genera molte interazioni prima di essere segnalato, il sistema lo avrà già amplificato.

    Cosa cambia nel concreto nel nuovo algoritmo di X

    Il confronto tra il sistema del 2023 e quello attuale rivela una trasformazione radicale dell’architettura, ma alcune costanti rimangono.

    Elemento
    2023 (euristiche manuali)
    2026 (Grok/Phoenix)
    Link esterni Penalizzazione esplicita nel codice Penalizzazione confermata: i post con link sono considerati meno “nativi” e distribuiti meno
    Video nativi Favoriti rispetto ai link Priorità esplicita nell’algoritmo
    Account verificati/premium Boost per abbonati Twitter Blue Priorità confermata per account verificati e Premium
    Valutazione contenuti Regole fisse (reply = 27 tweet, reply dell’autore = 75 tweet) Transformer predice 15 tipi di engagement
    Contenuti fuori rete Limitati, focus sui seguiti 50-70% del feed “Per Te” può provenire da account non seguiti
    Timeline “Seguiti” Cronologica pura Di default ordinata dall’algoritmo, cronologica solo su richiesta
    Contenuti provocatori Non documentato Possono diffondersi se generano interazioni, anche negative
    Hashtag Progressivamente ignorati Non più rilevanti nel nuovo sistema

     

    I link esterni: la conferma di una scelta strategica

    Nel 2023 avevo scritto che era preferibile condividere tweet senza includere link esterni, perché la piattaforma tendeva a tenere tutto “in casa”. Tre anni dopo, con un sistema completamente riscritto e basato su IA, il comportamento è identico.

    Grok stesso conferma che i post con collegamenti esterni nel testo principale sono penalizzati nella distribuzione, perché l’algoritmo li considera meno “nativi” alla piattaforma. La strategia del “link in commento” resta valida: un articolo condiviso con il link visibile nel post raggiunge meno persone rispetto a un riassunto testuale con il link in un commento separato.

    Questo orienta X verso una piattaforma sempre più chiusa e autonoma, dove i contenuti nativi hanno la precedenza su qualsiasi risorsa esterna.

    Per i creator che dipendono dal traffico verso i propri siti, blog o canali YouTube, è un segnale netto: X non è più un canale di distribuzione, è una destinazione che vuole trattenere l’attenzione al suo interno.

    Come cambia il feed “Per Te” di X col nuovo algoritmo

    Uno dei cambiamenti più significativi apportati dal nuovo algoritmo di X basato su Grok riguarda la composizione del feed.

    Se ricordate il Twitter originale, la timeline era cronologica e mostrava i post degli account seguiti. Nel sistema del 2023, l’algoritmo aveva già iniziato a introdurre contenuti esterni, ma in maniera moderata.

    Oggi, secondo il nuovo algoritmo basato su Grok, il 50-70% del feed “Per Te” può provenire da account che l’utente non segue.

    Il sistema Phoenix Retrieval cerca attivamente contenuti rilevanti su tutta la piattaforma X, non solo nella rete sociale dell’utente.

    Questo potrebbe significare maggiore scoperta di contenuti interessanti. Ma significa anche meno controllo su cosa appare nel feed. Seguire o non seguire un account diventa sempre meno rilevante rispetto a ciò che l’algoritmo ritiene “interessante” per te.

    La timeline “Seguiti” di X diventa algoritmica

    Un cambiamento che potrebbe passare inosservato riguarda la timeline “Seguiti”. Prima era puramente cronologica: i post degli account seguiti apparivano in ordine temporale, dal più recente al meno recente. Era l’ultima traccia di ciò che rimaneva di Twitter.

    Ora anche questa timeline è soggetta all’algoritmo di default. Il sistema ordina i contenuti in base a una stima di rilevanza calcolata dal modello automatico. La visualizzazione cronologica pura resta disponibile, ma bisogna attivarla manualmente.

    L’impatto è notevole per chi usa X per notizie o aggiornamenti rapidi. Post importanti da amici o account seguiti potrebbero non apparire in cima se il sistema li considera meno coinvolgenti rispetto ad altri. Serve “scrollare” di più, oppure l’uso consapevole dei filtri manuali per tornare alla cronologia.

    La rilevanza dei contenuti polarizzanti su X

    Il nuovo algoritmo di X introduce la possibilità che i contenuti considerati di bassa qualità o polarizzanti, quelli che generano rabbia ma poche interazioni positive, potrebbero diffondersi di più in certi contesti, portando a un flusso percepito come più caotico.

    Nel repository, il modello Phoenix predice sia azioni positive sia negative, con pesi negativi per blocco, silenziamento, segnalazione.

    In teoria, questo dovrebbe penalizzare i contenuti tossici nel ranking. In pratica, c’è una finestra temporale tra la pubblicazione e le segnalazioni durante la quale il contenuto viene amplificato se genera engagement.

    È molto probabile che il flusso diventi troppo imprevedibile o polarizzato. Significa che ci sono seri rischi di trovarci di fronte ad un sistema orientato all’engagement automatico.

    Il rischio delle bolle informative su X

    Il nuovo sistema trasforma l’uso passivo della piattaforma, la semplice lettura, in uno più attivo. L’algoritmo premia i contenuti che generano reazioni: se si ignorano certi post, il sistema li ridurrà nel flusso dell’utente; se si reagisce positivamente, se ne vedranno di simili.

    Questo meccanismo rischia di aumentare il rischio di “bolle informative” dove si vede solo ciò che conferma i gusti e le opinioni degli utenti. L’esperienza diventa più coinvolgente, ma potenzialmente più chiusa.

    Per chi cerca varietà di punti di vista o vuole restare informato su temi che non generano engagement immediato, il nuovo sistema richiede uno sforzo consapevole: esplorare attivamente, interagire con contenuti diversi, usare la timeline cronologica quando serve.

    I limiti della trasparenza dell’algoritmo di X

    Il repository è pubblico, ma cosa manca per capire davvero come funziona il sistema?

    Mancano i pesi del modello. Il codice descrive l’architettura del transformer, ma i parametri numerici che determinano effettivamente il comportamento non sono inclusi. Sappiamo che esiste un sistema di calcolo del punteggio che combina le predizioni, ma non conosciamo i pesi specifici assegnati a like, risposte, repost o alle azioni negative.

    Mancano i dati di training. Il modello Phoenix apprende dai comportamenti degli utenti, ma non sappiamo su quali dati è stato addestrato, quali periodi coprono, se includono bias storici della piattaforma.

    Mancano le policy di moderazione dei contenuti. I filtri tecnici sono documentati (rimozione duplicati, contenuti eliminati, spam, violenza), ma le decisioni più sottili su cosa promuovere e cosa penalizzare restano poco chiare.

    In altre parole, il codice ci dice come il sistema è costruito, non come si comporta. È come avere il progetto di un motore senza conoscere la miscela di carburante che lo alimenta.

    Un sistema ML poco esplicito

    Nel 2023, l’algoritmo del proprietario era visibile nelle euristiche manuali. Si poteva leggere nel codice che certi comportamenti venivano premiati e altri penalizzati. Era contestabile, ma almeno era documentato.

    Oggi il controllo si è spostato a un livello più profondo. Non ci sono più regole esplicite che dicono “penalizza i link esterni”. C’è un modello di machine learning che ha appreso, dai dati storici della piattaforma, che i contenuti nativi performano meglio. La penalizzazione dei link non è una scelta visibile nel codice, è un comportamento emergente del sistema.

    Se qualcuno chiede “perché i miei post con link hanno meno visibilità?”, la risposta non è più “perché c’è una regola che li penalizza”, ma “perché il modello ha imparato che generano meno engagement”. La responsabilità si dissolve nell’opacità del machine learning.

    Il repository afferma con orgoglio di aver eliminato tutte le feature ingegnerizzate manualmente. Ma eliminare le euristiche manuali non significa eliminare i bias. Significa solo renderli impliciti invece che espliciti.

    Cosa significa per utenti e creator di X

    Per chi usa X come utente, il nuovo sistema significa un feed sempre più personalizzato ma meno prevedibile. La maggioranza dei contenuti potrebbe arrivare da account mai seguiti. E il rischio di ritrovarsi in una sorta di TikTok è molto alto.

    Anche la timeline dei “Seguiti” non è più cronologica per definizione. La sensazione di controllo sulla propria esperienza diminuisce, a meno di non intervenire attivamente sulle impostazioni.

    L’esperienza diventa più “intuitiva” nel senso che il sistema cerca di mostrare ciò che trattiene più a lungo l’utente. Ma se non si interagisce con certi tipi di post, si rischia di vederne sempre meno, con la possibilità concreta di ritrovarsi in una bolla informativa costruita su azioni passate.

    Per i creator, le regole sono chiare: i contenuti nativi (video, immagini, testi completi) hanno la precedenza. I link esterni vanno inseriti nel “primo commento”, vale a dire non nel primo post ma in quello che segue immediatamente. Le interazioni contano più dei follower. Gli account verificati e premium hanno un vantaggio strutturale nel nuovo algoritmo. Vantaggio tutto da verificare.

    Per chi analizza le piattaforme, questo caso conferma una tendenza. La trasparenza formale, ossia pubblicare il codice, non equivale a trasparenza sostanziale.

    Senza i pesi del modello e i dati di training, capire perché un contenuto viene promosso rispetto a un altro resta impossibile.

    Conclusione

    Il rilascio del repository xai-org/x-algorithm chiude un cerchio iniziato con le promesse fatte a ottobre 2025. Il codice è pubblico, l’architettura è documentata, la transizione verso un sistema interamente basato su IA è ormai completata.

    Ma la domanda di fondo resta senza risposta. Un algoritmo trasparente nel codice ma opaco nei comportamenti è davvero trasparente? Un sistema che elimina le regole manuali ma eredita i bias dai dati è davvero neutrale?

    L’algoritmo del proprietario, come definisco ormai da un po’ algoritmi come questi, non è scomparso, anzi. Si è evoluto. E continuerò a monitorarlo, come sempre.

  • ChatGPT Translate, la sfida a Google sulla traduzione IA

    ChatGPT Translate, la sfida a Google sulla traduzione IA

    OpenAI lancia ChatGPT Translate per sfidare Google Translate. Meno lingue, per ora, ma presenta un approccio nuovo. La traduzione diventa conversazione. E Google non sta certo a guardare.

    La traduzione automatica è ormai un aspetto che è entrato nel quotidiano di ognuno. Proprio grazie all’intelligenza artificiale.

    Va detto anche che uno dei settori più presi di mira dalla rivoluzione della IA è proprio quello della traduzione automatica.

    E in questi giorni sta avvenendo uno “scontro” tra due titani, passato quasi inosservato, forse perché lo abbiamo dato per scontato.

    La notizia è che OpenAI ha lanciato ChatGPT Translate, un nuovo strumento standalone pensato per sfidare direttamente Google Translate, il servizio che da quasi vent’anni domina il mercato della traduzione automatica.

    Il lancio è avvenuto il 15 gennaio 2026 e poche ore dopo Google ha risposto con TranslateGemma, una nuova famiglia di modelli open source per la traduzione che guarda agli sviluppatori e alle aziende. Una coincidenza che racconta molto dello stato attuale della competizione nell’intelligenza artificiale.

    ChatGPT Translate, la sfida a Google sulla traduzione IA
    ChatGPT Translate, la sfida a Google sulla traduzione IA

    ChatGPT Translate, interfaccia familiare ma con qualcosa in più

    ChatGPT Translate si presenta con un’interfaccia che ricorda quella di Google Translate. Due box di testo affiancati, rilevamento automatico della lingua, oltre 50 lingue supportate. Ma la differenza sta in quello che offre dopo la traduzione.

    Sotto il testo tradotto compaiono infatti alcuni prompt che permettono di intervenire sul risultato con un solo tocco.

    Si può rendere il testo più fluido, adattarlo a un registro business-formale, semplificarlo per un bambino o calibrarlo per un contesto accademico. Selezionando una di queste opzioni si viene reindirizzati all’interfaccia principale di ChatGPT, dove è possibile continuare a lavorare sulla traduzione in modo conversazionale.

    Quindi, ChatGPT Translate non si limita a tradurre parole da una lingua all’altra, ma permette di ragionare sul tono, sul contesto e sul destinatario. La traduzione diventa così un processo collaborativo, non più un risultato statico da accettare così com’è.

    ChatGPT Translate, la sfida a Google sulla traduzione IA
    ChatGPT Translate, la sfida a Google sulla traduzione IA

    ChatGPT Translate, limiti di uno strumento ancora acerbo

    Il servizio però è chiaramente in fase sperimentale. OpenAI dichiara il supporto per oltre 50 lingue, ma al momento ne risultano attive solo 28.

    La pagina menziona la possibilità di tradurre immagini e file, ma queste funzioni non sono ancora disponibili. Su desktop si può inserire solo testo, mentre da mobile è possibile usare il microfono.

    Il confronto con Google Translate resta impietoso in termini di funzionalità. Google supporta oltre 200 lingue, offre traduzione offline, gestisce documenti, siti web, scrittura a mano e conversazioni in tempo reale.

    Tutte caratteristiche che a ChatGPT Translate mancano, per ora.

    Ma il punto è l’approccio. OpenAI sta costruendo un servizio dove la traduzione è solo il primo passo di un dialogo con l’intelligenza artificiale. Un modello che potrebbe cambiare le aspettative degli utenti su cosa significhi tradurre.

    Google Translate non sta a guardare

    Google nel frattempo non è rimasto fermo. Il mese scorso ha annunciato importanti aggiornamenti al suo servizio di traduzione alimentati da Gemini, con una migliore gestione di espressioni idiomatiche, slang e varianti locali.

    Sta anche testando una funzione beta per la traduzione speech-to-speech in tempo reale tramite cuffie, oltre a nuove lingue pensate per chi vuole imparare una lingua straniera.

    La traduzione come una conversazione

    Il lancio di ChatGPT Translate rischia di stravolgere ancora di più la traduzione automatica. Per quasi vent’anni Google Translate ha rappresentato lo standard di riferimento, sfidato solo parzialmente da DeepL. Ora OpenAI entra in campo con un approccio diverso, che privilegia la personalizzazione e il dialogo rispetto alla traduzione letterale.

    È ancora presto per dire se ChatGPT Translate diventerà un prodotto maturo o resterà un esperimento. Ma si può dire che la traduzione automatica sta entrando in una nuova fase, dove non basta più tradurre parole ma bisogna comprendere intenzioni, adattare registri e rispettare i contesti.

    La traduzione, insomma, sta diventando una conversazione.

  • Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026

    Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026

    L’Italia guida l’ottimismo europeo sull’intelligenza artificiale. Secondo il report Accenture, Pulse of Change, in vista del prossimo World Economic Forum di Davos, il 92% dei dirigenti italiani aumenterà gli investimenti in IA nel 2026.

    In vista del World Economic Forum di Davos, Accenture pubblica i nuovi dati del suo report Pulse of Change. E l’Italia emerge come uno dei Paesi europei più ottimisti e fiduciosi nei confronti dell’intelligenza artificiale.

    Un dato su tutti racconta questa tendenza: il 92% dei dirigenti italiani prevede di aumentare gli investimenti in IA nel corso del 2026, superando la media europea dell’84% e anche la Germania, che si ferma all’87%.

    Ma l’ottimismo italiano non riguarda solo la tecnologia. L’88% dei leader del nostro Paese si aspetta una crescita dei ricavi nel nuovo anno, mentre l’86% prevede un contesto caratterizzato da cambiamenti significativi sul piano economico, geopolitico e tecnologico. Numeri che confermano una fiducia diffusa, nonostante le incertezze globali che continuano a pesare sulle prospettive delle imprese.

    Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026
    Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026

    L’IA come leva di crescita, non solo di risparmio

    Un elemento particolarmente interessante emerge dall’approccio europeo agli investimenti in intelligenza artificiale. L’80% dei leader considera questi investimenti più preziosi per la crescita dei ricavi che per la riduzione dei costi. Questo segnala una maturità crescente nell’uso della tecnologia, che viene sempre più vista come strumento per generare nuovo valore e non semplicemente per tagliare le spese.

    L’Italia si distingue anche sul fronte delle competenze. Il 57% dei dirigenti italiani dichiara che nel 2026 punterà su programmi di upskilling e reskilling per preparare la forza lavoro all’uso diffuso dell’IA. Un dato che supera nettamente la media europea, ferma al 46%, e che racconta una consapevolezza importante. Ossia che la tecnologia da sola non basta, servono le persone giuste per farla funzionare.

    Preoccupa il divario tra dirigenti e dipendenti sulla IA

    Lo studio di Accenture evidenzia però anche un problema che rischia di frenare l’adozione dell’intelligenza artificiale. Mentre i dirigenti vedono l’IA come un catalizzatore di crescita, molti dipendenti esprimono timori legati alla riduzione della forza lavoro e a una formazione insufficiente. Solo il 61% dei lavoratori europei crede nel potenziale dell’IA dopo averla sperimentata, contro l’84% del top management. Un gap di 23 punti percentuali che racconta due visioni molto diverse della stessa tecnologia.

    In Italia emerge tuttavia un dato interessante. Il 40% dei dipendenti dichiara di saper utilizzare con sicurezza gli strumenti di IA e di essere in grado di spiegarli ad altri, quasi il doppio della media europea che si ferma al 25%. Una maggiore confidenza che convive però con le stesse preoccupazioni sul futuro del lavoro.

    A livello europeo, appena il 41% dei dipendenti si sente sicuro del proprio ruolo. E solo il 14% è fortemente d’accordo sul fatto che la leadership abbia spiegato in modo chiaro come l’IA e gli agenti digitali influenzeranno la forza lavoro.

    Macchi: “Se non coinvolgiamo le persone, il valore dell’IA rimarrà inespresso”

    Mauro Macchi CEO Accenture EMEA
    Mauro Macchi CEO Accenture EMEA

    Mauro Macchi, CEO di Accenture per Europa, Medio Oriente e Africa, ha commentato così i risultati della ricerca: “Questa ricerca riflette chiaramente le priorità che emergono nel dialogo quotidiano che portiamo avanti con i clienti in tutta Europa, dove i leader intendono consolidare il percorso sull’IA e stanno incrementando gli investimenti a supporto“.

    Ma Macchi ha sottolineato anche il punto critico: “Se non coinvolgiamo le persone, il pieno valore dell’IA rimarrà inespresso. Non si tratta solo di sviluppare competenze tecniche per lavorare con l’IA, ma di sviluppare la cultura necessaria per consentire all’intera forza lavoro di utilizzare questa tecnologia con fiducia“.

    Una riflessione che centra il problema principale. “Il vero divario non è tra chi ha competenze e chi non le ha, ma tra chi utilizza l’IA e chi è lasciato indietro“.

    La metodologia dello studio

    Il report Pulse of Change è un’indagine trimestrale di Accenture rivolta alla C-suite che analizza come le tendenze in ambito business, talenti e tecnologia stiano guidando il cambiamento. Per questa edizione sono stati intervistati 3.650 dirigenti e 3.350 dipendenti a livello mondiale, di cui 1.070 dirigenti e 929 dipendenti in Europa. Il campione comprende le più grandi organizzazioni mondiali con ricavi superiori a 500 milioni di dollari, operanti in 20 settori e 20 Paesi. L’indagine è stata condotta tra novembre e dicembre 2025.

  • Deepfake, il governo Uk vara la legge contro Grok questa settimana

    Deepfake, il governo Uk vara la legge contro Grok questa settimana

    Il governo Uk ha annunciato l’arrivo in questa settimana di una nuova legge per contrastare il fenomeno deepfake di Grok: 2 anni di carcere per la creazione di deepfake; stop alla distribuzione di software di denudazione; sanzioni per le piattaforme fino al 10% del fatturato globale annuo.

    Il governo del Regno Unito ha deciso di imprimere un’accelerazione decisa alla regolamentazione dell’Intelligenza Artificiale generativa. Dopo giorni in cui si sono rincorse tante notizie, il governo di Starmer ha optato per la strada regolatoria.

    Secondo quanto riportato BBC, in questa settimana entra in vigore la nuova fattispecie di reato che punisce la sola creazione di deepfake intimi non consensuali. La norma prevede pene detentive fino a due anni di reclusione per chiunque generi tali immagini, a prescindere dall’intento di condividerle o pubblicarle.

    La svolta legislativa, integrata nel Data Use and Access Act, introduce un ulteriore livello di restrizione: il divieto di diffusione.

    Londra si prepara a rendere illegali i software e i servizi di “denudazione”, ovvero gli strumenti progettati per denudare digitalmente attraverso l’uso di immagini di persone reali.

    L’obiettivo è colpire la filiera tecnologica alla radice, rendendo perseguibili non solo gli utenti, ma anche gli sviluppatori e i distributori di tali applicazioni.

    Deepfake, il governo Uk vara la legge contro Grok questa settimana
    Deepfake, il governo Uk vara la legge contro Grok questa settimana

    La pressione su X e i blocchi internazionali

    L’iniziativa di Downing Street giunge in un momento di forte pressione su Grok, l’IA di xAI integrata nella piattaforma X. Nei giorni scorsi, Malesia e Indonesia hanno già provveduto a bloccare l’utilizzo di Grok integrato nella piattaforma X, citando l’assenza di filtri efficaci.

    Il Premier britannico, Keir Starmer, è intervenuto direttamente sulla vicenda con un monito esplicito: “se le piattaforme non dimostreranno di poter controllare i propri strumenti e proteggere i cittadini, lo Stato utilizzerà pienamente i propri poteri coercitivi”.

    Keir Starmer annuncio legge deepfake Regno Unito gennaio 2026
    Keir Starmer annuncio legge deepfake Regno Unito gennaio 2026

    La Technology Secretary, Liz Kendall, ha rincarato la dose definendo questi software “armi di abuso” che “alimentano la misoginia e la violenza sessuale”, confermando che la scelta di X di limitare queste funzioni agli utenti Premium non è considerata una misura di sicurezza valida.

    Liz Kendall, Segretaria di Stato Uk per la Scienza, l'Innovazione e la Tecnologia
    Liz Kendall, Segretaria di Stato Uk per la Scienza, l’Innovazione e la Tecnologia

    I numeri dell’emergenza: i dati Ofcom e NPCC

    L’urgenza del provvedimento è dettata da evidenze che hanno alimentato il senso di emergenza:

    • Produzione estesa di deepfake: le stime indicano che tramite Grok vengono generate circa 6.700 immagini pornografiche non consensuali ogni ora, spesso coinvolgendo figure pubbliche e minori.

    • Incremento dei reati: secondo il National Policing Statement 2024 dell’NPCC, la violenza abilitata dalla tecnologia contro donne e ragazze è aumentata del 37% tra il 2018 e il 2023.

    • Sanzioni: l’autorità Ofcom ha ora il mandato per procedere con indagini che possono portare a sanzioni pecuniarie fino al 10% del fatturato globale annuo di X per il mancato rispetto dei doveri di cura stabiliti dall’Online Safety Act.

    Grok ha generato migliaia di immagini di nudo, e non solo

    Legge Uk colpisce il ciclo deepfake

    Con l’attivazione delle nuove norme, il Regno Unito si posiziona come il primo mercato occidentale a criminalizzare l’intero ciclo di vita del deepfake: dalla progettazione del software alla sua fornitura, fino alla generazione della singola immagine.

    La messa al bando dei servizi di “denudazione” e l’introduzione della responsabilità penale individuale segnano, possiamo dirlo, la fine della fase di autoregolamentazione per le aziende produttrici di IA generativa.