Home Blog Pagina 2

Il caso Telegram in Russia aiuta a comprendere cos’è la censura

Il caso Telegram in Russia aiuta a comprendere cos'è la censura

Roskomnadzor limita Telegram in Russia per spingere gli utenti verso Max, app di sorveglianza statale. Ecco dove le piattaforme sono davvero vietate ed ecco perché censura e regolamentazione sono cose diverse.

Dal 10 febbraio 2026, Roskomnadzor, l’ente russo delle comunicazioni, ha iniziato a limitare il funzionamento di Telegram in tutto il Paese.

Gli utenti segnalano rallentamenti nel caricamento di immagini, video e messaggi vocali, mentre i messaggi di testo funzionano ancora. La versione mobile risulta più colpita di quella desktop.

Roskomnadzor giustifica la mossa con la presunta violazione delle leggi russe da parte di Telegram, accusando la piattaforma di non proteggere i dati personali e di non contrastare frodi e attività terroristiche. Ma chi segue da tempo le dinamiche del controllo digitale in Russia sa bene che questa giustificazione racconta solo una parte della storia.

Una stretta progressiva, non un fulmine a ciel sereno

Questa limitazione è solo l’ultimo capitolo di un percorso iniziato mesi fa. Ad agosto 2025, Mosca aveva già limitato le chiamate vocali e video su Telegram e WhatsApp, sostenendo che i servizi venivano usati per frodi e attività di sabotaggio. A ottobre ha bloccato le nuove registrazioni su entrambe le piattaforme. A dicembre ha colpito anche FaceTime e Snapchat.

Cos’è e come funziona Max, l’app governativa

Il vero obiettivo è spingere gli utenti russi verso Max, l’app di messaggistica sviluppata da VK con stretti legami con il Cremlino. Da settembre 2025, tutti gli smartphone venduti in Russia devono pre-installarla obbligatoriamente. Max si integra con i servizi governativi Gosuslugi e richiede numeri di telefono russi, con verifica dell’identità che probabilmente diventerà obbligatoria.

A differenza di Telegram, che usa la crittografia end-to-end, Max è progettata per consentire ai servizi di sicurezza russi l’accesso ai dati condivisi. In pratica, un vero sistema di sorveglianza camuffato da app di messaggistica. Un modello che ricorda molto da vicino quello che la Cina ha costruito con WeChat, dove ogni interazione digitale passa attraverso canali monitorabili dallo Stato.

Max, l'app di VK
Max, l’app di VK

La risposta di Pavel Durov

Pavel Durov, fondatore russo di Telegram che vive in esilio negli Emirati Arabi Uniti, ha risposto con decisione alla mossa di Roskomnadzor. Ha ricordato che otto anni fa l’Iran tentò la stessa strategia, vietando Telegram con pretesti inventati per spingere gli utenti verso un’alternativa statale. E fallì miseramente, perché gli utenti usarono VPN e altri strumenti per aggirare i blocchi.

Limitare la libertà dei cittadini non è mai la risposta giusta. Telegram sta per libertà di parola e privacy, indipendentemente dalla pressione“, ha scritto Durov sul suo canale.

Una dichiarazione che riecheggia le battaglie che lo stesso Durov ha combattuto negli anni, da quando fu costretto a cedere VK (VKontakte), il social network russo che aveva fondato, proprio per le pressioni del Cremlino.


Da chi è gestita oggi VK – VKontakte

VK sta per VKontakte e questo nome ricorda  la piattaforma social russa fondata proprio da Pavel Durov nel 2006, nata come alternativa a Facebook e che ne richiamava effettivamente il design e i colori blu.

Durov fu poi costretto a cederla nel 2014 sotto pressione del Cremlino, quando rifiutò di consegnare i dati degli utenti ucraini e di bloccare i gruppi di opposizione. Usò i proventi di quella vendita forzata per fondare Telegram dall’esilio negli Emirati.

VK oggi è di fatto controllata dallo Stato russo attraverso una struttura complessa. Nel dicembre 2021, Sogaz (compagnia assicurativa legata a Gazprom) e Gazprombank hanno acquisito il 57,3% delle quote di voto di VK dall’oligarca Alisher Usmanov.

Sogaz è in parte posseduta da Yuri Kovalchuk, amico personale di Putin e figura chiave nelle reti economiche del Cremlino.

Nel dettaglio, ecco chi gestisce VK oggi:

  • Vladimir Kiriyenko è il CEO di VK. È il figlio di Sergei Kiriyenko, spesso definito braccio destro di Putin e responsabile del controllo politico sui “nuovi territori” russi (ossia i territori ucraini occupati).
  • Stepan Kovalchuk è il vicepresidente responsabile della strategia media di VK. È il nipote di Yuri Kovalchuk, l’amico personale di Putin già citato sopra.

Quindi VK non è semplicemente “vicina al Cremlino”. È gestita direttamente da figli e nipoti del cerchio più stretto di Putin. E questa stessa VK è l’azienda che sviluppa Max, l’app che Roskomnadzor vuole sostituire a Telegram.


Pavel Durov
Pavel Durov founder Telegram

Il paradosso dei blogger pro-guerra

C’è un dettaglio che rende questa vicenda quasi paradossale e che merita attenzione. I blogger militari pro-guerra russi, quelli che sostengono l’invasione dell’Ucraina e comunicano dal fronte proprio attraverso Telegram, hanno criticato apertamente la decisione di Roskomnadzor.

Il canale Two Majors, uno dei più seguiti tra i corrispondenti militari russi, ha lamentato che ora le posizioni dal fronte saranno trasmesse “non dalla gente, ma dai nostri padroni del ministero degli esteri”. Anche Alexander Kots, altro corrispondente pro-guerra molto noto, ha fatto notare che bloccare Telegram limiterebbe le stesse “operazioni informative” russe e il reclutamento di ucraini attraverso l’app per compiere atti di sabotaggio.

Quando persino i sostenitori più accesi del regime criticano una decisione, significa che quella decisione colpisce interessi trasversali che vanno ben oltre le logiche di propaganda.

La reazione internazionale

Amnesty International ha definito la mossa “censura e ostruzione mascherate da protezione dei diritti dei cittadini”. Reporters Without Borders parla di “strategia per strangolare la circolazione dell’informazione” e ricorda che la Russia occupa il 171° posto su 180 nel World Press Freedom Index.

Telegram, 93 milioni di utenti in Russia

Telegram conta oltre 93 milioni di utenti attivi mensili in Russia, praticamente quanto WhatsApp. Nel corso del tempo l’app di messaggistica si è trasformata in un canale cruciale per media indipendenti, figure pubbliche e, ironia della sorte, per gli stessi organi governativi incluso lo stesso Roskomnadzor. Persino il ministero degli Esteri russo e la task force nazionale per il Covid hanno canali ufficiali su Telegram.

Il caso Telegram in Russia aiuta a comprendere cos'è la censura
Il caso Telegram in Russia aiuta a comprendere cos’è la censura

Ecco dove Telegram è davvero vietata

Per comprendere meglio il contesto, vale la pena ricordare dove Telegram è effettivamente vietata o fortemente limitata nel mondo.

La Cina ha bloccato Telegram nel 2015, dopo che attivisti per i diritti umani e avvocati avevano usato la piattaforma per organizzarsi.

L’Iran ha imposto il divieto nel 2018, accusando l’app di facilitare le proteste contro il governo e di diffondere contenuti “immorali”. Il Pakistan ha bloccato Telegram periodicamente, citando preoccupazioni sulla sicurezza informatica e la diffusione di fake news.

Nel 2025 si sono aggiunti altri Paesi. Il Vietnam ha vietato Telegram a maggio, accusandola di diffondere “documenti anti-Stato” e informazioni false.

Il Kenya ha imposto un blocco a giugno durante le proteste del 2025. Il Nepal ha seguito a luglio, motivando la decisione con preoccupazioni su frodi e riciclaggio di denaro. La Thailandia aveva già bloccato l’app nel 2020 perché usata per organizzare le proteste anti-governative.

La Somalia ha imposto un divieto nel 2023, sostenendo che la piattaforma veniva usata da gruppi terroristici e per diffondere contenuti espliciti.

Secondo i dati di Surfshark e Netblocks, dal 2015 a oggi 31 Paesi hanno vietato Telegram, temporaneamente o permanentemente, colpendo potenzialmente oltre 3 miliardi di persone a livello globale.

Il quadro più ampio: le piattaforme vietate nel mondo

Telegram non è un caso isolato. Il controllo delle piattaforme digitali è diventato uno strumento di governance per regimi autoritari e, in alcuni casi, anche per democrazie che affrontano sfide specifiche.

La Cina rappresenta l’esempio più strutturato di censura digitale. Dal 2009 ha bloccato X (allora Twitter), Facebook, YouTube, Instagram e molte altre piattaforme occidentali, costringendo i cittadini a usare alternative domestiche come WeChat, Weibo e Douyin (la versione cinese di TikTok). Il Great Firewall cinese rimane il sistema di controllo più sofisticato al mondo.

La Corea del Nord applica il modello più estremo in assoluto. L’accesso a Internet è riservato a pochissimi funzionari autorizzati e tutte le piattaforme globali sono inaccessibili. I cittadini comuni hanno accesso solo a una intranet governativa.

La Russia ha intensificato i blocchi dopo l’invasione dell’Ucraina nel febbraio 2022, vietando Facebook e Instagram (con Meta dichiarata “organizzazione estremista”) e limitando fortemente X. L’obiettivo dichiarato era contrastare la “disinformazione” sul conflitto, ma nella pratica si trattava di impedire ai russi di accedere a fonti di informazione non controllate dal Cremlino.

L’Iran blocca X e Facebook dal 2009, insieme a YouTube e molte altre piattaforme. Il Turkmenistan applica restrizioni simili, con uno dei punteggi più bassi al mondo in termini di libertà di Internet (2 su 100 secondo Freedom House).

Il Myanmar ha bloccato Facebook, X e Instagram dopo il colpo di Stato militare del febbraio 2021, cercando di controllare il flusso di informazioni sulle proteste e sulla repressione.

TikTok merita un discorso a parte. L’India l’ha vietata nel 2020 per ragioni di sicurezza nazionale, diventando il primo grande Paese a farlo. L’Albania ha imposto un divieto completo nel 2025, citando la violenza giovanile e l’instabilità sociale. Gli Stati Uniti hanno attraversato mesi di incertezza normativa, con TikTok brevemente sospesa a gennaio 2025 prima di ottenere una proroga di 75 giorni. Il Canada ha chiuso gli uffici di TikTok nel Paese per motivi di sicurezza nazionale, pur lasciando l’app accessibile agli utenti comuni.

Un caso interessante è quello del Brasile, che nell’agosto 2024 ha temporaneamente bloccato X dopo che Elon Musk si era rifiutato di nominare un rappresentante legale nel Paese e di rimuovere account accusati di diffondere odio e disinformazione legati ai sostenitori dell’ex presidente Bolsonaro. Il blocco è durato circa 40 giorni, fino a quando X ha pagato le multe (circa 5,2 milioni di dollari), nominato un rappresentante legale e rimosso i contenuti contestati. Un precedente significativo perché dimostra che anche le democrazie possono arrivare a bloccare piattaforme quando queste si rifiutano sistematicamente di rispettare le leggi locali.

La differenza tra censura e regolamentazione

Questo caso russo dovrebbe rammentare quali sono i Paesi che davvero osteggiano e censurano le piattaforme. Un tema su cui spesso si fa molta confusione, soprattutto quando si parla di regolamentazione nell’UE.

Quando la Russia limita Telegram per spingere i cittadini verso un’app di sorveglianza statale, siamo di fronte a censura. Quando la Cina blocca tutte le piattaforme occidentali per controllare il flusso informativo, siamo di fronte a censura. Quando l’Iran vieta Telegram per reprimere le proteste, siamo di fronte a censura.

Quando invece l’UE chiede alle piattaforme di rispettare il Digital Services Act, di essere trasparenti sugli algoritmi, di rimuovere contenuti illegali e di proteggere i minori, siamo di fronte a regolamentazione democratica. Sono due cose profondamente diverse, anche se spesso vengono confuse nel dibattito pubblico.

La partita sul controllo dell’informazione digitale in Russia entra in una nuova fase. E ancora una volta, la libertà di comunicare diventa il campo di battaglia. Ma è fondamentale non perdere di vista le distinzioni: c’è chi blocca le piattaforme per controllare i cittadini e chi chiede alle piattaforme di rispettare regole democratiche. La differenza non è sottile, è sostanziale.

L’UE accusa Meta di abuso di posizione dominante su WhatsApp

L'UE accusa Meta di abuso di posizione dominante su WhatsApp

La Commissione UE contesta a Meta l’esclusione dei chatbot AI concorrenti da WhatsApp e prepara misure provvisorie per evitare danni irreparabili al mercato degli assistenti di intelligenza artificiale in UE.

La Commissione Europea ha inviato oggi, 9 febbraio 2026, una comunicazione formale a Meta Platforms, contestando formalmente la violazione delle norme antitrust dell’Unione Europea.

Al centro della vicenda c’è la decisione di Meta di escludere da WhatsApp tutti gli assistenti di intelligenza artificiale concorrenti di Meta AI, il proprio servizio proprietario.

Con questa comunicazione, la Commissione intende imporre misure provvisorie per evitare quelli che definisce “danni gravi e irreparabili al mercato”.

Ma come si è arrivati fin qui? Per capirlo bisogna fare un passo indietro di qualche mese.

Cosa ha fatto Meta e perché l’UE si è mossa

Nell’ottobre 2025, Meta ha annunciato un aggiornamento dei termini della WhatsApp Business Solution, il sistema attraverso cui le aziende comunicano con i propri clienti sulla piattaforma di messaggistica.

La modifica, in sostanza, ha introdotto un divieto per i fornitori di intelligenza artificiale di utilizzare le API di WhatsApp Business quando l’AI rappresenta il servizio principale offerto.

Per le imprese già presenti sulla piattaforma, la nuova regola è diventata pienamente operativa dal 15 gennaio 2026. Per i nuovi ingressi, il divieto era già in vigore dal 15 ottobre 2025.

Il risultato concreto è che dal 15 gennaio 2026 l’unico assistente AI disponibile su WhatsApp nello Spazio economico europeo è Meta AI.

Servizi come ChatGPT di OpenAI, Copilot di Microsoft, Perplexity e la startup spagnola Luzia, che conta oltre 85 milioni di utenti a livello globale, si sono trovati esclusi dal canale.

E qui sta il punto critico rilevato dalla Commissione, perché l’azienda non ha vietato ogni forma di AI sulla piattaforma. Le imprese possono ancora usare strumenti di intelligenza artificiale per funzioni di supporto, come l’assistenza clienti automatizzata.

Ciò che è stato eliminato è la possibilità per i chatbot generalisti di terze parti di raggiungere gli utenti attraverso WhatsApp.

L'UE accusa Meta di abuso di posizione dominante su WhatsApp
L’UE accusa Meta di abuso di posizione dominante su WhatsApp

La posizione della Commissione Europea

Nella comunicazione a Meta, la Commissione ha espresso la propria opinione preliminare secondo cui la condotta dell’azienda sembra, a prima vista, come ricordato in apertura, violare le norme antitrust dell’UE.

Bruxelles ha concluso in via preliminare che è probabile che Meta occupi una posizione dominante nel mercato delle applicazioni di comunicazione per consumatori nello Spazio economico europeo, in particolare tramite WhatsApp. Una piattaforma che conta oltre 2 miliardi di utenti a livello globale e che solo in Italia raggiunge circa 37 milioni di utenti attivi mensili, pari a circa il 90% della popolazione connessa.

La Commissione ritiene che WhatsApp rappresenti in questa fase “un importante punto di ingresso” per consentire agli assistenti AI generici di raggiungere i consumatori. E la condotta di Meta, sempre secondo la Commissione, “rischia di innalzare barriere all’ingresso e all’espansione, e di marginalizzare irreparabilmente i concorrenti più piccoli sul mercato degli assistenti di intelligenza artificiale generici“.

La vicepresidente esecutiva Teresa Ribera, responsabile della Concorrenza, ha dichiarato che non si può permettere alle grandi aziende tecnologiche “di sfruttare illegalmente la propria posizione dominante per ottenere un vantaggio sleale” e che i mercati dell’AI si stanno sviluppando a ritmo accelerato, motivo per cui anche l’azione regolatoria deve essere altrettanto rapida.

Misure provvisorie e il precedente italiano

La Commissione intende imporre misure provvisorie che obbligherebbero Meta a mantenere l’accesso degli assistenti AI di terze parti a WhatsApp alle condizioni precedenti la modifica contrattuale dell’ottobre 2025, e quindi a ripristinare lo status quo ante mentre l’indagine prosegue.

Si tratta di uno strumento che l’esecutivo comunitario può adottare d’ufficio a indagine in corso, a titolo precauzionale. Meta ha ora la possibilità di rispondere alle obiezioni della Commissione e di chiedere un confronto.

Se al termine di questa fase i servizi dell’esecutivo dovessero concludere che sussistono le condizioni necessarie, la Commissione UE potrà adottare una decisione vincolante.

Va detto che l’Italia ha giocato d’anticipo su questa vicenda.

L’Autorità Garante della Concorrenza e del Mercato (AGCM) aveva già avviato un’istruttoria a luglio 2025 per possibile abuso di posizione dominante legato alla pre-installazione di Meta AI su WhatsApp. A novembre 2025 l’indagine è stata ampliata per includere i nuovi termini contrattuali e, il 22 dicembre 2025, l’AGCM ha imposto a Meta misure cautelari, ordinando la sospensione immediata dei WhatsApp Business Solution Terms sul territorio italiano.

Non a caso, l’indagine formale della Commissione Europea copre l’intero Spazio economico europeo a eccezione dell’Italia, proprio per evitare sovrapposizioni con il procedimento nazionale. Le due autorità stanno lavorando in coordinamento.

L'UE accusa Meta di abuso di posizione dominante su WhatsApp
L’UE accusa Meta di abuso di posizione dominante su WhatsApp

La posizione di Meta

Meta ha respinto le contestazioni in modo deciso. Un portavoce dell’azienda ha affermato che non esiste motivo per l’intervento dell’UE, perché le opzioni per accedere ai servizi AI sono numerose: app store, sistemi operativi, siti web, partnership industriali.

La logica della Commissione, secondo Meta, “presuppone erroneamente che la WhatsApp Business API sia un canale di distribuzione chiave per questi chatbot”.

Già a dicembre, in risposta all’intervento dell’Antitrust italiano, WhatsApp aveva definito la decisione “fondamentalmente viziata, sostenendo che la propria API non è stata progettata per supportare la distribuzione di chatbot AI di terze parti e che l’emergere di questi servizi sulle Business API aveva messo sotto pressione sistemi non concepiti per tale utilizzo.

Una vicenda che riguarda i confini della IA

Quello che si sta delineando tra Bruxelles e Meta va oltre la singola disputa commerciale. Si tratta di un caso che definirà i confini entro cui le grandi piattaforme digitali potranno integrare i propri servizi di intelligenza artificiale nei propri ecosistemi, senza escludere la concorrenza.

Il mercato dell’AI generativa nell’Unione Europea, secondo i dati citati dall’AGCM, valeva circa 4,4 miliardi di dollari nel 2024, è cresciuto a 7,3 miliardi nel 2025 e si stima possa raggiungere gli 11,7 miliardi nel 2026.

Siamo ancora in una fase iniziale, ma la velocità di crescita è tale che le scelte regolatorie compiute oggi avranno effetti strutturali nel medio e lungo periodo.

Può una piattaforma di messaggistica con oltre 2 miliardi di utenti, che viene utilizzata quotidianamente per comunicazioni personali e professionali, trasformarsi in un canale di distribuzione esclusivo per il servizio AI del suo proprietario?

Secondo la Commissione Europea e l’Antitrust italiano la risposta è no, perché una scelta del genere rischia di cristallizzare il mercato attorno a pochi operatori dominanti prima ancora che la competizione possa dispiegarsi sui meriti.

Potrebbe essere un precedente per tutto il settore IA

Se il provvedimento dovesse essere confermato, si consoliderebbe un precedente rilevante per l’intero ecosistema digitale europeo.

La competizione nei mercati dell’intelligenza artificiale non potrà più essere condotta sfruttando asimmetrie di accesso agli utenti e ai dati, ma dovrà fondarsi sulla qualità dei servizi offerti.

Un principio che, se affermato, contribuirebbe a mantenere aperti e contendibili mercati che, senza intervento, rischiano di chiudersi rapidamente.

In caso di violazione accertata delle norme antitrust, Meta rischia una sanzione fino al 10% del fatturato annuo globale. Stiamo parlando di una cifra che si aggira attorno ai 20 miliardi di euro, sarebbe quindi la multa più alta mai comminata. E, inoltre, finirebbe per rendere ancora più aspre le relazioni Usa-UE di quanto non lo siano oggi.

Ma al di là delle cifre, la posta in gioco è il modello stesso di regolazione della concorrenza nell’era dell’intelligenza artificiale. E l’UE, ancora una volta, si propone come il regolatore di riferimento.

La Commissione UE accusa TikTok: il design dell’app crea dipendenza

La Commissione UE accusa TikTok: il design dell'app crea dipendenza

La Commissione UE accusa TikTok di violare il DSA. Scroll infinito, autoplay e algoritmo creano dipendenza nei minori. ByteDance respinge le accuse e annuncia battaglia legale. Rischio multa miliardaria.

La Commissione UE ha formalizzato le contestazioni a TikTok per violazione del Digital Services Act. Al centro della contestazione c’è l’architettura stessa della piattaforma di ByteDance, progettata secondo Bruxelles per massimizzare il tempo di permanenza degli utenti attraverso meccanismi che sfruttano le vulnerabilità psicologiche.

Non si tratta di una multa, almeno non ancora. Ma le conclusioni preliminari della Commissione aprono una fase decisiva del procedimento formale avviato il 19 febbraio 2024, quasi due anni fa.

La vicenda si inserisce in un contesto europeo sempre più deciso a intervenire sulla regolamentazione delle piattaforme social, con particolare attenzione alla tutela dei minori.

Una accelerazione che arriva pochi giorni dopo l’annuncio della Spagna di voler vietare i social ai minori di 16 anni, seguendo l’esempio dell’Australia che dal 10 dicembre 2025 ha introdotto il divieto più stringente al mondo in questo contesto.

Cosa contesta la Commissione UE a TikTok

Le funzionalità sotto accusa sono quattro e rappresentano i pilastri dell’esperienza utente su TikTok. E cioè: lo scorrimento infinito, la riproduzione automatica dei video, le notifiche push e il sistema di raccomandazione altamente personalizzato.

Secondo l’indagine della Commissione, TikTok non ha valutato adeguatamente come queste caratteristiche possano danneggiare il benessere fisico e mentale degli utenti, inclusi minori e adulti vulnerabili.

La commissione, nel dare notizia delle contestazioni, utilizza un’espressione efficace per descrivere il meccanismo: queste funzionalità “premiano” costantemente gli utenti con nuovi contenuti, alimentando l’urgenza di continuare a scorrere e spostando il cervello in “modalità pilota automatico”.

Ricerche scientifiche recenti dimostrano che questo può portare a comportamenti compulsivi e ridurre l’autocontrollo degli utenti. Non si tratta un’accusa generica, la Commissione cita dati specifici che TikTok avrebbe ignorato nella propria valutazione dei rischi, come il tempo che i minori trascorrono sulla piattaforma di notte e la frequenza con cui gli utenti aprono l’app.

La Commissione UE accusa TikTok: il design dell'app crea dipendenza
La Commissione UE accusa TikTok: il design dell’app crea dipendenza

Gli strumenti di protezione di TikTok non funzionano

Un punto centrale delle contestazioni riguarda l’inefficacia delle misure di mitigazione già presenti sulla piattaforma. Gli strumenti di gestione del tempo sullo schermo, secondo la Commissione, sono facili da aggirare e introducono frizioni limitate.

I controlli parentali richiedono tempo e competenze da parte dei genitori per essere attivati, risultando nella pratica poco efficaci. In sintesi, TikTok “sembra non attuare misure ragionevoli, proporzionate ed efficaci per attenuare i rischi derivanti dalla sua progettazione che crea dipendenza“.

La Commissione ritiene che TikTok debba “modificare la struttura di base del suo servizio“. Le soluzioni indicate sono radicali: disabilitare nel tempo le funzionalità che creano dipendenza come lo scroll infinito; attuare interruzioni temporali dello schermo efficaci anche durante la notte; e adattare il sistema di raccomandazione.

Si tratta di interventi che toccherebbero il cuore stesso dell’app, ossia quelle caratteristiche che hanno reso TikTok un fenomeno globale con oltre 200 milioni di utenti solo in Europa.

La risposta di TikTok e i prossimi passi

TikTok ha respinto le contestazioni con toni decisi.

Le indagini preliminari della Commissione descrivono la nostra piattaforma in modo completamente falso e privo di fondamento“, ha dichiarato un portavoce, annunciando che l’azienda “adotterà tutto il necessario per contrastare tali accuse con ogni mezzo a disposizione“. Una posizione di scontro frontale che anticipa una battaglia legale.

TikTok ha ora la possibilità di esercitare il proprio diritto alla difesa, esaminando i documenti del fascicolo e rispondendo per iscritto alle constatazioni preliminari.

Parallelamente sarà consultato il Comitato UE per i servizi digitali. Se le violazioni venissero confermate, la Commissione potrebbe infliggere un’ammenda fino al 6% del fatturato mondiale annuo di ByteDance.

Considerando che nel 2024 il gruppo ha registrato ricavi per 155 miliardi di dollari, si tratterebbe potenzialmente di una cifra che potrebbe superare i 9 miliardi di euro.

Il contesto: due anni di indagini su più fronti

Le contestazioni odierne fanno parte di un procedimento più ampio avviato nel febbraio 2024. L’indagine copre diversi aspetti della piattaforma: oltre al design che crea dipendenza, la Commissione sta esaminando l'”effetto coniglio” (rabbit hole) dei sistemi di raccomandazione, il rischio che i minori abbiano esperienze inadeguate all’età a causa di una falsa rappresentazione della loro età, e gli obblighi delle piattaforme di garantire un elevato livello di privacy, sicurezza e protezione per i minori.

Non tutto il procedimento è ancora aperto. La parte sulla trasparenza pubblicitaria è stata chiusa nel dicembre 2025 mediante impegni vincolanti accettati dalla Commissione, permettendo a TikTok di evitare una sanzione su quel fronte.

Nell’ottobre 2025 erano già state adottate conclusioni preliminari sull’accesso ai dati pubblici per i ricercatori, contestando alla piattaforma scarsa trasparenza.

Il procedimento odierno rappresenta quindi il tassello più significativo di un puzzle normativo che si sta componendo da quasi due anni.

I Paesi UE accelerano sulla protezione dei minori

Le contestazioni a TikTok si inseriscono in un contesto europeo in rapida evoluzione sulla tutela dei minori online. L’Australia ha fatto da apripista mondiale introducendo il 10 dicembre 2025 il divieto di accesso ai social per gli under 16, con risultati che i regolatori definiscono “incoraggianti”: le piattaforme hanno eliminato circa 4,7 milioni di account di minori in un solo mese.

In Europa, la Francia ha approvato il 27 gennaio il divieto per i minori di 15 anni. La Spagna ha annunciato martedì scorso, per voce del premier Pedro Sanchez, l’intenzione di vietare i social ai minori di 16 anni, definendo le piattaforme “uno Stato fallito dove si ignorano le leggi e si tollerano i reati”.

Si muovono anche Danimarca, Austria, Grecia e Portogallo, creando quella che Sanchez ha definito una “coalizione dei volenterosi digitali”. La Commissione UE sta sviluppando un’applicazione per la verifica dell’età online, in sperimentazione in Italia, Francia, Spagna, Grecia e Danimarca, che dovrebbe essere disponibile negli app store entro marzo.

Il senso di questa decisione, Henna Virkkunen

Henna Virkkunen
Henna Virkkunen

La dichiarazione della vicepresidente Henna Virkkunen, responsabile per la Sovranità tecnologica, la sicurezza e la democrazia, sintetizza la filosofia dietro questa azione:

La dipendenza dai social media può avere effetti dannosi sulle menti in via di sviluppo di bambini e adolescenti. La legge sui servizi digitali rende le piattaforme responsabili degli effetti che possono avere sui loro utenti. In Europa applichiamo la nostra legislazione per proteggere i nostri figli e i nostri cittadini online“.

Un messaggio chiaro che si inserisce nel solco della multa da 120 milioni di euro inflitta a X (ex Twitter) nel dicembre scorso, la prima sanzione nella storia del DSA.

La differenza è che qui la Commissione non contesta solo violazioni di trasparenza, ma mette in discussione l’architettura stessa di una piattaforma.

La domanda di fondo è se questo modello sia compatibile con la tutela della salute mentale degli utenti, in particolare dei più giovani. La Commissione UE con questo provvedimento sembra aver preso una posizione chiara.

Il dibattito è destinato a proseguire ben oltre i confini di questo singolo caso, perché le funzionalità contestate non sono esclusive solo di TikTok.  Come abbiamo raccontato più volte qui su questo blog, il processo di tiktokizzazione ha influenzato ormai tutto lo scenario dei social media.

Instagram Reels, YouTube Shorts, e altre piattaforme utilizzano meccanismi simili. Se le violazioni venissero confermate, potrebbe crearsi un precedente normativo che potrebbe applicarsi all’intero settore.

In Francia perquisita la sede di X e Musk convocato in Procura

In Francia perquisita la sede di X e Musk convocato in Procura

La Procura di Parigi ha perquisito gli uffici francesi di X e convocato Elon Musk e l’ex CEO Linda Yaccarino per il 20 aprile. L’inchiesta, avviata nel gennaio 2025, si è allargata a Grok e ai deepfake sessuali. È la prima volta che un proprietario di una grande piattaforma viene convocato dalla giustizia di uno Stato membro UE.

Martedì 3 febbraio 2026, la sezione per la lotta al cybercrimine della Procura di Parigi ha perquisito la sede francese di X, la piattaforma di Elon Musk. L’operazione, condotta in collaborazione con la Gendarmeria nazionale ed Europol, rappresenta il passaggio più concreto di un’inchiesta che va avanti da oltre un anno. E che ora chiama in causa direttamente il proprietario della piattaforma.

Musk e Linda Yaccarino, che è stata CEO di X dal 2023 al 2025, sono stati convocati per un’audizione libera il prossimo 20 aprile 2026. La Procura li ha citati rispettivamente come “gestore di fatto” e “gestore di diritto” della piattaforma. Durante la stessa settimana saranno ascoltati anche altri dipendenti di X come testimoni.

Il caso di oggi rappresenta un fatto senza precedenti. Mai prima d’ora il proprietario di una delle maggiori piattaforme digitali al mondo era stato convocato dalla giustizia di uno Stato membro dell’Unione Europea.

X in Francia, come nasce l’inchiesta

L’indagine della magistratura francese ha origine nel 2025, quando il deputato Éric Bothorel, esponente del partito Renaissance di Emmanuel Macron e specializzato in cybersicurezza, ha presentato una segnalazione formale alla Procura di Parigi.

Nel suo esposto, Bothorel denunciava le modifiche apportate all’algoritmo di X dopo l’acquisizione da parte di Musk nel 2022, sostenendo che tali cambiamenti favorissero la diffusione di informazioni false e contenuti polarizzanti. Stiamo parlando delle modifiche apportate e rese visibili dall’agosto del 2023.

Bothorel aveva osservato una “riduzione della diversità delle voci e delle opzioni” sulla piattaforma, che si sarebbe allontanata dall’obiettivo di garantire un ambiente sicuro e rispettoso. Contestava inoltre l’assenza di chiarezza sui criteri che hanno guidato i cambiamenti algoritmici e gli interventi personali di Musk nella gestione della piattaforma.

Bothorel attraverso questa denuncia rendeva concreta quella che era una sensazione di molti utenti sulla piattaforma.

Una seconda segnalazione è arrivata da un alto funzionario della cybersicurezza pubblica francese, che ha denunciato come l’algoritmo di X proponesse “enormi contenuti politici di incitamento all’odio, razzisti, anti-LGBT+ e omofobi, puntando a orientare il dibattito democratico in Francia“.

La Gendarmeria nazionale è stata incaricata delle indagini il 9 luglio 2025, con l’apertura formale del procedimento per “alterazione del funzionamento di un sistema di trattamento automatizzato di dati in banda organizzata“.

In Francia perquisita la sede di X e Musk convocato in Procura
In Francia perquisita la sede di X e Musk convocato in Procura

L’allargamento delle indagini a Grok e ai deepfake

L’inchiesta non si è fermata agli algoritmi. A gennaio 2026, la Procura di Parigi ha ampliato il fascicolo dopo ulteriori segnalazioni relative al funzionamento di Grok, l’intelligenza artificiale sviluppata da xAI e integrata nella piattaforma X.

Grok è finito al centro di uno scandalo internazionale per la generazione di deepfake sessualmente espliciti. Secondo un’analisi del Center for Countering Digital Hate, organizzazione no-profit britannica, tra il 29 dicembre 2025 e il 9 gennaio 2026 sono state prodotte o modificate circa 3 milioni di immagini sessualmente esplicite raffiguranti persone reali senza il loro consenso. Di queste, circa 23.000 avevano come soggetto dei minori.

I numeri sono impressionanti. In soli 11 giorni, Grok avrebbe generato contenuti a sfondo sessuale in media ogni pochi secondi e materiale che coinvolgeva minori circa una volta ogni 41 secondi.

La risposta di xAI è arrivata a tappe. Il 9 gennaio la possibilità di “spogliare” persone reali con Grok è stata limitata agli abbonati premium. Il 14 gennaio, dopo le proteste di governi e istituzioni di diversi Paesi, la restrizione è stata estesa a tutti gli utenti. Ma i test condotti da diverse testate giornalistiche hanno mostrato che alcune funzionalità problematiche restano aggirabili.

C’è poi un altro elemento che ha contribuito all’ampliamento dell’inchiesta. A novembre 2025, Grok aveva generato un post in lingua francese che metteva in dubbio l’uso delle camere a gas ad Auschwitz, riproponendo uno dei più tossici cliché della propaganda negazionista. Il contenuto è rimasto online per quasi tre giorni, raggiungendo oltre un milione di visualizzazioni prima di essere rimosso.

X e l’indagine in Francia, i capi d’accusa

Il comunicato della Procura di Parigi elenca i reati su cui verte l’indagine. L’elenco è lungo e tocca diversi ambiti del diritto francese.

Si va dalla complicità nella detenzione e nella diffusione di immagini pedopornografiche alla lesione del diritto all’immagine della persona tramite deepfake a carattere sessuale.

Compare poi la contestazione di crimini contro l’umanità, che in Francia rappresenta il reato di negazionismo.

L’inchiesta riguarda anche l’estrazione fraudolenta di dati e l’alterazione del funzionamento di un sistema di trattamento automatizzato, entrambi in associazione a delinquere.

Infine, c’è la gestione illegale di una piattaforma online, sempre in associazione a delinquere.

È importante precisare che si tratta di un’audizione libera, non di un fermo. Musk e Yaccarino sono stati convocati per esporre la loro posizione sui fatti e illustrare le eventuali misure di conformità previste. La procuratrice Laure Beccuau ha definito l’approccio “costruttivo”, sottolineando che l’obiettivo ultimo è garantire la conformità della piattaforma alle leggi francesi.

La sede perquisita di X e le competenze giurisdizionali

Gli uffici perquisiti si trovano a Parigi e ospitano principalmente i servizi di comunicazione e pubbliche relazioni di X per il mercato francese. La sede giuridica della società si trova in Irlanda, dove X risulta stabilita ai fini del Digital Services Act europeo.

Questo solleva una questione rilevante. L’inchiesta francese procede sul piano del diritto penale nazionale, parallelamente alle procedure che la Commissione Europea sta conducendo ai sensi del DSA. Sono due binari distinti che possono procedere in modo indipendente.

Un dettaglio significativo emerge dalla risposta della stessa Procura di Parigi. L’ufficio ha comunicato che abbandonerà X come canale ufficiale di comunicazione, spostando le proprie comunicazioni istituzionali su LinkedIn e Instagram.

Il contesto europeo

Questa perquisizione si inserisce in un quadro più ampio di tensioni tra X e le autorità europee. Come abbiamo raccontato su questo blog, il 5 dicembre 2025 la Commissione Europea ha inflitto a X la prima multa della storia ai sensi del Digital Services Act, pari a 120 milioni di euro per tre violazioni degli obblighi di trasparenza. X non rispettava le regole sul design ingannevole delle spunte blu, sulla trasparenza del registro pubblicitario e sull’accesso ai dati per i ricercatori.

Il 26 gennaio 2026, la Commissione ha aperto una nuova indagine formale specificamente su Grok e sui deepfake sessuali. Henna Virkkunen, vicepresidente esecutiva per la Sovranità tecnologica, ha definito i deepfake sessuali non consensuali di donne e bambini “una forma violenta e inaccettabile di degradazione”.

L’indagine UE valuterà se X abbia violato gli articoli 34, 35 e 42 del DSA, che impongono alle grandi piattaforme di analizzare e mitigare i rischi sistemici prima di lanciare nuove funzionalità. La Commissione contesta in particolare il fatto che X non abbia trasmesso una valutazione ad hoc dei rischi prima di distribuire le funzionalità di Grok che hanno avuto un impatto critico sul profilo di rischio della piattaforma.

Le implicazioni per l’Europa

L’azione della Francia rappresenta un passaggio significativo nel rapporto tra piattaforme digitali e autorità nazionali europee. Come ricordato all’inizio, per la prima volta, uno Stato membro utilizza il proprio sistema giudiziario penale per chiamare in causa direttamente il proprietario di una grande piattaforma.

Il deputato Bothorel, che ha dato avvio all’inchiesta con la sua segnalazione, ha commentato la perquisizione con un post su X nel quale ha scritto che “in Europa e in particolare in Francia, lo Stato di diritto significa che nessuno è al di sopra della legge e che i regolamenti europei, integrati nel diritto francese, sono vincolanti per tutti“.

La vicenda potrebbe creare un precedente. Altri Paesi europei potrebbero sentirsi legittimati a investigare sulle pratiche di X e delle altre grandi piattaforme, aprendo una stagione di controlli più incisivi sul funzionamento degli algoritmi e sulla responsabilità delle piattaforme per i contenuti che ospitano e amplificano.

Il contesto geopolitico rende tutto più delicato.

Le relazioni tra Stati Uniti e Unione Europea sono già tese su diversi fronti, e Musk è diventato una figura centrale per l’amministrazione Trump.

L’ex Commissario europeo Thierry Breton, che aveva guidato l’elaborazione del DSA, è stato inserito nella lista delle personalità a cui Washington ha vietato l’ingresso negli Stati Uniti proprio per il suo ruolo nella regolamentazione delle piattaforme digitali.

X, Musk e il precedente in Brasile

Questa vicenda richiama inevitabilmente quanto accaduto in Brasile tra aprile e ottobre 2024.

Anche in quel caso, il confronto riguardava la richiesta di rimuovere account accusati di diffondere disinformazione e il rifiuto di Musk di conformarsi alle richieste del giudice Alexandre de Moraes. Anche allora, Musk aveva parlato di “censura” e “dittatura”, scatenando una campagna d’odio contro la Corte Suprema Federale brasiliana.

Dopo il blocco totale della piattaforma, che aveva tagliato fuori oltre 22 milioni di utenti brasiliani, Musk fu costretto a cedere. Pagò oltre 5 milioni di dollari di multa, nominò un rappresentante legale locale e dalla piattaforma vennero rimossi gli account contestati.

X era tornò online solo dopo aver rispettato tutte le condizioni poste dalla magistratura brasiliana.

Il caso brasiliano ha dimostrato due cose. La prima è che quando uno Stato democratico è determinato a far rispettare le proprie leggi, anche il proprietario della piattaforma più influente del mondo alla fine si adegua.

La seconda è che il prezzo del mancato adeguamento può essere molto alto, non solo in termini economici ma anche di perdita di utenti e danno reputazionale.

L’approccio francesce, almeno per ora, è diverso, più graduale. Si procede con una perquisizione e una convocazione, non un ban immediato.

Ma il messaggio di fondo è lo stesso che ho avuto modo di analizzare in quel caso: il rispetto delle leggi non è censura.

E nessuna piattaforma, per quanto potente, può dichiararsi immune dalle regole che valgono per tutti coloro che operano sul territorio di uno Stato sovrano.

Resta da capire se Musk seguirà lo stesso percorso del Brasile, cedendo alle richieste dopo un iniziale muro contro muro. Oppure se, forte della sua vicinanza all’amministrazione Trump, deciderà di irrigidirsi ulteriormente, trasformando il caso francese in uno scontro frontale tra Washington e l’Europa sulla regolamentazione delle piattaforme digitali.

X e l’indagine in Francia, cosa aspettarci

L’appuntamento del 20 aprile 2026 rappresenterà un momento chiave. Le audizioni di Musk e Yaccarino permetteranno agli inquirenti di valutare le posizioni della dirigenza di X sui fatti contestati e le eventuali misure di adeguamento previste.

Resta da capire se Musk si presenterà effettivamente a Parigi. L’audizione è “libera”, il che significa che non è obbligato a comparire. Ma la sua assenza avrebbe un significato politico notevole e potrebbe influenzare l’evoluzione del procedimento.

L’inchiesta francese procede in parallelo a quella della Commissione Europea. Sono due livelli di enforcement distinti, il diritto penale nazionale e la regolamentazione europea sulle piattaforme, che convergono sullo stesso obiettivo: verificare se X rispetti le regole che valgono per tutti coloro che operano sul territorio europeo.

È un test importante per l’Europa. La capacità di far rispettare le proprie leggi alle grandi piattaforme digitali, anche quando sono di proprietà dell’uomo più ricco del mondo, definirà la credibilità del quadro normativo che l’Unione si è data negli ultimi anni. E la Francia, con questa perquisizione e con la convocazione di Musk, ha scelto di posizionarsi in prima linea.

SpaceX acquisisce xAI, nasce un colosso da 1,25 trilioni di dollari

SpaceX acquisisce xAI, nasce un colosso da 1,25 trilioni di dollari

SpaceX assorbe xAI creando un colosso privato da 1,25 trilioni di dollari. Un’operazione che intreccia spazio, AI, piattaforme e istituzioni, ponendo interrogativi su potere, controllo e supervisione.

SpaceX ha annunciato l’acquisizione di xAI. Non si tratta della solita operazione tra startup della Silicon Valley, ma è qualcosa di diverso. SpaceX, l’azienda che ha rivoluzionato il settore spaziale con i razzi riutilizzabili e che oggi domina il mercato dei lanci orbitali, ha assorbito xAI, la società di intelligenza artificiale che controlla anche X, l’ex Twitter. Il risultato è un’entità privata dal valore stimato di 1,25 trilioni di dollari, destinata a diventare la più grande azienda privata al mondo.

Elon Musk ha commentato l’operazione parlando di “il motore di innovazione più ambizioso e verticalmente integrato sulla Terra (e fuori)”, un motore di innovazione che combina AI, razzi, internet satellitare e quella che lui definisce “la piattaforma di informazione in tempo reale e libertà di parola più importante al mondo“, cioè X.

Ma dietro la retorica della visione di Musk, ci sono numeri e fatti che ci mostrano una storia più complessa.

SpaceX e xAI, i numeri dell’operazione

SpaceX era stata valutata circa 800 miliardi di dollari nell’ultima vendita secondaria di azioni, a dicembre 2025. xAI aveva raggiunto i 230 miliardi nel round di finanziamento da 20 miliardi chiuso a gennaio 2026, con investitori come Nvidia, Fidelity, il Qatar Investment Authority e il fondo di Abu Dhabi MGX.

La valutazione combinata dell’entità post-fusione è stimata a 1,25 trilioni di dollari, una cifra che incorpora le aspettative del mercato in vista dell’IPO prevista per metà giugno 2026. Se confermata, sarebbe una delle più grandi quotazioni della storia, superiore al record di Saudi Aramco del 2019.

I dati fondamentali delle due aziende sono però molto diversi.

SpaceX ha generato nel 2025 ricavi stimati tra 15 e 16 miliardi di dollari, con profitti intorno agli 8 miliardi secondo Reuters. Starlink conta oltre 9 milioni di clienti e più di 9.000 satelliti in orbita. È un’azienda che funziona. xAI è un’altra storia.

Secondo quanto riporta Bloomberg, la società brucia circa un miliardo di dollari al mese. Nel terzo trimestre del 2025 ha registrato una perdita netta di 1,46 miliardi, in aumento rispetto al miliardo del primo trimestre. Nei primi nove mesi dell’anno ha consumato 7,8 miliardi di dollari in cassa. I ricavi si attestano a 107 milioni nel Q3 2025, in crescita ma lontani anni luce dai costi.

SpaceX acquisisce xAI, nasce un colosso da 1,25 trilioni di dollari
SpaceX acquisisce xAI, nasce un colosso da 1,25 trilioni di dollari

I fondi QIA e MGX

Per inciso, il Qatar Investment Authority e il fondo di Abu Dhabi MGX non sono nomi che passano inosservati.

Il Qatar Investment Authority ha investito 375 milioni di dollari nell’acquisizione di Twitter da parte di Musk nel 2022. È coinvolto anche in xAI all’interno di un investimento, round E, da 20 miliardi.

Il fondo di Abu Dhabi MGX detiene il 15% di TikTok US, l’app appena varata negli Usa che sostituisce TikTok. Lo stesso MGX, come il Qatar Investment Authority, ha investito anche in xAI in un round E da 20 miliardi. Ha investito anche nel consorzio che ha appena acquistato Aligned Data Centers per 40 miliardi insieme a Nvidia, Microsoft, BlackRock e xAI stessa.

Il significato di questa acquisizione

Per comprendere meglio cosa significa questa acquisizione bisogna ricostruire la catena di controllo.

Nel marzo 2025, xAI ha acquisito X (ex Twitter) con un’operazione all-stock da 33 miliardi di dollari. Da quel momento, la piattaforma social e il chatbot Grok sono diventati parte della stessa entità. Ora xAI viene assorbita da SpaceX.

Questo significa che SpaceX controlla adesso razzi e lanci orbitali, la costellazione Starlink con i suoi 9.000 satelliti, la piattaforma X con i suoi dati e il suo algoritmo, e Grok, l’intelligenza artificiale che alimenta X e che è integrata nei sistemi del Pentagono.

Infatti, a gennaio 2026, il Dipartimento della Difesa americano ha annunciato una partnership con xAI per integrare Grok nella piattaforma governativa GenAI.mil. Il contratto, del valore di 200 milioni di dollari, prevede che circa tre milioni di dipendenti militari e civili del Penatgono abbiano accesso a Grok, con la capacità di elaborare “insight globali in tempo reale dalla piattaforma X”.

Tesla per il momento è fuori

La Tesla per il momento resta fuori dalla fusione, ma non è estranea alla vicenda. Il 16 gennaio 2026, Tesla ha investito 2 miliardi di dollari in xAI come parte del round Series E.

L’investimento è stato annunciato nonostante gli azionisti Tesla avessero votato contro una proposta simile a novembre 2025. Il voto non vincolante aveva raccolto più voti favorevoli che contrari, ma le astensioni, trattate come voti negativi secondo lo statuto societario, avevano fatto fallire la proposta. Il board ha proceduto comunque.

C’è anche una causa in corso. Alcuni azionisti Tesla hanno citato Musk per violazione dei doveri fiduciari, sostenendo che avrebbe dirottato risorse e talenti da Tesla verso xAI, un’azienda privata in cui detiene una quota di controllo maggiore. La causa era già in corso quando Tesla ha effettuato l’investimento.

Ora quegli stessi 2 miliardi di dollari degli azionisti Tesla sono di fatto confluiti in SpaceX attraverso l’acquisizione. Gli azionisti Tesla possiedono indirettamente una piccola quota di SpaceX, senza aver mai votato per questo.

C’è chi parla apertamente di una vera e propria operazione di salvataggio. xAI stava bruciando cassa a ritmi difficilmente sostenibili e l’ingresso nell’orbita SpaceX le garantisce l’accesso a un’azienda profittevole e, soprattutto, una possibile via d’uscita per gli investitori in vista di una futura quotazione.

Non a caso, in molti richiamano il precedente dell’acquisizione di SolarCity da parte di Tesla nel 2016, letta allora, e ancora oggi, come un’operazione di sistema più che come una semplice scelta industriale.

La visione dei data center orbitali

Musk giustifica l’operazione con una visione futuristica. Nel comunicato, ha scritto che “la domanda globale di elettricità per l’AI semplicemente non può essere soddisfatta con soluzioni terrestri, nemmeno nel breve termine, senza imporre disagi alle comunità e all’ambiente”. La soluzione di cui Musk ha parlato anche al recente World Economic Forume di Davos, è spostare di data center nello spazio e alimentarli attraverso energia solare costante.

SpaceX ha già chiesto alla FCC l’autorizzazione per lanciare fino a un milione di satelliti per questo scopo.

Musk sostiene che “entro 2-3 anni, il modo più economico per generare AI compute sarà nello spazio”. Gli analisti sono scettici. Le sfide tecniche sono enormi, dalla latenza ai danni da radiazioni, dalla manutenzione impossibile all’obsolescenza rapida dell’hardware.

Il punto, probabilmente, è un altro.

Legare SpaceX alla crescente domanda di infrastruttura per l’intelligenza artificiale, con la possibilità di considerare xAI come primo grande utilizzatore interno, consente di attribuire a SpaceX una nuova cornice di valutazione e, allo stesso tempo, di iniziare a far percepire l’infrastruttura in orbita come una possibile risposta ai limiti che l’AI sta cominciando a incontrare sulla Terra.

È una dinamica perfettamente coerente con il modo di pensare di Musk: non presentare soluzioni già compiute, ma rendere un’idea abbastanza concreta da permettere al mercato di iniziare a darle un prezzo.

Il vero senso di questa operazione

L’acquisizione di xAI da parte di SpaceX non è una semplice fusione tra due aziende tecnologiche. Ma è la creazione di un’entità che possiamo ben definire senza precedenti, che combina capacità spaziali, infrastruttura di comunicazione globale, piattaforma social, intelligenza artificiale e contratti governativi sensibili.

Tutto sotto il controllo di una singola persona. Il patrimonio netto di Musk, già il più alto al mondo, supera i 670 miliardi di dollari. Con l’IPO di SpaceX, potrebbe diventare il primo trilionario della storia.

A questo punto sorge spontaneo chiedersi che tipo di supervisione si possa esercitare su un’entità di questo tipo.

Ricapitolando: SpaceX lancia i satelliti nello spazio, anche satelliti militari americani; Starlink fornisce connettività ovunque nel mondo, anche alle forze armate in zona di guerra; Grok, tra le altre cose, analizza dati per il Pentagono attingendo ai flussi di X; X, a sua volta, determina quali contenuti hanno visibilità per centinaia di milioni di persone.

Tutto questo fa capo a un unico proprietario.

Non è fantascienza, ma è realtà.

Meta, 2025 da record verso la superintelligenza personale

Meta, 2025 da record verso la superintelligenza personale

I risultati di Meta del Q4 2025 confermano la crescita delle piattaforme social, con oltre 3,5 miliardi di utenti giornalieri. Per il 2026 si prevedono investimenti fino a 135 miliardi di dollari in infrastrutture IA.

Meta ha rilasciato i risultati finanziari del quarto trimestre e dell’intero anno fiscale 2025. Numeri che superano le aspettative degli analisti finanziari su tutti i principali indicatori.

Ma al di là dei numeri puramente finanziari, quello che emerge dalla conference call di Mark Zuckerberg è una visione chiara e ambiziosa per il futuro dell’azienda, che passa attraverso l’intelligenza artificiale e una riorganizzazione profonda delle proprie piattaforme.

Meta numeri del trimestre Q4 2025

I ricavi del Q4 2025 hanno raggiunto i 59,89 miliardi di dollari, in crescita del 24% rispetto allo stesso periodo dell’anno precedente.

L’utile netto si è attestato a 22,8 miliardi di dollari con un EPS di 8,88 dollari, superando le stime degli analisti che si fermavano a 8,23 dollari.

Per l’intero anno fiscale 2025, Meta ha generato ricavi per 200,97 miliardi di dollari, con una crescita del 22% rispetto al 2024.

La società ha chiuso l’anno con 81,59 miliardi di dollari in liquidità e titoli negoziabili.

Meta, 2025 da record verso la superintelligenza personale
Meta, 2025 da record verso la superintelligenza personale

Le piattaforme Meta: Facebook, Instagram, WhatsApp e Threads

Sono i numeri delle piattaforme a raccontare la storia più interessante per noi e chi legge InTime Blog.

Meta ha chiuso il 2025 con oltre 3,5 miliardi di persone che utilizzano almeno una delle sue app ogni giorno. Facebook e WhatsApp hanno entrambe superato i 2 miliardi di utenti attivi giornalieri, mentre Instagram si attesta poco sotto questa soglia.

Rispetto al Q4 2024, gli utenti attivi giornalieri complessivi sono cresciuti del 7%, raggiungendo i 3,58 miliardi a dicembre 2025.

Su Instagram, il tempo di visualizzazione dei Reels è aumentato di oltre il 30% anno su anno negli Usa, mentre la prevalenza di contenuti originali è cresciuta di 10 punti percentuali nel Q4, con il 75% delle raccomandazioni che ora proviene da post originali.

Su Facebook, il tempo dedicato ai video è cresciuto a doppia cifra anno su anno negli USA, con le ottimizzazioni del Q4 che hanno prodotto un aumento del 7% nelle visualizzazioni di post organici nel feed e nei video.

Threads continua a mostrare una crescita sostenuta, con 150 milioni di utenti attivi giornalieri a fine ottobre 2025 e oltre 400 milioni di utenti attivi mensili.

Le ottimizzazioni delle raccomandazioni nel Q4 hanno generato un aumento del 20% nel tempo trascorso sulla piattaforma.

Zuckerberg ha dichiarato che Threads è sulla buona strada per diventare leader nella sua categoria, quella del social testuale di breve formato dove compete direttamente con X.

Dina Powell McCormick presidente di Meta col favore di Trump

Meta AI e la visione della superintelligenza personale

Meta AI ha superato il miliardo di utenti attivi mensili (erano 600 milioni a ottobre 2025), diventando una delle piattaforme AI a più rapida crescita nella storia.

Ma Zuckerberg continua a guardare oltre. Durante la conference call ha delineato quella che definisce una “major AI acceleration” per il 2026, con l’obiettivo dichiarato di costruire quella che chiama “personal superintelligence”.

L’azienda sta lavorando per fondere i modelli linguistici di grandi dimensioni con i sistemi di raccomandazione che alimentano Facebook, Instagram e Threads. Zuckerberg ha spiegato che i sistemi attuali sono primitivi rispetto a quello che sarà possibile a breve, quando l’AI sarà in grado di comprendere gli obiettivi personali unici di ogni utente e personalizzare i feed per mostrare contenuti che aiutino le persone a migliorare la propria vita.

Nel 2025 Meta ha ricostruito le fondamenta del proprio programma AI, portando Alexandr Wang, CEO di Scale AI, a guidare i Meta Superintelligence Labs attraverso un accordo da 14,3 miliardi di dollari.

Nei prossimi mesi l’azienda inizierà a rilasciare nuovi modelli AI. Zuckerberg si aspetta che i primi modelli siano buoni, ma soprattutto che dimostrino la rapida traiettoria su cui si trova l’azienda, con l’obiettivo di spingere costantemente la frontiera nel corso dell’anno.

Meta, investimenti IA fino a 135 miliardi per il 2026

Per sostenere questa visione, Meta prevede spese in conto capitale tra 115 e 135 miliardi di dollari nel 2026, quasi il doppio rispetto ai 72,2 miliardi spesi nel 2025.

L’aumento è destinato principalmente agli sforzi dei Meta Superintelligence Labs e al core business. Come ha sottolineato la CFO Susan Li, la domanda continua a superare la capacità disponibile e l’azienda si aspetta di rimanere vincolata dalla capacità per gran parte del 2026 fino a quando le nuove strutture non entreranno in funzione.

Meta ha anche annunciato un accordo pluriennale fino a 6 miliardi di dollari con Corning per la fornitura di cavi in fibra ottica per i propri data center.

Nadella e gli altri big del tech stanno correndo tutti nella stessa direzione. Ossia costruire i data center del futuro e accumulare capacità computazionale.

Reality Labs e gli occhiali Ray-Ban

Reality Labs ha registrato una perdita operativa di 6 miliardi di dollari nel Q4, ma Zuckerberg ha indicato che si aspetta che questo sia l’anno di picco delle perdite della divisione, che inizieranno a ridursi gradualmente.

La notizia più interessante riguarda gli occhiali Ray-Ban con AI integrata: le vendite sono più che triplicate nell’ultimo anno. Zuckerberg vede questo come un momento simile all’arrivo degli smartphone, quando era solo questione di tempo prima che tutti i telefoni a conchiglia diventassero smartphone. Gli occhiali, ha detto, sono l’incarnazione definitiva della visione dell’azienda.

L’IA come strumento di trasformazione interna

Meta sta anche investendo in strumenti AI per la propria forza lavoro.

Zuckerberg ha annunciato che l’azienda eleverà i contributori individuali e appiattirà i team. E cioè che quello che oggi fanno molti grandi team può essere realizzato da una singola persona molto talentuosa con l’ausilio dell’AI.

Meta contava 78.865 dipendenti a fine 2025, in crescita del 6% anno su anno, ma ha anche effettuato 1.500 licenziamenti a Reality Labs a inizio gennaio.

Meta, le sfide e rischi all’orizzonte

La società ha segnalato che i venti contrari che arrivano dall’Unione Europea e dagli Stati Uniti potrebbero avere un impatto significativo sul business. Precisamente per l’UE ci si riferisce all’impianto di norme per regolare la IA e non solo.

Diversi processi ad alto profilo sui social media inizieranno nel corso dell’anno e potrebbero sfociare in perdite materiali. Ma la fiducia degli investitori resta alta. Infatti, il titolo è balzato di oltre il 10% nell’after-hours dopo l’annuncio dei risultati.

Secondo Zuckerberg, il 2025 è stato un anno di ricostruzione delle fondamenta mentre il 2026 sarà l’anno dell’accelerazione.

La domanda da farsi adesso è se la corsa agli armamenti IA tra i giganti tech porterà effettivamente ai benefici promessi per gli utenti, o se rappresenterà principalmente un trasferimento di valore verso i produttori di chip e infrastrutture.

Meta sembra convinta della prima ipotesi. Vedremo se sarà così.

TikTok US al via tra le polemiche, ecco chi gestirà l’algoritmo

TikTok US al via tra le polemiche, ecco chi gestirà l'algoritmo

TikTok US ha preso il via e Oracle avrà accesso all’algoritmo. Larry Ellison, stretto alleato di Trump, è quindi al centro dell’operazione. A pochi giorni dall’accordo, già polemiche sulla visibilità dei contenuti politici.

La data era attesa ed è arrivata. Il 22 gennaio 2026 segna la nascita ufficiale di TikTok US.

Dopo anni di tensioni – dal 2020 -, proroghe, ordini esecutivi e ricorsi alla Corte Suprema, l’accordo tra Washington e Pechino è stato finalmente finalizzato.

TikTok ha annunciato la creazione di TikTok USDS Joint Venture LLC, la nuova entità che gestirà le operazioni americane della piattaforma video più discussa degli ultimi anni.

Donald Trump non ha perso l’occasione per intestarsi il risultato. Su Truth Social il presidente Usa ha ringraziato il suo staff e, soprattutto, il presidente cinese Xi Jinping “per aver lavorato con noi e, alla fine, approvato l’accordo”. Una dichiarazione che segna un cambio di registro notevole, considerando che lo stesso Trump nel 2020 aveva tentato di vietare completamente l’app.

TikTok US, la struttura dell’accordo

La nuova società sarà guidata da Adam Presser, mentre il CEO di TikTok Shou Chew siederà nel consiglio di amministrazione. ByteDance mantiene una quota del 19,9%, formalmente minoritaria ma comunque significativa.

Oracle, Silver Lake e il fondo emiratino MGX detengono ciascuna il 15%, per un totale del 45% nelle mani del consorzio principale.

Il valore complessivo dell’operazione resta fissato a 14 miliardi di dollari. Una cifra che riflette il peso di TikTok sul mercato americano, dove la piattaforma conta ora oltre 200 milioni di utenti attivi.

TikTok US al via tra le polemiche, ecco chi gestirà l'algoritmo
TikTok US al via tra le polemiche, ecco chi gestirà l’algoritmo

TikTok US, il cuore dell’accordo è l’algoritmo

Questo è il punto centrale che merita molta attenzione.

Come già ricordato, Oracle non si limiterà a ospitare i dati degli utenti americani sui propri server. La società di Larry Ellison avrà accesso al codice sorgente di TikTok, quindi avrà accesso all’algoritmo di raccomandazione che ha reso la piattaforma un fenomeno globale.

La nuova entità dovrà riallenare l’algoritmo utilizzando esclusivamente dati degli utenti americani. L’obiettivo dichiarato è garantire che il feed dei contenuti sia libero da manipolazioni esterne. Ma le implicazioni vanno ben oltre la sicurezza nazionale.

Chi controlla l’algoritmo di raccomandazione controlla ciò che oltre 170 milioni di americani vedono ogni giorno. E la domanda diventa inevitabile: chi garantisce che il nuovo algoritmo “americano” non venga a sua volta modellato secondo interessi diversi da quelli degli utenti?

TikTok US e il ruolo di Larry Ellison

Larry Ellison non è un attore neutrale in questa partita. Il fondatore di Oracle è uno dei principali sostenitori di Trump, con oltre 46 milioni di dollari donati a campagne e comitati repubblicani dal 2012. Ha ospitato eventi di raccolta fondi per Trump nella sua tenuta in California. Nel novembre 2020 ha partecipato a una telefonata con altri alleati del presidente per discutere strategie volte a contestare i risultati delle elezioni.

La sua vicinanza a Trump si è intensificata negli ultimi anni. A gennaio 2025 era presente alla Casa Bianca per l’annuncio del progetto Stargate, la joint venture per l’intelligenza artificiale con OpenAI e SoftBank. Non solo. Attraverso il figlio David, Ellison controlla ora Paramount Global (che include CBS News) e sta puntando a Warner Bros. Discovery, la società madre di CNN.

In altre parole, l’uomo che avrà accesso all’algoritmo di TikTok sta costruendo un impero mediatico che potrebbe includere presto anche alcune delle principali testate giornalistiche americane.

TikTok US e l’algoritmo del proprietario, ancora una volta

Come ho già osservato in passato, siamo di fronte a un altro caso di quello che definisco “algoritmo del proprietario”. X sotto la gestione di Elon Musk ha già dimostrato come la proprietà di una piattaforma possa influenzarne profondamente i meccanismi di distribuzione dei contenuti.

Con TikTok US la dinamica sarà diversa, ma il principio resta lo stesso. L’accesso privilegiato all’algoritmo da parte di soggetti vicini al potere politico pone interrogativi legittimi sulla neutralità della piattaforma.

Oracle potrà isolare infrastrutture e parametri, ricostruire un modello “americano”. E chi ha accesso a questi elementi ha la possibilità di modellare ciò che milioni di persone vedono.

TikTok US, un compromesso geopolitico

L’accordo soddisfa parzialmente entrambe le parti. Gli Stati Uniti ottengono il controllo formale sulla piattaforma e sui dati degli utenti americani. ByteDance mantiene una presenza, seppur minoritaria, e continuerà a monetizzare attraverso licenze e attività commerciali.

Ma restano perplessità. Alcuni esperti osservano, come già fatto mesi fa, che la struttura somiglia più a un accordo di franchising che a una vera dismissione. ByteDance non esce di scena completamente. E il fatto che circa il 30% della nuova società resti in mano ad “affiliati degli investitori esistenti di ByteDance” lascia aperti margini di ambiguità.

La legge bipartisan del 2024 richiedeva una separazione netta. La struttura negoziata dall’amministrazione Trump sembra aggirare questo requisito. Il Congresso ha già chiesto di visionare i dettagli dell’accordo per verificare la conformità ai requisiti di sicurezza nazionale.

I primi giorni di TikTok US: segnalazioni e polemiche

A pochi giorni dalla chiusura dell’accordo, sono emerse le prime segnalazioni da parte di creator e politici americani. Diversi utenti hanno denunciato un crollo improvviso della visibilità sui contenuti politici, con video fermi a zero views nonostante follower nell’ordine delle decine di migliaia.

Il senatore californiano Scott Wiener ha scritto su X: “TikTok is now state-controlled media”. Un suo video su una proposta di legge è rimasto fermo a zero visualizzazioni. Brian Krassenstein, creator con oltre 125.000 follower, ha segnalato che i suoi post politici ricevono tra 0 e 1000 views da quando gli alleati di Trump hanno preso il controllo della piattaforma.

Bernie Sanders ha elencato pubblicamente l’impero mediatico che Larry Ellison ora controlla, da TikTok a CBS, MTV, Paramount+, Nickelodeon, Simon & Schuster. E ha concluso: “This is what Oligarchy looks like.”

TikTok USDS JV ha risposto con un comunicato ufficiale attribuendo i problemi a un’interruzione infrastrutturale nei data center. Secondo la nuova entità, si tratterebbe di un “display error caused by server timeouts” che avrebbe causato temporaneamente zero views e mancati guadagni per i creator.

La spiegazione tecnica però non ha convinto tutti. E il dibattito sulla neutralità dell’algoritmo americano è destinato a proseguire.

Una storia iniziata nel 2020

La vicenda TikTok negli Stati Uniti ha attraversato sei anni di alti e bassi. Dal primo ordine esecutivo di Trump nel 2020, annullato poi da Biden; alla legge bipartisan del 2024, alla conferma della Corte Suprema nel gennaio 2025; al breve blocco dell’app, alle proroghe successive.

Dopo sei anni quella storia trova un punto di approdo. Non una conclusione definitiva, diciamolo, ma certamente un capitolo nuovo.

Alla fine, TikTok resta disponibile per oltre 170 milioni di utenti americani e l’algoritmo più potente del mondo passa sotto controllo statunitense, anche se in maniera temporanea.

Quanto durerà l’equilibrio trovato? La storia recente insegna che, quando si tratta di Trump, di rapporti con la Cina e di piattaforme digitali, nulla è mai davvero definitivo.

La UE apre un’indagine su X per le immagini di nudo di Grok

La UE apre un'indagine su X per le immagini di nudo di Grok

La Commissione UE ha deciso di aprire un’indagine sulle immagine di nudo generate dall’intelligenza artificiale Grok. L’indagine si estende anche ai sistemi di raccomandazione basati sull’intelligenza artificiale di xAI. X rischia sanzioni fino al 6% del fatturato globale.

Era una questione di tempo e quel tempo è arrivato oggi. Infatti, la Commissione Europea ha aperto un’indagine formale su X per la diffusione di materiale sessualmente esplicito generato dal chatbot Grok.

L’indagine viene condotta ai sensi del Digital Services Act, lo stesso regolamento che a dicembre ha portato alla prima multa della storia per X ai sensi del DSA.

Ma questa volta la posta in gioco è decisamente più alta. Non si tratta più di spunte blu ingannevoli o di registri pubblicitari incompleti. Si parla di deepfake non consensuali che coinvolgono donne e minori; di immagini generate a un ritmo industriale; di una tecnologia rilasciata senza i filtri minimi necessari a prevenirne l’abuso.

La UE apre un'indagine su X per le immagini di nudo di Grok
La UE apre un’indagine su X per le immagini di nudo di Grok

Le parole di Bruxelles non lasciano spazio a interpretazioni

Henna Virkkunen, vicepresidente esecutiva della Commissione responsabile per sovranità tecnologica, sicurezza e democrazia, ha usato parole senza mezzi termini. I deepfake sessuali non consensuali di donne e bambini rappresentano “una forma violenta e inaccettabile di degradazione”.

E ha aggiunto che l’indagine servirà a determinare “se X ha rispettato i propri obblighi legali ai sensi del DSA, oppure se ha trattato i diritti dei cittadini europei, inclusi quelli di donne e minori, come danni collaterali del proprio servizio”.

Danni collaterali. È un’espressione che chi segue questa vicenda da settimane sa bene a cosa si riferisce. Perché è esattamente quello che è successo.

Come avevo illustrato all’inizio di gennaio nell’articolo sulle migliaia di immagini di nudo generate da Grok, le stime indicavano che Grok stava generando circa 6.700 immagini sessualizzate all’ora, un ritmo 84 volte superiore a quello degli altri cinque principali siti specializzati in questo tipo di contenuti. L’85% delle immagini generate era di natura sessuale. E le vittime non avevano alcuno strumento per difendersi.

L’indagine si allarga ai sistemi di raccomandazione

C’è un secondo aspetto dell’annuncio di oggi che merita attenzione. La Commissione ha anche esteso un’indagine già in corso, avviata a dicembre 2023, per verificare se X abbia valutato e mitigato correttamente tutti i rischi sistemici legati ai suoi sistemi di raccomandazione.

In particolare, i regolatori vogliono capire quale sarà l’impatto del passaggio al nuovo sistema basato interamente su Grok.

Questo è un punto che avevo approfondito analizzando come cambia l’algoritmo di X con Grok nel 2026.

A ottobre 2025 Musk aveva annunciato che entro poche settimane tutte le euristiche manuali sarebbero state eliminate, lasciando all’intelligenza artificiale il compito di analizzare e raccomandare contenuti. Quel codice è ora pubblico su GitHub, e la transizione è completata. Ma una cosa è pubblicare il codice, un’altra è garantire che il sistema non amplifichi contenuti dannosi o illegali.

La Commissione ha chiarito che X potrebbe dover affrontare misure provvisorie se non apporterà modifiche significative al proprio servizio. È un avvertimento che non era mai stato formulato in questi termini.

La risposta tardiva di xAI

La difesa di X si basa su quanto comunicato a metà gennaio. La società ha dichiarato di aver implementato misure tecniche per impedire all’account Grok su X di consentire la modifica di immagini di persone reali in abbigliamento succinto.

Ha inoltre limitato la creazione di immagini ai soli abbonati paganti e bloccato la generazione di questo tipo di contenuti nelle “giurisdizioni dove è illegale”, senza però specificare quali siano queste giurisdizioni.

Come avevo scritto nell’analisi su Grok e la spunta blu che non rende sicura la generazione di immagini, spostare la funzionalità dietro un paywall non è una misura di sicurezza. Significa in buona sostanza, avallare la monetizzazione dell’abuso. La spunta blu non funziona come filtro morale, e i dati lo dimostrano. Lo ricordiamo ancora una volta, l’utente che ha chiesto a Grok di manipolare l’immagine della donna uccisa a Minneapolis era un abbonato verificato.

Il contesto internazionale si fa sempre più ostile

Ma l’UE non è la sola a procedere in questa direzione. Anche Regno Unito, India, Malesia e altri paesi stanno conducendo indagini parallele.

In Francia, la procura di Parigi ha esteso un’indagine su X per includere accuse secondo cui Grok sarebbe stato usato per generare e diffondere materiale pedopornografico. In California, il governatore Newsom ha chiesto al procuratore generale di indagare su xAI.

E proprio nel Regno Unito, dove il governo UK ha varato la legge contro i deepfake di Grok, si è compiuto un passo decisivo. La nuova norma prevede pene detentive fino a due anni per chiunque generi deepfake intimi non consensuali, a prescindere dall’intento di condividerli. Diventa illegale anche la distribuzione di software di “denudazione”. E le piattaforme rischiano sanzioni fino al 10% del fatturato globale annuo attraverso l’Online Safety Act.

Il Regno Unito si posiziona così come il primo mercato occidentale a criminalizzare l’intero ciclo di vita del deepfake, dalla progettazione del software alla sua distribuzione, fino alla generazione della singola immagine.

Cosa succede ora

L’indagine della Commissione valuterà se X ha correttamente valutato e mitigato i rischi associati all’implementazione delle funzionalità di Grok nell’Unione Europea. Il DSA impone alle piattaforme di grandi dimensioni di identificare, analizzare e mitigare i rischi sistemici derivanti dai propri servizi.

Se la Commissione dovesse concludere che X ha violato questi obblighi, le sanzioni potrebbero arrivare fino al 6% del fatturato globale annuo.

Assumendo che il fatturato globale 2025 di X è, secondo le stime, di 2,9 miliardi di dollari, il 6% sarebbe in sostanza 174 milioni di dollari. Vale a dire, circa 146,5 milioni di euro.

Ma c’è di più. La multa di dicembre, 120 milioni di euro, era stata definita dalla stessa Commissaria Virkkunen come “modesta ma proporzionata”. Questa nuova indagine riguarda violazioni di natura completamente diversa.

Infatti, non si tratta di trasparenza pubblicitaria o di accesso ai dati per i ricercatori, pur sempre temi di una certa rilevanza. Si tratta della diffusione di contenuti che, nelle parole dei regolatori UE, costituiscono “una forma di violenza”.

La scelta di Musk di posizionare Grok come un’intelligenza artificiale “spicy”, con meno restrizioni, si scontra ora con un ecosistema normativo che non concede più sconti.

Il vero vantaggio competitivo per chi sviluppa intelligenza artificiale, oggi, non risiede nella libertà assoluta di generare qualsiasi contenuto. Ma risiede nella capacità di costruire sistemi sicuri per design.

Anche questo concetto, proprio in virtù dell’apertura di queste indagini, è utile ribadire.

Le aziende che sapranno garantire che la loro tecnologia non possa essere usata come arma di aggressione digitale saranno quelle in grado di operare in un mercato che, da oggi, ha regole molto più stringenti.

E questa è forse la lezione più importante di questa vicenda. Le conseguenze delle scelte di progettazione ricadono sempre su qualcuno. E quando ricadono sulle vittime, lo Stato interviene.

Su Threads arrivano le ads a livello globale, Meta vuole monetizzare

Su Threads arrivano le ads a livello globale, Meta vuole monetizzare

Meta lancia le ads su Threads a livello globale dopo un anno di test. La piattaforma ha superato i 400 milioni di utenti mensili e ha sorpassato X per utenti giornalieri su mobile.

Meta ha annunciato l’espansione delle pubblicità su Threads a tutti gli utenti nel mondo. Il rollout inizierà la prossima settimana e sarà graduale, potrebbe richiedere alcuni mesi per completarsi.

La piattaforma, nata nel luglio 2023 come alternativa a X, ha ora superato i 400 milioni di utenti attivi mensili.

Il percorso delle ads su Threads, i formati

Il percorso verso la monetizzazione di Threads è stato metodico. Meta aveva iniziato i test il 24 gennaio 2025 con un gruppo ristretto di brand in Stati Uniti e Giappone. Ad aprile 2025 l’azienda ha aperto la piattaforma pubblicitaria agli inserzionisti globali in mercati selezionati, aggiungendo poi a settembre i formati carousel e catalog ads insieme a un nuovo formato immagine espanso.

Nel suo comunicato ufficiale, Meta spiega che le ads su Threads rappresentano un modo semplice per gli inserzionisti di estendere la portata delle campagne esistenti.

I formati supportati includono immagini, video e carousel, tutti integrati nativamente nel feed. La novità è che Threads sarà attivato di default per le nuove campagne che utilizzano Advantage+ o i posizionamenti manuali, con la possibilità di escluderlo manualmente.

Su Threads arrivano le ads a livello globale, Meta vuole monetizzare
Su Threads arrivano le ads a livello globale, Meta vuole monetizzare

Threads supera X sugli smartphone

L’annuncio arriva in un momento particolare per la competizione tra piattaforme. Secondo i dati Similarweb pubblicati qualche giorno fa, Threads ha superato X per utenti attivi giornalieri su mobile a livello globale.

A inizio del mese di gennaio 2026 Threads contava 141,5 milioni di utenti attivi giornalieri su iOS e Android, contro i 125 milioni di X.

Il sorpasso non è stato improvviso. Similarweb indica che Threads ha superato X per la prima volta il 5 settembre 2025, con 130 milioni di utenti giornalieri contro 129 milioni. Da allora il divario è cresciuto progressivamente.

Nel corso dell’ultimo anno Threads è cresciuto del 37,8% su mobile, mentre X ha perso l’11,9% di utenti giornalieri nello stesso periodo.

La situazione cambia però se consideriamo il web. X mantiene circa 150 milioni di visite giornaliere da browser, mentre Threads raccoglie appena 8,5 milioni di visite tra Threads.com e Threads.net.

È una differenza sostanziale che riflette la natura mobile-first della piattaforma di Meta.

La crescita di Threads in numeri

La traiettoria di crescita di Threads merita qualche attenzione in più.

Al lancio nel luglio 2023 la piattaforma ha registrato un’impennata iniziale seguita da un calo fisiologico. Ma da allora i numeri hanno continuato a salire con costanza.

A metà 2024 Threads aveva raggiunto 200 milioni di utenti mensili.

A gennaio 2025 erano 320 milioni, saliti a 350 milioni ad aprile 2025 e ora a oltre 400 milioni.

Meta dichiara ufficialmente 150 milioni di utenti attivi giornalieri, una metrica che l’azienda ha iniziato a condividere solo nell’ottobre 2025. Mark Zuckerberg ha più volte indicato l’obiettivo di raggiungere un miliardo di utenti nei prossimi anni.

Inizialmente Meta aveva suggerito che le ads sarebbero arrivate solo al raggiungimento di quel traguardo, ma la crescita sostenuta ha evidentemente accelerato i piani.

Cosa cambia per gli inserzionisti

Per chi già investe in pubblicità su Meta, l’integrazione è pensata per essere il più fluida possibile. Le ads su Threads utilizzano lo stesso sistema pubblicitario basato su intelligenza artificiale di Facebook e Instagram, con lo stesso livello di personalizzazione e profilazione. Gli inserzionisti possono gestire le campagne Threads insieme a quelle per Facebook, Instagram e WhatsApp attraverso le Business Settings.

Meta ha anche esteso a Threads la verifica di terze parti già disponibile su Facebook e Instagram attraverso i Meta Business Partners. Questo fornisce agli inserzionisti una verifica indipendente sulla brand safety, un elemento rilevante considerando i problemi che il competitor X sta affrontando con la diffusione di deepfake non consensuali generati attraverso Grok.

L’azienda ha specificato che inizialmente la frequenza delle ads nel feed rimarrà bassa mentre il sistema scala verso la disponibilità globale. È un approccio prudente che mira a non compromettere l’esperienza utente durante la fase di espansione.

La monetizzazione su Threads arriva nel momento più turbolento per X

La monetizzazione di Threads avviene mentre X attraversa un periodo turbolento.

Oltre ai problemi con i contenuti generati dall’AI, la piattaforma di Elon Musk ha visto un calo significativo degli utenti negli Stati Uniti. Secondo Similarweb, gli utenti mobile giornalieri americani di X sono circa la metà rispetto a un anno fa.

Threads evidentemente beneficia dell’integrazione con l’ecosistema Meta. La piattaforma può fare leva sulla base utenti di Instagram per le promozioni incrociate e sulla sofisticata infrastruttura pubblicitaria che genera la maggior parte dei ricavi dell’azienda.

È, nei fatti, un vantaggio strutturale che nessun competitor può replicare facilmente.

Con questa mossa Meta trasforma Threads da esperimento in fonte di ricavi. La domanda ora è quanto velocemente la piattaforma riuscirà a contribuire ai risultati finanziari dell’azienda, considerando anche gli investimenti massicci in infrastruttura AI annunciati per il 2026.

Come cambia l’algoritmo di X con Grok nel 2026

Come cambia l'algoritmo di X con Grok nel 2026

Il nuovo algoritmo di X basato su Grok è ora pubblico su GitHub. Ho provato cosa contiene il repository, a spiegare cosa cambia rispetto al 2023 e quali sono le implicazioni concrete per utenti e creator.

Come certamente ricorderete, a ottobre 2025 Elon Musk annunciava che entro poche settimane l’algoritmo di X sarebbe stato interamente gestito dall’intelligenza artificiale Grok, eliminando tutte le euristiche manuali. Oggi, a distanza di due mesi, quel codice è pubblico, disponibile su GitHub nel repository xai-org/x-algorithm.

Non è la prima volta che X rende disponibile il proprio algoritmo. Era già capitato nel 2023, poco dopo l’acquisizione di Twitter, quando Musk aveva già pubblicato il codice sorgente del sistema di raccomandazione. Ma quello che vediamo oggi è qualcosa di completamente diverso. Non si tratta di un aggiornamento incrementale, ma ci troviamo di fronte ad una riscrittura totale dell’architettura.

L’obiettivo di questo articolo è analizzare cosa contiene il repository, osservare e riportare cosa cambia rispetto al sistema precedente e quali sono le implicazioni concrete per chi usa la piattaforma. Non si tratta di una considerazione tecnica, ma di comprendere insieme cosa cambia il nuovo algoritmo di X gestito da Grok, l’intelligenza artificiale di xAI.

Breve cenno all’algoritmo del 2023

Nell’agosto 2023, in un articolo sempre qui su questo blog, intitolato Come funziona il nuovo algoritmo di Twitter/X, avevo analizzato il funzionamento del sistema di raccomandazione introdotto da Musk.

Quel sistema si basava ancora su euristiche manuali, ovvero regole fisse definite dagli sviluppatori che assegnavano pesi specifici alle diverse interazioni.

Le risposte ai tweet valevano quanto 27 tweet normali. I reply dell’autore a una risposta arrivavano a pesare come 75 tweet. I link esterni venivano penalizzati perché la piattaforma tendeva a favorire contenuti interni. Gli hashtag, simbolo storico di Twitter, stavano progressivamente perdendo rilevanza.

Era già evidente, allora, quello che avevo definito “algoritmo del proprietario“: un sistema progettato per rispecchiare la visione di Musk, orientando i contenuti verso i suoi principi e le sue priorità. La trasparenza del codice non eliminava questo problema, semplicemente lo rendeva visibile a tutti.

Come cambia l'algoritmo di X con Grok nel 2026
Come cambia l’algoritmo di X con Grok nel 2026

L’annuncio nel nuovo algoritmo basato su Grok

A ottobre 2025, con un altro articolo su questo blog intitolato Come l’algoritmo di X sarà gestito dalla IA Grok, avevo raccontato l’annuncio di Musk: entro 4-6 settimane tutte le euristiche manuali sarebbero state eliminate. L’intero sistema sarebbe stato affidato a Grok, l’intelligenza artificiale sviluppata da xAI.

Da quello che in quel momento era dato sapere, Grok avrebbe analizzato ogni post, immagine e video pubblicati su X, oltre 100 milioni di contenuti al giorno, per valutarne la qualità e abbinarli agli interessi degli utenti. Gli utenti avrebbero potuto interagire con Grok per regolare il proprio feed. I pesi del modello sarebbero stati pubblicati per garantire trasparenza.

Oggi possiamo verificare cosa è stato effettivamente realizzato.

Cosa contiene il repository

Il repository xai-org/x-algorithm, pubblicato su GitHub sotto licenza Apache 2.0, contiene il codice sorgente dell’algoritmo che alimenta il feed “Per Te” di X. Il sistema è scritto principalmente in Rust (62,9%) e Python (37,1%) e si articola in quattro componenti principali.

Home Mixer: il coordinatore

È il livello di orchestrazione che assembla il feed. Coordina tutte le fasi del processo: recupero dei contenuti potenzialmente rilevanti, arricchimento dei dati, filtraggio, processo di valutazione e selezione finale. Espone un endpoint gRPC, ossia che restituisce i post ordinati per rilevanza.

Thunder: i contenuti della tua rete

Un sistema di archiviazione in memoria che traccia i post recenti degli account che si seguono. Il sistema si aggiorna in tempo reale e mantiene sezioni separate per post originali, reply, repost e video. Garantisce ricerche sotto il millisecondo senza interrogare database esterni.

Phoenix: il cuore dell’intelligenza artificiale

È il componente ML centrale, derivato da Grok-1. Svolge due funzioni distinte.

La prima è il “recupero dei post”, basato su un modello Two-Tower. Trova post rilevanti fuori dalla rete di un utente. Una torre codifica le caratteristiche dell’utente e la sua storia di engagement, l’altra codifica tutti i post con gli interessi dell’utente per trovare quelli più affini. Una ricerca per similarità restituisce i contenuti più affini agli interessi degli utenti.

La seconda è il ranking, il modello valuta ogni post in modo indipendente, assegnando un punteggio che non dipende dagli altri contenuti presenti nella stessa sessione di analisi. Predice le probabilità di engagement per ogni post. Durante l’inferenza, i candidati non possono “vedersi” tra loro, così il punteggio di un post non dipende dagli altri post analizzati nello stesso momento.

Candidate Pipeline: il sistema di selezione

Un framework riutilizzabile per costruire pipeline di raccomandazione. Definisce interfacce standardizzate per Source (recupero dei post potenziali), Hydrator (arricchimento dati), Filter (rimozione contenuti ineligibili), Scorer (calcolo punteggi) e Selector (ordinamento e selezione finale).

Come funziona il ranking del nuovo algoritmo di X

Il modello Phoenix predice probabilità per 15 tipi di azioni diverse.

Non si limita a stimare se ad un utente piacerà un contenuto, ma calcola quanto è probabile che l’utente compia ciascuna di queste azioni: mettere like, rispondere, ripostare, citare, cliccare, visitare il profilo dell’autore, guardare un video, espandere una foto, condividere, soffermarti sul contenuto, seguire l’autore.

Ma predice anche le azioni negative: segnalare “non mi interessa”, bloccare l’autore, silenziare l’autore, segnalare il contenuto.

Il punteggio finale è una somma pesata di tutte queste probabilità.

Le azioni positive hanno pesi positivi, quelle negative pesi negativi.

In teoria, questo dovrebbe penalizzare i contenuti tossici. In pratica, se un contenuto genera molte interazioni prima di essere segnalato, il sistema lo avrà già amplificato.

Cosa cambia nel concreto nel nuovo algoritmo di X

Il confronto tra il sistema del 2023 e quello attuale rivela una trasformazione radicale dell’architettura, ma alcune costanti rimangono.

Elemento
2023 (euristiche manuali)
2026 (Grok/Phoenix)
Link esterni Penalizzazione esplicita nel codice Penalizzazione confermata: i post con link sono considerati meno “nativi” e distribuiti meno
Video nativi Favoriti rispetto ai link Priorità esplicita nell’algoritmo
Account verificati/premium Boost per abbonati Twitter Blue Priorità confermata per account verificati e Premium
Valutazione contenuti Regole fisse (reply = 27 tweet, reply dell’autore = 75 tweet) Transformer predice 15 tipi di engagement
Contenuti fuori rete Limitati, focus sui seguiti 50-70% del feed “Per Te” può provenire da account non seguiti
Timeline “Seguiti” Cronologica pura Di default ordinata dall’algoritmo, cronologica solo su richiesta
Contenuti provocatori Non documentato Possono diffondersi se generano interazioni, anche negative
Hashtag Progressivamente ignorati Non più rilevanti nel nuovo sistema

 

I link esterni: la conferma di una scelta strategica

Nel 2023 avevo scritto che era preferibile condividere tweet senza includere link esterni, perché la piattaforma tendeva a tenere tutto “in casa”. Tre anni dopo, con un sistema completamente riscritto e basato su IA, il comportamento è identico.

Grok stesso conferma che i post con collegamenti esterni nel testo principale sono penalizzati nella distribuzione, perché l’algoritmo li considera meno “nativi” alla piattaforma. La strategia del “link in commento” resta valida: un articolo condiviso con il link visibile nel post raggiunge meno persone rispetto a un riassunto testuale con il link in un commento separato.

Questo orienta X verso una piattaforma sempre più chiusa e autonoma, dove i contenuti nativi hanno la precedenza su qualsiasi risorsa esterna.

Per i creator che dipendono dal traffico verso i propri siti, blog o canali YouTube, è un segnale netto: X non è più un canale di distribuzione, è una destinazione che vuole trattenere l’attenzione al suo interno.

Come cambia il feed “Per Te” di X col nuovo algoritmo

Uno dei cambiamenti più significativi apportati dal nuovo algoritmo di X basato su Grok riguarda la composizione del feed.

Se ricordate il Twitter originale, la timeline era cronologica e mostrava i post degli account seguiti. Nel sistema del 2023, l’algoritmo aveva già iniziato a introdurre contenuti esterni, ma in maniera moderata.

Oggi, secondo il nuovo algoritmo basato su Grok, il 50-70% del feed “Per Te” può provenire da account che l’utente non segue.

Il sistema Phoenix Retrieval cerca attivamente contenuti rilevanti su tutta la piattaforma X, non solo nella rete sociale dell’utente.

Questo potrebbe significare maggiore scoperta di contenuti interessanti. Ma significa anche meno controllo su cosa appare nel feed. Seguire o non seguire un account diventa sempre meno rilevante rispetto a ciò che l’algoritmo ritiene “interessante” per te.

La timeline “Seguiti” di X diventa algoritmica

Un cambiamento che potrebbe passare inosservato riguarda la timeline “Seguiti”. Prima era puramente cronologica: i post degli account seguiti apparivano in ordine temporale, dal più recente al meno recente. Era l’ultima traccia di ciò che rimaneva di Twitter.

Ora anche questa timeline è soggetta all’algoritmo di default. Il sistema ordina i contenuti in base a una stima di rilevanza calcolata dal modello automatico. La visualizzazione cronologica pura resta disponibile, ma bisogna attivarla manualmente.

L’impatto è notevole per chi usa X per notizie o aggiornamenti rapidi. Post importanti da amici o account seguiti potrebbero non apparire in cima se il sistema li considera meno coinvolgenti rispetto ad altri. Serve “scrollare” di più, oppure l’uso consapevole dei filtri manuali per tornare alla cronologia.

La rilevanza dei contenuti polarizzanti su X

Il nuovo algoritmo di X introduce la possibilità che i contenuti considerati di bassa qualità o polarizzanti, quelli che generano rabbia ma poche interazioni positive, potrebbero diffondersi di più in certi contesti, portando a un flusso percepito come più caotico.

Nel repository, il modello Phoenix predice sia azioni positive sia negative, con pesi negativi per blocco, silenziamento, segnalazione.

In teoria, questo dovrebbe penalizzare i contenuti tossici nel ranking. In pratica, c’è una finestra temporale tra la pubblicazione e le segnalazioni durante la quale il contenuto viene amplificato se genera engagement.

È molto probabile che il flusso diventi troppo imprevedibile o polarizzato. Significa che ci sono seri rischi di trovarci di fronte ad un sistema orientato all’engagement automatico.

Il rischio delle bolle informative su X

Il nuovo sistema trasforma l’uso passivo della piattaforma, la semplice lettura, in uno più attivo. L’algoritmo premia i contenuti che generano reazioni: se si ignorano certi post, il sistema li ridurrà nel flusso dell’utente; se si reagisce positivamente, se ne vedranno di simili.

Questo meccanismo rischia di aumentare il rischio di “bolle informative” dove si vede solo ciò che conferma i gusti e le opinioni degli utenti. L’esperienza diventa più coinvolgente, ma potenzialmente più chiusa.

Per chi cerca varietà di punti di vista o vuole restare informato su temi che non generano engagement immediato, il nuovo sistema richiede uno sforzo consapevole: esplorare attivamente, interagire con contenuti diversi, usare la timeline cronologica quando serve.

I limiti della trasparenza dell’algoritmo di X

Il repository è pubblico, ma cosa manca per capire davvero come funziona il sistema?

Mancano i pesi del modello. Il codice descrive l’architettura del transformer, ma i parametri numerici che determinano effettivamente il comportamento non sono inclusi. Sappiamo che esiste un sistema di calcolo del punteggio che combina le predizioni, ma non conosciamo i pesi specifici assegnati a like, risposte, repost o alle azioni negative.

Mancano i dati di training. Il modello Phoenix apprende dai comportamenti degli utenti, ma non sappiamo su quali dati è stato addestrato, quali periodi coprono, se includono bias storici della piattaforma.

Mancano le policy di moderazione dei contenuti. I filtri tecnici sono documentati (rimozione duplicati, contenuti eliminati, spam, violenza), ma le decisioni più sottili su cosa promuovere e cosa penalizzare restano poco chiare.

In altre parole, il codice ci dice come il sistema è costruito, non come si comporta. È come avere il progetto di un motore senza conoscere la miscela di carburante che lo alimenta.

Un sistema ML poco esplicito

Nel 2023, l’algoritmo del proprietario era visibile nelle euristiche manuali. Si poteva leggere nel codice che certi comportamenti venivano premiati e altri penalizzati. Era contestabile, ma almeno era documentato.

Oggi il controllo si è spostato a un livello più profondo. Non ci sono più regole esplicite che dicono “penalizza i link esterni”. C’è un modello di machine learning che ha appreso, dai dati storici della piattaforma, che i contenuti nativi performano meglio. La penalizzazione dei link non è una scelta visibile nel codice, è un comportamento emergente del sistema.

Se qualcuno chiede “perché i miei post con link hanno meno visibilità?”, la risposta non è più “perché c’è una regola che li penalizza”, ma “perché il modello ha imparato che generano meno engagement”. La responsabilità si dissolve nell’opacità del machine learning.

Il repository afferma con orgoglio di aver eliminato tutte le feature ingegnerizzate manualmente. Ma eliminare le euristiche manuali non significa eliminare i bias. Significa solo renderli impliciti invece che espliciti.

Cosa significa per utenti e creator di X

Per chi usa X come utente, il nuovo sistema significa un feed sempre più personalizzato ma meno prevedibile. La maggioranza dei contenuti potrebbe arrivare da account mai seguiti. E il rischio di ritrovarsi in una sorta di TikTok è molto alto.

Anche la timeline dei “Seguiti” non è più cronologica per definizione. La sensazione di controllo sulla propria esperienza diminuisce, a meno di non intervenire attivamente sulle impostazioni.

L’esperienza diventa più “intuitiva” nel senso che il sistema cerca di mostrare ciò che trattiene più a lungo l’utente. Ma se non si interagisce con certi tipi di post, si rischia di vederne sempre meno, con la possibilità concreta di ritrovarsi in una bolla informativa costruita su azioni passate.

Per i creator, le regole sono chiare: i contenuti nativi (video, immagini, testi completi) hanno la precedenza. I link esterni vanno inseriti nel “primo commento”, vale a dire non nel primo post ma in quello che segue immediatamente. Le interazioni contano più dei follower. Gli account verificati e premium hanno un vantaggio strutturale nel nuovo algoritmo. Vantaggio tutto da verificare.

Per chi analizza le piattaforme, questo caso conferma una tendenza. La trasparenza formale, ossia pubblicare il codice, non equivale a trasparenza sostanziale.

Senza i pesi del modello e i dati di training, capire perché un contenuto viene promosso rispetto a un altro resta impossibile.

Conclusione

Il rilascio del repository xai-org/x-algorithm chiude un cerchio iniziato con le promesse fatte a ottobre 2025. Il codice è pubblico, l’architettura è documentata, la transizione verso un sistema interamente basato su IA è ormai completata.

Ma la domanda di fondo resta senza risposta. Un algoritmo trasparente nel codice ma opaco nei comportamenti è davvero trasparente? Un sistema che elimina le regole manuali ma eredita i bias dai dati è davvero neutrale?

L’algoritmo del proprietario, come definisco ormai da un po’ algoritmi come questi, non è scomparso, anzi. Si è evoluto. E continuerò a monitorarlo, come sempre.

ChatGPT Translate, la sfida a Google sulla traduzione IA

ChatGPT Translate, la sfida a Google sulla traduzione IA

OpenAI lancia ChatGPT Translate per sfidare Google Translate. Meno lingue, per ora, ma presenta un approccio nuovo. La traduzione diventa conversazione. E Google non sta certo a guardare.

La traduzione automatica è ormai un aspetto che è entrato nel quotidiano di ognuno. Proprio grazie all’intelligenza artificiale.

Va detto anche che uno dei settori più presi di mira dalla rivoluzione della IA è proprio quello della traduzione automatica.

E in questi giorni sta avvenendo uno “scontro” tra due titani, passato quasi inosservato, forse perché lo abbiamo dato per scontato.

La notizia è che OpenAI ha lanciato ChatGPT Translate, un nuovo strumento standalone pensato per sfidare direttamente Google Translate, il servizio che da quasi vent’anni domina il mercato della traduzione automatica.

Il lancio è avvenuto il 15 gennaio 2026 e poche ore dopo Google ha risposto con TranslateGemma, una nuova famiglia di modelli open source per la traduzione che guarda agli sviluppatori e alle aziende. Una coincidenza che racconta molto dello stato attuale della competizione nell’intelligenza artificiale.

ChatGPT Translate, la sfida a Google sulla traduzione IA
ChatGPT Translate, la sfida a Google sulla traduzione IA

ChatGPT Translate, interfaccia familiare ma con qualcosa in più

ChatGPT Translate si presenta con un’interfaccia che ricorda quella di Google Translate. Due box di testo affiancati, rilevamento automatico della lingua, oltre 50 lingue supportate. Ma la differenza sta in quello che offre dopo la traduzione.

Sotto il testo tradotto compaiono infatti alcuni prompt che permettono di intervenire sul risultato con un solo tocco.

Si può rendere il testo più fluido, adattarlo a un registro business-formale, semplificarlo per un bambino o calibrarlo per un contesto accademico. Selezionando una di queste opzioni si viene reindirizzati all’interfaccia principale di ChatGPT, dove è possibile continuare a lavorare sulla traduzione in modo conversazionale.

Quindi, ChatGPT Translate non si limita a tradurre parole da una lingua all’altra, ma permette di ragionare sul tono, sul contesto e sul destinatario. La traduzione diventa così un processo collaborativo, non più un risultato statico da accettare così com’è.

ChatGPT Translate, la sfida a Google sulla traduzione IA
ChatGPT Translate, la sfida a Google sulla traduzione IA

ChatGPT Translate, limiti di uno strumento ancora acerbo

Il servizio però è chiaramente in fase sperimentale. OpenAI dichiara il supporto per oltre 50 lingue, ma al momento ne risultano attive solo 28.

La pagina menziona la possibilità di tradurre immagini e file, ma queste funzioni non sono ancora disponibili. Su desktop si può inserire solo testo, mentre da mobile è possibile usare il microfono.

Il confronto con Google Translate resta impietoso in termini di funzionalità. Google supporta oltre 200 lingue, offre traduzione offline, gestisce documenti, siti web, scrittura a mano e conversazioni in tempo reale.

Tutte caratteristiche che a ChatGPT Translate mancano, per ora.

Ma il punto è l’approccio. OpenAI sta costruendo un servizio dove la traduzione è solo il primo passo di un dialogo con l’intelligenza artificiale. Un modello che potrebbe cambiare le aspettative degli utenti su cosa significhi tradurre.

Google Translate non sta a guardare

Google nel frattempo non è rimasto fermo. Il mese scorso ha annunciato importanti aggiornamenti al suo servizio di traduzione alimentati da Gemini, con una migliore gestione di espressioni idiomatiche, slang e varianti locali.

Sta anche testando una funzione beta per la traduzione speech-to-speech in tempo reale tramite cuffie, oltre a nuove lingue pensate per chi vuole imparare una lingua straniera.

La traduzione come una conversazione

Il lancio di ChatGPT Translate rischia di stravolgere ancora di più la traduzione automatica. Per quasi vent’anni Google Translate ha rappresentato lo standard di riferimento, sfidato solo parzialmente da DeepL. Ora OpenAI entra in campo con un approccio diverso, che privilegia la personalizzazione e il dialogo rispetto alla traduzione letterale.

È ancora presto per dire se ChatGPT Translate diventerà un prodotto maturo o resterà un esperimento. Ma si può dire che la traduzione automatica sta entrando in una nuova fase, dove non basta più tradurre parole ma bisogna comprendere intenzioni, adattare registri e rispettare i contesti.

La traduzione, insomma, sta diventando una conversazione.

Dina Powell McCormick presidente di Meta col favore di Trump

Dina Powell McCormick presidente di Meta col favore di Trump

La nomina di Dina Powell McCormick, ex vice consigliera per la sicurezza nazionale Usa, alla guida operativa di Meta dice molto sulla direzione che sta prendendo l’azienda di Menlo Park. Non si tratta solo di competenze finanziarie, ma di un riposizionamento strategico nei confronti della Casa Bianca.

Mark Zuckerberg ha scelto Dina Powell McCormick come nuova presidente e vice chairman di Meta. La notizia, annunciata nei giorni scorsi, ha immediatamente ricevuto l’applauso pubblico di Donald Trump su Truth Social. Un dettaglio che vale più di qualsiasi comunicato stampa.

Powell McCormick non è una figura qualsiasi. È stata vice consigliera per la sicurezza nazionale durante il primo mandato Trump e ha ricoperto ruoli di rilievo anche sotto l’amministrazione Bush.

Sedici anni in Goldman Sachs ai massimi livelli, poi vice presidente di BDT & MSD Partners. Un profilo che combina finanza globale, relazioni istituzionali e vicinanza ai circoli repubblicani. Quello che serve a Mark Zuckerberg in questa fase storica.

Dina Powell McCormick presidente di Meta col favore di Trump
Dina Powell McCormick presidente di Meta col favore di Trump

Il nuovo corso di Meta

Questa nomina si inserisce in un contesto più ampio. Meta sta costruendo quello che Zuckerberg definisce il modello aziendale e finanziario che alimenterà il prossimo decennio di all’insegna della IA. Data center, sistemi energetici, connettività globale su scala senza precedenti. E per farlo serve qualcuno che sappia parlare con governi e fondi sovrani.

Powell McCormick avrà proprio questo compito. Il comunicato ufficiale è esplicito su questo punto. La nuova presidente Meta sarà coinvolta nelle relazioni con governi e paesi per costruire, sviluppare, investire e finanziare l’infrastruttura IA di Meta. Non stiamo parlando di pubbliche relazioni, ma di negoziati ad alti livelli del valore di miliardi di dollari.

Le piattaforme digitali non sono mai neutrali. Riflettono gli interessi, le priorità e le relazioni di chi le controlla. E quando il proprietario di una piattaforma da tre miliardi di utenti nomina come presidente una figura così vicina all’amministrazione in carica, il messaggio è chiaro.

Del resto, Zuckerberg è uno dei tech leader che un anno fa avevano finanziato con 1 milione di dollari la cerimonia di insediamento della seconda amministrazione Trump. E sedeva sul loggione d’onore insieme a suoi colleghi come Musk o Bezos.

 

Una strategia che viene da lontano

La nomina di Powell McCormick non deve sembrare un evento isolato. Nelle ultime settimane Meta ha assunto anche Curtis Joseph Mahoney come chief legal officer, un altro ex funzionario dell’amministrazione Trump. Dana White, CEO della UFC e figura notoriamente vicina al presidente, siede nel board dell’azienda.

Zuckerberg stesso ha cenato di recente alla Casa Bianca e ha annunciato investimenti per centinaia di miliardi di dollari in infrastrutture sul territorio americano.

Lo stesso giorno della nomina di Powell McCormick, ha presentato Meta Compute, una nuova iniziativa infrastrutturale per l’intelligenza artificiale che prevede la costruzione di decine di gigawatt di capacità energetica in questo decennio.

Il percorso è evidente. Meta sta ricostruendo le proprie relazioni istituzionali dopo anni di scontri con la politica americana. E lo sta facendo nel modo più diretto possibile, portando figure dell’amministrazione direttamente nel proprio management.

Cosa significa tutto questo per l’Europa

Questo riposizionamento ha conseguenze che vanno oltre i confini americani.

Se Meta si allinea sempre più strettamente con gli interessi della Casa Bianca, le tensioni con i regolatori europei potrebbero acuirsi ulteriormente.

Il Digital Services Act, le normative sulla privacy, le regole sulla trasparenza algoritmica: tutto questo potrebbe diventare terreno di scontro ancora più aspro.

C’è anche un aspetto meno visibile ma altrettanto rilevante.

Powell McCormick era legata a BDT & MSD Partners, un’azienda il cui nome è circolato nelle trattative per l’acquisizione di TikTok. Esiste ancora un 5% della nuova joint venture americana che non è stato ufficialmente assegnato. Le connessioni tra questi mondi sono più fitte di quanto appaia.

Cosa comporta questo per gli utenti

Per chi usa quotidianamente Facebook, Instagram o WhatsApp, queste dinamiche possono apparire distanti. Ma non lo sono.

Le scelte in termini di governance di una piattaforma determinano quali contenuti vengono amplificati e quali penalizzati; quali funzionalità vengono sviluppate e quali abbandonate; quali mercati vengono privilegiati e quali trascurati.

Quando Jamie Dimon, CEO di JPMorgan Chase, definisce Powell McCormick una banchiera migliore di molti CEO della grande finanza, sta descrivendo una persona che sa muoversi in mezzo ad interessi enormi.

Quegli interessi ora includeranno le decisioni che riguardano miliardi di persone ogni giorno. Ecco perché questa nomina riguarda tutti gli utenti della galassia Meta e riguarda quindi tutti noi.

Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026

Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026

L’Italia guida l’ottimismo europeo sull’intelligenza artificiale. Secondo il report Accenture, Pulse of Change, in vista del prossimo World Economic Forum di Davos, il 92% dei dirigenti italiani aumenterà gli investimenti in IA nel 2026.

In vista del World Economic Forum di Davos, Accenture pubblica i nuovi dati del suo report Pulse of Change. E l’Italia emerge come uno dei Paesi europei più ottimisti e fiduciosi nei confronti dell’intelligenza artificiale.

Un dato su tutti racconta questa tendenza: il 92% dei dirigenti italiani prevede di aumentare gli investimenti in IA nel corso del 2026, superando la media europea dell’84% e anche la Germania, che si ferma all’87%.

Ma l’ottimismo italiano non riguarda solo la tecnologia. L’88% dei leader del nostro Paese si aspetta una crescita dei ricavi nel nuovo anno, mentre l’86% prevede un contesto caratterizzato da cambiamenti significativi sul piano economico, geopolitico e tecnologico. Numeri che confermano una fiducia diffusa, nonostante le incertezze globali che continuano a pesare sulle prospettive delle imprese.

Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026
Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026

L’IA come leva di crescita, non solo di risparmio

Un elemento particolarmente interessante emerge dall’approccio europeo agli investimenti in intelligenza artificiale. L’80% dei leader considera questi investimenti più preziosi per la crescita dei ricavi che per la riduzione dei costi. Questo segnala una maturità crescente nell’uso della tecnologia, che viene sempre più vista come strumento per generare nuovo valore e non semplicemente per tagliare le spese.

L’Italia si distingue anche sul fronte delle competenze. Il 57% dei dirigenti italiani dichiara che nel 2026 punterà su programmi di upskilling e reskilling per preparare la forza lavoro all’uso diffuso dell’IA. Un dato che supera nettamente la media europea, ferma al 46%, e che racconta una consapevolezza importante. Ossia che la tecnologia da sola non basta, servono le persone giuste per farla funzionare.

Preoccupa il divario tra dirigenti e dipendenti sulla IA

Lo studio di Accenture evidenzia però anche un problema che rischia di frenare l’adozione dell’intelligenza artificiale. Mentre i dirigenti vedono l’IA come un catalizzatore di crescita, molti dipendenti esprimono timori legati alla riduzione della forza lavoro e a una formazione insufficiente. Solo il 61% dei lavoratori europei crede nel potenziale dell’IA dopo averla sperimentata, contro l’84% del top management. Un gap di 23 punti percentuali che racconta due visioni molto diverse della stessa tecnologia.

In Italia emerge tuttavia un dato interessante. Il 40% dei dipendenti dichiara di saper utilizzare con sicurezza gli strumenti di IA e di essere in grado di spiegarli ad altri, quasi il doppio della media europea che si ferma al 25%. Una maggiore confidenza che convive però con le stesse preoccupazioni sul futuro del lavoro.

A livello europeo, appena il 41% dei dipendenti si sente sicuro del proprio ruolo. E solo il 14% è fortemente d’accordo sul fatto che la leadership abbia spiegato in modo chiaro come l’IA e gli agenti digitali influenzeranno la forza lavoro.

Macchi: “Se non coinvolgiamo le persone, il valore dell’IA rimarrà inespresso”

Mauro Macchi CEO Accenture EMEA
Mauro Macchi CEO Accenture EMEA

Mauro Macchi, CEO di Accenture per Europa, Medio Oriente e Africa, ha commentato così i risultati della ricerca: “Questa ricerca riflette chiaramente le priorità che emergono nel dialogo quotidiano che portiamo avanti con i clienti in tutta Europa, dove i leader intendono consolidare il percorso sull’IA e stanno incrementando gli investimenti a supporto“.

Ma Macchi ha sottolineato anche il punto critico: “Se non coinvolgiamo le persone, il pieno valore dell’IA rimarrà inespresso. Non si tratta solo di sviluppare competenze tecniche per lavorare con l’IA, ma di sviluppare la cultura necessaria per consentire all’intera forza lavoro di utilizzare questa tecnologia con fiducia“.

Una riflessione che centra il problema principale. “Il vero divario non è tra chi ha competenze e chi non le ha, ma tra chi utilizza l’IA e chi è lasciato indietro“.

La metodologia dello studio

Il report Pulse of Change è un’indagine trimestrale di Accenture rivolta alla C-suite che analizza come le tendenze in ambito business, talenti e tecnologia stiano guidando il cambiamento. Per questa edizione sono stati intervistati 3.650 dirigenti e 3.350 dipendenti a livello mondiale, di cui 1.070 dirigenti e 929 dipendenti in Europa. Il campione comprende le più grandi organizzazioni mondiali con ricavi superiori a 500 milioni di dollari, operanti in 20 settori e 20 Paesi. L’indagine è stata condotta tra novembre e dicembre 2025.

Deepfake, il governo Uk vara la legge contro Grok questa settimana

Deepfake, il governo Uk vara la legge contro Grok questa settimana

Il governo Uk ha annunciato l’arrivo in questa settimana di una nuova legge per contrastare il fenomeno deepfake di Grok: 2 anni di carcere per la creazione di deepfake; stop alla distribuzione di software di denudazione; sanzioni per le piattaforme fino al 10% del fatturato globale annuo.

Il governo del Regno Unito ha deciso di imprimere un’accelerazione decisa alla regolamentazione dell’Intelligenza Artificiale generativa. Dopo giorni in cui si sono rincorse tante notizie, il governo di Starmer ha optato per la strada regolatoria.

Secondo quanto riportato BBC, in questa settimana entra in vigore la nuova fattispecie di reato che punisce la sola creazione di deepfake intimi non consensuali. La norma prevede pene detentive fino a due anni di reclusione per chiunque generi tali immagini, a prescindere dall’intento di condividerle o pubblicarle.

La svolta legislativa, integrata nel Data Use and Access Act, introduce un ulteriore livello di restrizione: il divieto di diffusione.

Londra si prepara a rendere illegali i software e i servizi di “denudazione”, ovvero gli strumenti progettati per denudare digitalmente attraverso l’uso di immagini di persone reali.

L’obiettivo è colpire la filiera tecnologica alla radice, rendendo perseguibili non solo gli utenti, ma anche gli sviluppatori e i distributori di tali applicazioni.

Deepfake, il governo Uk vara la legge contro Grok questa settimana
Deepfake, il governo Uk vara la legge contro Grok questa settimana

La pressione su X e i blocchi internazionali

L’iniziativa di Downing Street giunge in un momento di forte pressione su Grok, l’IA di xAI integrata nella piattaforma X. Nei giorni scorsi, Malesia e Indonesia hanno già provveduto a bloccare l’utilizzo di Grok integrato nella piattaforma X, citando l’assenza di filtri efficaci.

Il Premier britannico, Keir Starmer, è intervenuto direttamente sulla vicenda con un monito esplicito: “se le piattaforme non dimostreranno di poter controllare i propri strumenti e proteggere i cittadini, lo Stato utilizzerà pienamente i propri poteri coercitivi”.

Keir Starmer annuncio legge deepfake Regno Unito gennaio 2026
Keir Starmer annuncio legge deepfake Regno Unito gennaio 2026

La Technology Secretary, Liz Kendall, ha rincarato la dose definendo questi software “armi di abuso” che “alimentano la misoginia e la violenza sessuale”, confermando che la scelta di X di limitare queste funzioni agli utenti Premium non è considerata una misura di sicurezza valida.

Liz Kendall, Segretaria di Stato Uk per la Scienza, l'Innovazione e la Tecnologia
Liz Kendall, Segretaria di Stato Uk per la Scienza, l’Innovazione e la Tecnologia

I numeri dell’emergenza: i dati Ofcom e NPCC

L’urgenza del provvedimento è dettata da evidenze che hanno alimentato il senso di emergenza:

  • Produzione estesa di deepfake: le stime indicano che tramite Grok vengono generate circa 6.700 immagini pornografiche non consensuali ogni ora, spesso coinvolgendo figure pubbliche e minori.

  • Incremento dei reati: secondo il National Policing Statement 2024 dell’NPCC, la violenza abilitata dalla tecnologia contro donne e ragazze è aumentata del 37% tra il 2018 e il 2023.

  • Sanzioni: l’autorità Ofcom ha ora il mandato per procedere con indagini che possono portare a sanzioni pecuniarie fino al 10% del fatturato globale annuo di X per il mancato rispetto dei doveri di cura stabiliti dall’Online Safety Act.

Grok ha generato migliaia di immagini di nudo, e non solo

Legge Uk colpisce il ciclo deepfake

Con l’attivazione delle nuove norme, il Regno Unito si posiziona come il primo mercato occidentale a criminalizzare l’intero ciclo di vita del deepfake: dalla progettazione del software alla sua fornitura, fino alla generazione della singola immagine.

La messa al bando dei servizi di “denudazione” e l’introduzione della responsabilità penale individuale segnano, possiamo dirlo, la fine della fase di autoregolamentazione per le aziende produttrici di IA generativa.

Grok, la spunta blu non rende sicura la generazione di immagini

Grok, la spunta blu non rende sicura la generazione di immagini

X ha ufficialmente limitato la creazione di immagini ai soli utenti Premium. Una mossa che non sorprende, ma che sposta semplicemente la violenza digitale dietro un abbonamento, confermando che la sicurezza per Elon Musk è un servizio accessorio e non un requisito strutturale.

Dopo le polemiche, inevitabili, X ha deciso finalmente di operare su quello che è diventata una grave emergenza. Il fenomeno della modifica delle immagini attraverso messaggi testuali a Grok (la IA di xAI) ha assunto dimensioni allarmanti e i dati che ho raccolto nell’articolo di ieri lo dimostrano.

Grok, la generazione di immagini su X solo per abbonati a Premium

Ebbene, il messaggio apparso agli utenti nelle ultime ore mostra questo atteso, ma comunque tardivo, cambio di passo: “La generazione e la modifica di immagini sono attualmente limitate agli abbonati paganti”. Questa restrizione arriva, ricordiamolo, dopo una settimana di critiche globali e pressioni senza precedenti da parte del governo britannico e della Commissione Europea.

Grok, la spunta blu non rende sicura la generazione di immagini
Il messaggio di Grok in risposta alla richiesta di account non abbonati a X

Come abbiamo visto, la “spunta blu” non funziona come una sorta di filtro morale. L’utente che ha chiesto di manipolare l’immagine della donna uccisa a Minneapolis, un esempio che definisce il punto più basso di questa deriva tecnologica, era proprio un utente abbonato. Limitare l’accesso a chi paga significa ammettere che, una volta abbonato, la dignità delle persone rimane un territorio di conquista privo di filtri.

Grok e l'immagine della ragazza uccisa a Minneapolis
Grok e l’immagine della ragazza uccisa a Minneapolis
Grok e l'immagine della ragazza uccisa a Minneapolis
Grok e l’immagine della ragazza uccisa a Minneapolis

I numeri allarmanti dell’emergenza su X

I dati, ricordati ieri, che emergono dalle ultime inchieste delineano un quadro di abuso sistemico che nessuna limitazione di accesso sembra aver ancora frenato:

  • 6.700 immagini sessualizzate all’ora: è il ritmo di generazione rilevato da ricercatori citati da Bloomberg durante i picchi di attività di questa settimana.

  • 3/4 delle richieste analizzate: secondo una ricerca del Trinity College di Dublino, circa il 75% dei prompt raccolti riguardava la richiesta di “denudare” o sessualizzare donne e minori.

  • 800 contenuti pedopornografici o violenti: rintracciati dall’organizzazione AI Forensics tramite l’app “Grok Imagine”, che sembra mantenere maglie ancora più larghe rispetto all’interfaccia standard.

Grok ha generato migliaia di immagini di nudo, e non solo

La posizione UE: “Non è piccante, è illegale”

Bruxelles ha già chiarito che non accetterà soluzioni di comodo. Thomas Regnier, portavoce della Commissione Europea per il digitale, è stato categorico definendo i contenuti generati “disgustosi” e “illegali”, sottolineando che la narrazione di Musk su una “IA piccante” non ha basi giuridiche in Europa.

La Commissione ha già ordinato a X di conservare tutti i documenti interni e i dati relativi a Grok fino alla fine del 2026 per facilitare le indagini in corso. Il rischio per la piattaforma è altissimo:

  1. Sanzioni DSA: dopo la multa di 120 milioni di euro ricevuta a dicembre 2025, X rischia ora sanzioni fino al 10% del fatturato globale.

  2. Online Safety Act (UK): il primo ministro Keir Starmer ha dichiarato che Ofcom ha il pieno supporto per agire, inclusa la possibilità di richiedere il blocco della piattaforma nel Regno Unito.

Grok, la spunta blu non rende sicura la generazione di immagini
Grok, la spunta blu non rende sicura la generazione di immagini

Oltre il paywall: la sicurezza come vantaggio competitivo

In definitiva, l’errore di fondo rimane la scelta di aver rilasciato in uso a chiunque uno strumento così potente senza alcun tipo di filtro semantico e contestuale. Lo spostamento della funzionalità dietro un paywall non è una misura di sicurezza, ma una monetizzazione dell’abuso. Oltre che una foglia di fico.

Il vero vantaggio competitivo per chi sviluppa Intelligenza Artificiale oggi non risiede nella “libertà assoluta” di generare orrori, ma nella capacità di costruire sistemi sicuri per design (safety-by-design).

Le aziende che sapranno garantire che la loro tecnologia non possa essere usata come arma di aggressione digitale saranno quelle in grado di procedere all’interno di un ecosistema normativo che, da oggi, non concede più sconti.

Ultimi articoli