Categoria: News

In questa categoria si trovano articoli che parlano di comunicazione, condivisione, social media, social network. Insomma, tutto ciò che riguarda il web 2.0 e di come si sta evolvendo

  • ChatGPT Translate, la sfida a Google sulla traduzione IA

    ChatGPT Translate, la sfida a Google sulla traduzione IA

    OpenAI lancia ChatGPT Translate per sfidare Google Translate. Meno lingue, per ora, ma presenta un approccio nuovo. La traduzione diventa conversazione. E Google non sta certo a guardare.

    La traduzione automatica è ormai un aspetto che è entrato nel quotidiano di ognuno. Proprio grazie all’intelligenza artificiale.

    Va detto anche che uno dei settori più presi di mira dalla rivoluzione della IA è proprio quello della traduzione automatica.

    E in questi giorni sta avvenendo uno “scontro” tra due titani, passato quasi inosservato, forse perché lo abbiamo dato per scontato.

    La notizia è che OpenAI ha lanciato ChatGPT Translate, un nuovo strumento standalone pensato per sfidare direttamente Google Translate, il servizio che da quasi vent’anni domina il mercato della traduzione automatica.

    Il lancio è avvenuto il 15 gennaio 2026 e poche ore dopo Google ha risposto con TranslateGemma, una nuova famiglia di modelli open source per la traduzione che guarda agli sviluppatori e alle aziende. Una coincidenza che racconta molto dello stato attuale della competizione nell’intelligenza artificiale.

    ChatGPT Translate, la sfida a Google sulla traduzione IA
    ChatGPT Translate, la sfida a Google sulla traduzione IA

    ChatGPT Translate, interfaccia familiare ma con qualcosa in più

    ChatGPT Translate si presenta con un’interfaccia che ricorda quella di Google Translate. Due box di testo affiancati, rilevamento automatico della lingua, oltre 50 lingue supportate. Ma la differenza sta in quello che offre dopo la traduzione.

    Sotto il testo tradotto compaiono infatti alcuni prompt che permettono di intervenire sul risultato con un solo tocco.

    Si può rendere il testo più fluido, adattarlo a un registro business-formale, semplificarlo per un bambino o calibrarlo per un contesto accademico. Selezionando una di queste opzioni si viene reindirizzati all’interfaccia principale di ChatGPT, dove è possibile continuare a lavorare sulla traduzione in modo conversazionale.

    Quindi, ChatGPT Translate non si limita a tradurre parole da una lingua all’altra, ma permette di ragionare sul tono, sul contesto e sul destinatario. La traduzione diventa così un processo collaborativo, non più un risultato statico da accettare così com’è.

    ChatGPT Translate, la sfida a Google sulla traduzione IA
    ChatGPT Translate, la sfida a Google sulla traduzione IA

    ChatGPT Translate, limiti di uno strumento ancora acerbo

    Il servizio però è chiaramente in fase sperimentale. OpenAI dichiara il supporto per oltre 50 lingue, ma al momento ne risultano attive solo 28.

    La pagina menziona la possibilità di tradurre immagini e file, ma queste funzioni non sono ancora disponibili. Su desktop si può inserire solo testo, mentre da mobile è possibile usare il microfono.

    Il confronto con Google Translate resta impietoso in termini di funzionalità. Google supporta oltre 200 lingue, offre traduzione offline, gestisce documenti, siti web, scrittura a mano e conversazioni in tempo reale.

    Tutte caratteristiche che a ChatGPT Translate mancano, per ora.

    Ma il punto è l’approccio. OpenAI sta costruendo un servizio dove la traduzione è solo il primo passo di un dialogo con l’intelligenza artificiale. Un modello che potrebbe cambiare le aspettative degli utenti su cosa significhi tradurre.

    Google Translate non sta a guardare

    Google nel frattempo non è rimasto fermo. Il mese scorso ha annunciato importanti aggiornamenti al suo servizio di traduzione alimentati da Gemini, con una migliore gestione di espressioni idiomatiche, slang e varianti locali.

    Sta anche testando una funzione beta per la traduzione speech-to-speech in tempo reale tramite cuffie, oltre a nuove lingue pensate per chi vuole imparare una lingua straniera.

    La traduzione come una conversazione

    Il lancio di ChatGPT Translate rischia di stravolgere ancora di più la traduzione automatica. Per quasi vent’anni Google Translate ha rappresentato lo standard di riferimento, sfidato solo parzialmente da DeepL. Ora OpenAI entra in campo con un approccio diverso, che privilegia la personalizzazione e il dialogo rispetto alla traduzione letterale.

    È ancora presto per dire se ChatGPT Translate diventerà un prodotto maturo o resterà un esperimento. Ma si può dire che la traduzione automatica sta entrando in una nuova fase, dove non basta più tradurre parole ma bisogna comprendere intenzioni, adattare registri e rispettare i contesti.

    La traduzione, insomma, sta diventando una conversazione.

  • Dina Powell McCormick presidente di Meta col favore di Trump

    Dina Powell McCormick presidente di Meta col favore di Trump

    La nomina di Dina Powell McCormick, ex vice consigliera per la sicurezza nazionale Usa, alla guida operativa di Meta dice molto sulla direzione che sta prendendo l’azienda di Menlo Park. Non si tratta solo di competenze finanziarie, ma di un riposizionamento strategico nei confronti della Casa Bianca.

    Mark Zuckerberg ha scelto Dina Powell McCormick come nuova presidente e vice chairman di Meta. La notizia, annunciata nei giorni scorsi, ha immediatamente ricevuto l’applauso pubblico di Donald Trump su Truth Social. Un dettaglio che vale più di qualsiasi comunicato stampa.

    Powell McCormick non è una figura qualsiasi. È stata vice consigliera per la sicurezza nazionale durante il primo mandato Trump e ha ricoperto ruoli di rilievo anche sotto l’amministrazione Bush.

    Sedici anni in Goldman Sachs ai massimi livelli, poi vice presidente di BDT & MSD Partners. Un profilo che combina finanza globale, relazioni istituzionali e vicinanza ai circoli repubblicani. Quello che serve a Mark Zuckerberg in questa fase storica.

    Dina Powell McCormick presidente di Meta col favore di Trump
    Dina Powell McCormick presidente di Meta col favore di Trump

    Il nuovo corso di Meta

    Questa nomina si inserisce in un contesto più ampio. Meta sta costruendo quello che Zuckerberg definisce il modello aziendale e finanziario che alimenterà il prossimo decennio di all’insegna della IA. Data center, sistemi energetici, connettività globale su scala senza precedenti. E per farlo serve qualcuno che sappia parlare con governi e fondi sovrani.

    Powell McCormick avrà proprio questo compito. Il comunicato ufficiale è esplicito su questo punto. La nuova presidente Meta sarà coinvolta nelle relazioni con governi e paesi per costruire, sviluppare, investire e finanziare l’infrastruttura IA di Meta. Non stiamo parlando di pubbliche relazioni, ma di negoziati ad alti livelli del valore di miliardi di dollari.

    Le piattaforme digitali non sono mai neutrali. Riflettono gli interessi, le priorità e le relazioni di chi le controlla. E quando il proprietario di una piattaforma da tre miliardi di utenti nomina come presidente una figura così vicina all’amministrazione in carica, il messaggio è chiaro.

    Del resto, Zuckerberg è uno dei tech leader che un anno fa avevano finanziato con 1 milione di dollari la cerimonia di insediamento della seconda amministrazione Trump. E sedeva sul loggione d’onore insieme a suoi colleghi come Musk o Bezos.

     

    Una strategia che viene da lontano

    La nomina di Powell McCormick non deve sembrare un evento isolato. Nelle ultime settimane Meta ha assunto anche Curtis Joseph Mahoney come chief legal officer, un altro ex funzionario dell’amministrazione Trump. Dana White, CEO della UFC e figura notoriamente vicina al presidente, siede nel board dell’azienda.

    Zuckerberg stesso ha cenato di recente alla Casa Bianca e ha annunciato investimenti per centinaia di miliardi di dollari in infrastrutture sul territorio americano.

    Lo stesso giorno della nomina di Powell McCormick, ha presentato Meta Compute, una nuova iniziativa infrastrutturale per l’intelligenza artificiale che prevede la costruzione di decine di gigawatt di capacità energetica in questo decennio.

    Il percorso è evidente. Meta sta ricostruendo le proprie relazioni istituzionali dopo anni di scontri con la politica americana. E lo sta facendo nel modo più diretto possibile, portando figure dell’amministrazione direttamente nel proprio management.

    Cosa significa tutto questo per l’Europa

    Questo riposizionamento ha conseguenze che vanno oltre i confini americani.

    Se Meta si allinea sempre più strettamente con gli interessi della Casa Bianca, le tensioni con i regolatori europei potrebbero acuirsi ulteriormente.

    Il Digital Services Act, le normative sulla privacy, le regole sulla trasparenza algoritmica: tutto questo potrebbe diventare terreno di scontro ancora più aspro.

    C’è anche un aspetto meno visibile ma altrettanto rilevante.

    Powell McCormick era legata a BDT & MSD Partners, un’azienda il cui nome è circolato nelle trattative per l’acquisizione di TikTok. Esiste ancora un 5% della nuova joint venture americana che non è stato ufficialmente assegnato. Le connessioni tra questi mondi sono più fitte di quanto appaia.

    Cosa comporta questo per gli utenti

    Per chi usa quotidianamente Facebook, Instagram o WhatsApp, queste dinamiche possono apparire distanti. Ma non lo sono.

    Le scelte in termini di governance di una piattaforma determinano quali contenuti vengono amplificati e quali penalizzati; quali funzionalità vengono sviluppate e quali abbandonate; quali mercati vengono privilegiati e quali trascurati.

    Quando Jamie Dimon, CEO di JPMorgan Chase, definisce Powell McCormick una banchiera migliore di molti CEO della grande finanza, sta descrivendo una persona che sa muoversi in mezzo ad interessi enormi.

    Quegli interessi ora includeranno le decisioni che riguardano miliardi di persone ogni giorno. Ecco perché questa nomina riguarda tutti gli utenti della galassia Meta e riguarda quindi tutti noi.

  • Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026

    Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026

    L’Italia guida l’ottimismo europeo sull’intelligenza artificiale. Secondo il report Accenture, Pulse of Change, in vista del prossimo World Economic Forum di Davos, il 92% dei dirigenti italiani aumenterà gli investimenti in IA nel 2026.

    In vista del World Economic Forum di Davos, Accenture pubblica i nuovi dati del suo report Pulse of Change. E l’Italia emerge come uno dei Paesi europei più ottimisti e fiduciosi nei confronti dell’intelligenza artificiale.

    Un dato su tutti racconta questa tendenza: il 92% dei dirigenti italiani prevede di aumentare gli investimenti in IA nel corso del 2026, superando la media europea dell’84% e anche la Germania, che si ferma all’87%.

    Ma l’ottimismo italiano non riguarda solo la tecnologia. L’88% dei leader del nostro Paese si aspetta una crescita dei ricavi nel nuovo anno, mentre l’86% prevede un contesto caratterizzato da cambiamenti significativi sul piano economico, geopolitico e tecnologico. Numeri che confermano una fiducia diffusa, nonostante le incertezze globali che continuano a pesare sulle prospettive delle imprese.

    Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026
    Il 92% dei dirigenti aumenterà gli investimenti in IA nel 2026

    L’IA come leva di crescita, non solo di risparmio

    Un elemento particolarmente interessante emerge dall’approccio europeo agli investimenti in intelligenza artificiale. L’80% dei leader considera questi investimenti più preziosi per la crescita dei ricavi che per la riduzione dei costi. Questo segnala una maturità crescente nell’uso della tecnologia, che viene sempre più vista come strumento per generare nuovo valore e non semplicemente per tagliare le spese.

    L’Italia si distingue anche sul fronte delle competenze. Il 57% dei dirigenti italiani dichiara che nel 2026 punterà su programmi di upskilling e reskilling per preparare la forza lavoro all’uso diffuso dell’IA. Un dato che supera nettamente la media europea, ferma al 46%, e che racconta una consapevolezza importante. Ossia che la tecnologia da sola non basta, servono le persone giuste per farla funzionare.

    Preoccupa il divario tra dirigenti e dipendenti sulla IA

    Lo studio di Accenture evidenzia però anche un problema che rischia di frenare l’adozione dell’intelligenza artificiale. Mentre i dirigenti vedono l’IA come un catalizzatore di crescita, molti dipendenti esprimono timori legati alla riduzione della forza lavoro e a una formazione insufficiente. Solo il 61% dei lavoratori europei crede nel potenziale dell’IA dopo averla sperimentata, contro l’84% del top management. Un gap di 23 punti percentuali che racconta due visioni molto diverse della stessa tecnologia.

    In Italia emerge tuttavia un dato interessante. Il 40% dei dipendenti dichiara di saper utilizzare con sicurezza gli strumenti di IA e di essere in grado di spiegarli ad altri, quasi il doppio della media europea che si ferma al 25%. Una maggiore confidenza che convive però con le stesse preoccupazioni sul futuro del lavoro.

    A livello europeo, appena il 41% dei dipendenti si sente sicuro del proprio ruolo. E solo il 14% è fortemente d’accordo sul fatto che la leadership abbia spiegato in modo chiaro come l’IA e gli agenti digitali influenzeranno la forza lavoro.

    Macchi: “Se non coinvolgiamo le persone, il valore dell’IA rimarrà inespresso”

    Mauro Macchi CEO Accenture EMEA
    Mauro Macchi CEO Accenture EMEA

    Mauro Macchi, CEO di Accenture per Europa, Medio Oriente e Africa, ha commentato così i risultati della ricerca: “Questa ricerca riflette chiaramente le priorità che emergono nel dialogo quotidiano che portiamo avanti con i clienti in tutta Europa, dove i leader intendono consolidare il percorso sull’IA e stanno incrementando gli investimenti a supporto“.

    Ma Macchi ha sottolineato anche il punto critico: “Se non coinvolgiamo le persone, il pieno valore dell’IA rimarrà inespresso. Non si tratta solo di sviluppare competenze tecniche per lavorare con l’IA, ma di sviluppare la cultura necessaria per consentire all’intera forza lavoro di utilizzare questa tecnologia con fiducia“.

    Una riflessione che centra il problema principale. “Il vero divario non è tra chi ha competenze e chi non le ha, ma tra chi utilizza l’IA e chi è lasciato indietro“.

    La metodologia dello studio

    Il report Pulse of Change è un’indagine trimestrale di Accenture rivolta alla C-suite che analizza come le tendenze in ambito business, talenti e tecnologia stiano guidando il cambiamento. Per questa edizione sono stati intervistati 3.650 dirigenti e 3.350 dipendenti a livello mondiale, di cui 1.070 dirigenti e 929 dipendenti in Europa. Il campione comprende le più grandi organizzazioni mondiali con ricavi superiori a 500 milioni di dollari, operanti in 20 settori e 20 Paesi. L’indagine è stata condotta tra novembre e dicembre 2025.

  • Deepfake, il governo Uk vara la legge contro Grok questa settimana

    Deepfake, il governo Uk vara la legge contro Grok questa settimana

    Il governo Uk ha annunciato l’arrivo in questa settimana di una nuova legge per contrastare il fenomeno deepfake di Grok: 2 anni di carcere per la creazione di deepfake; stop alla distribuzione di software di denudazione; sanzioni per le piattaforme fino al 10% del fatturato globale annuo.

    Il governo del Regno Unito ha deciso di imprimere un’accelerazione decisa alla regolamentazione dell’Intelligenza Artificiale generativa. Dopo giorni in cui si sono rincorse tante notizie, il governo di Starmer ha optato per la strada regolatoria.

    Secondo quanto riportato BBC, in questa settimana entra in vigore la nuova fattispecie di reato che punisce la sola creazione di deepfake intimi non consensuali. La norma prevede pene detentive fino a due anni di reclusione per chiunque generi tali immagini, a prescindere dall’intento di condividerle o pubblicarle.

    La svolta legislativa, integrata nel Data Use and Access Act, introduce un ulteriore livello di restrizione: il divieto di diffusione.

    Londra si prepara a rendere illegali i software e i servizi di “denudazione”, ovvero gli strumenti progettati per denudare digitalmente attraverso l’uso di immagini di persone reali.

    L’obiettivo è colpire la filiera tecnologica alla radice, rendendo perseguibili non solo gli utenti, ma anche gli sviluppatori e i distributori di tali applicazioni.

    Deepfake, il governo Uk vara la legge contro Grok questa settimana
    Deepfake, il governo Uk vara la legge contro Grok questa settimana

    La pressione su X e i blocchi internazionali

    L’iniziativa di Downing Street giunge in un momento di forte pressione su Grok, l’IA di xAI integrata nella piattaforma X. Nei giorni scorsi, Malesia e Indonesia hanno già provveduto a bloccare l’utilizzo di Grok integrato nella piattaforma X, citando l’assenza di filtri efficaci.

    Il Premier britannico, Keir Starmer, è intervenuto direttamente sulla vicenda con un monito esplicito: “se le piattaforme non dimostreranno di poter controllare i propri strumenti e proteggere i cittadini, lo Stato utilizzerà pienamente i propri poteri coercitivi”.

    Keir Starmer annuncio legge deepfake Regno Unito gennaio 2026
    Keir Starmer annuncio legge deepfake Regno Unito gennaio 2026

    La Technology Secretary, Liz Kendall, ha rincarato la dose definendo questi software “armi di abuso” che “alimentano la misoginia e la violenza sessuale”, confermando che la scelta di X di limitare queste funzioni agli utenti Premium non è considerata una misura di sicurezza valida.

    Liz Kendall, Segretaria di Stato Uk per la Scienza, l'Innovazione e la Tecnologia
    Liz Kendall, Segretaria di Stato Uk per la Scienza, l’Innovazione e la Tecnologia

    I numeri dell’emergenza: i dati Ofcom e NPCC

    L’urgenza del provvedimento è dettata da evidenze che hanno alimentato il senso di emergenza:

    • Produzione estesa di deepfake: le stime indicano che tramite Grok vengono generate circa 6.700 immagini pornografiche non consensuali ogni ora, spesso coinvolgendo figure pubbliche e minori.

    • Incremento dei reati: secondo il National Policing Statement 2024 dell’NPCC, la violenza abilitata dalla tecnologia contro donne e ragazze è aumentata del 37% tra il 2018 e il 2023.

    • Sanzioni: l’autorità Ofcom ha ora il mandato per procedere con indagini che possono portare a sanzioni pecuniarie fino al 10% del fatturato globale annuo di X per il mancato rispetto dei doveri di cura stabiliti dall’Online Safety Act.

    Grok ha generato migliaia di immagini di nudo, e non solo

    Legge Uk colpisce il ciclo deepfake

    Con l’attivazione delle nuove norme, il Regno Unito si posiziona come il primo mercato occidentale a criminalizzare l’intero ciclo di vita del deepfake: dalla progettazione del software alla sua fornitura, fino alla generazione della singola immagine.

    La messa al bando dei servizi di “denudazione” e l’introduzione della responsabilità penale individuale segnano, possiamo dirlo, la fine della fase di autoregolamentazione per le aziende produttrici di IA generativa.

  • Grok, la spunta blu non rende sicura la generazione di immagini

    Grok, la spunta blu non rende sicura la generazione di immagini

    X ha ufficialmente limitato la creazione di immagini ai soli utenti Premium. Una mossa che non sorprende, ma che sposta semplicemente la violenza digitale dietro un abbonamento, confermando che la sicurezza per Elon Musk è un servizio accessorio e non un requisito strutturale.

    Dopo le polemiche, inevitabili, X ha deciso finalmente di operare su quello che è diventata una grave emergenza. Il fenomeno della modifica delle immagini attraverso messaggi testuali a Grok (la IA di xAI) ha assunto dimensioni allarmanti e i dati che ho raccolto nell’articolo di ieri lo dimostrano.

    Grok, la generazione di immagini su X solo per abbonati a Premium

    Ebbene, il messaggio apparso agli utenti nelle ultime ore mostra questo atteso, ma comunque tardivo, cambio di passo: “La generazione e la modifica di immagini sono attualmente limitate agli abbonati paganti”. Questa restrizione arriva, ricordiamolo, dopo una settimana di critiche globali e pressioni senza precedenti da parte del governo britannico e della Commissione Europea.

    Grok, la spunta blu non rende sicura la generazione di immagini
    Il messaggio di Grok in risposta alla richiesta di account non abbonati a X

    Come abbiamo visto, la “spunta blu” non funziona come una sorta di filtro morale. L’utente che ha chiesto di manipolare l’immagine della donna uccisa a Minneapolis, un esempio che definisce il punto più basso di questa deriva tecnologica, era proprio un utente abbonato. Limitare l’accesso a chi paga significa ammettere che, una volta abbonato, la dignità delle persone rimane un territorio di conquista privo di filtri.

    Grok e l'immagine della ragazza uccisa a Minneapolis
    Grok e l’immagine della ragazza uccisa a Minneapolis
    Grok e l'immagine della ragazza uccisa a Minneapolis
    Grok e l’immagine della ragazza uccisa a Minneapolis

    I numeri allarmanti dell’emergenza su X

    I dati, ricordati ieri, che emergono dalle ultime inchieste delineano un quadro di abuso sistemico che nessuna limitazione di accesso sembra aver ancora frenato:

    • 6.700 immagini sessualizzate all’ora: è il ritmo di generazione rilevato da ricercatori citati da Bloomberg durante i picchi di attività di questa settimana.

    • 3/4 delle richieste analizzate: secondo una ricerca del Trinity College di Dublino, circa il 75% dei prompt raccolti riguardava la richiesta di “denudare” o sessualizzare donne e minori.

    • 800 contenuti pedopornografici o violenti: rintracciati dall’organizzazione AI Forensics tramite l’app “Grok Imagine”, che sembra mantenere maglie ancora più larghe rispetto all’interfaccia standard.

    Grok ha generato migliaia di immagini di nudo, e non solo

    La posizione UE: “Non è piccante, è illegale”

    Bruxelles ha già chiarito che non accetterà soluzioni di comodo. Thomas Regnier, portavoce della Commissione Europea per il digitale, è stato categorico definendo i contenuti generati “disgustosi” e “illegali”, sottolineando che la narrazione di Musk su una “IA piccante” non ha basi giuridiche in Europa.

    La Commissione ha già ordinato a X di conservare tutti i documenti interni e i dati relativi a Grok fino alla fine del 2026 per facilitare le indagini in corso. Il rischio per la piattaforma è altissimo:

    1. Sanzioni DSA: dopo la multa di 120 milioni di euro ricevuta a dicembre 2025, X rischia ora sanzioni fino al 10% del fatturato globale.

    2. Online Safety Act (UK): il primo ministro Keir Starmer ha dichiarato che Ofcom ha il pieno supporto per agire, inclusa la possibilità di richiedere il blocco della piattaforma nel Regno Unito.

    Grok, la spunta blu non rende sicura la generazione di immagini
    Grok, la spunta blu non rende sicura la generazione di immagini

    Oltre il paywall: la sicurezza come vantaggio competitivo

    In definitiva, l’errore di fondo rimane la scelta di aver rilasciato in uso a chiunque uno strumento così potente senza alcun tipo di filtro semantico e contestuale. Lo spostamento della funzionalità dietro un paywall non è una misura di sicurezza, ma una monetizzazione dell’abuso. Oltre che una foglia di fico.

    Il vero vantaggio competitivo per chi sviluppa Intelligenza Artificiale oggi non risiede nella “libertà assoluta” di generare orrori, ma nella capacità di costruire sistemi sicuri per design (safety-by-design).

    Le aziende che sapranno garantire che la loro tecnologia non possa essere usata come arma di aggressione digitale saranno quelle in grado di procedere all’interno di un ecosistema normativo che, da oggi, non concede più sconti.

  • Grok ha generato migliaia di immagini di nudo, e non solo

    Grok ha generato migliaia di immagini di nudo, e non solo

    La situazione ormai si è trasformata in un’emergenza. Grok in pochi giorni ha generato 6.700 immagini sessualizzate all’ora. Vale a dire 84 volte più degli altri siti di deepfake. E le vittime non hanno strumenti per difendersi. L’ultimo caso riguarda anche la vicenda di Minneapolis.

    Pochi giorni fa avevo raccontato in un post cosa stava accadendo su X con la nuova funzionalità “Edit Image” di Grok.

    Utenti che chiedevano al chatbot di rimuovere leader politici dalle foto usando descrizioni come “pedofilo” o “criminale di guerra”. Immagini di donne modificate per “svestirle” digitalmente. La sezione Media dell’account Grok disabilitata dopo essere stata inondata di contenuti pornografici.

    Avevo scritto che il problema era strutturale. Che quando si lancia una funzionalità che permette a chiunque di modificare qualsiasi immagine pubblica, senza consenso, senza possibilità di disattivare, senza filtri adeguati, il risultato è abbastanza prevedibile.

    Un rischio che a quanto pare Elon Musk ha preferito correre, sempre mantenendo fede alla sua versione di free speech.

    Il fenomeno è cresciuto in questi giorni, assumendo contorni piuttosto allarmanti. Ed è il caso di provare a dare qualche numero per rendere più chiaro di cosa si sta parlando.

    Ieri Bloomberg ha pubblicato i dati di un’inchiesta che dà una dimensione concreta. E i numeri sono peggiori di quanto si potesse immaginare.

    Grok ha generato migliaia di immagini di nudo, e non solo
    Grok ha generato migliaia di immagini di nudo, e non solo

    Su X 6.700 immagini sessuali all’ora generate da Grok

    Secondo l’analisi condotta da Genevieve Oh, ricercatrice specializzata in deepfake, tra il 5 e il 6 gennaio 2026 Grok ha generato circa 6.700 immagini all’ora identificate come sessualmente allusive o che “spogliano” digitalmente le persone.

    Per comprendere la portata, gli altri cinque principali siti per questo tipo di contenuti hanno registrato una media di 79 nuove immagini all’ora nello stesso periodo. Grok ne produce 84 volte di più.

    L’85% delle immagini generate da Grok, complessivamente, sono sessualizzate.

    Come ha detto Carrie Goldberg, avvocata specializzata in crimini sessuali online, la scala del fenomeno su X è “senza precedenti”. Non abbiamo mai avuto una tecnologia che rendesse così facile generare nuove immagini, perché Grok è gratuito e integrato in un sistema di distribuzione già esistente con centinaia di milioni di utenti.

    Ma il peggio sembra non essere su X

    Ma quello che succede su X è solo la parte visibile del problema. Wired ha rivelato che sul sito web e sull’app di Grok la situazione è molto peggiore.

    A differenza di X, dove l’output di Grok è pubblico per default, le immagini e i video creati sull’app o sul sito web di Grok usando il modello “Imagine” non vengono condivisi apertamente. Ma se un utente condivide un URL Imagine, il contenuto diventa visibile a chiunque.

    Wired ha analizzato un archivio di circa 1.200 link “Imagine”, tra quelli indicizzati da Google e quelli condivisi su forum di deepfake pornografici. Ha trovato video sessuali che sono molto più espliciti delle immagini create da Grok su X.

    Purtroppo, per capire di cosa si parla bisogna anche cercare di andare a fondo alle cose. E spesso non è bello, ma è necessario.

    Alcuni esempi di Grok Image raccapriccianti

    Un video fotorealistico ospitato su Grok.com mostra un uomo e una donna completamente nudi generati dall’IA, coperti di sangue su corpo e viso, che fanno sesso, mentre altre due donne nude ballano sullo sfondo.

    Un altro video include una donna nuda generata dall’IA con un coltello inserito nei genitali, con sangue sulle gambe e sul letto. Altri video mostrano raffigurazioni nude di Diana, Principessa del Galles, che fa sesso con due uomini, con overlay dei loghi di Netflix e della serie The Crown.

    Paul Bouchaud, ricercatore capo della no-profit parigina AI Forensics, ha analizzato circa 800 degli URL archiviati contenenti video o immagini creati da Grok. “Sono in modo schiacciante contenuti sessuali“, ha detto. “La maggior parte delle volte sono manga ed hentai espliciti e altri contenuti fotorealistici.”

    Un ricercatore ha segnalato circa 70 URL di Grok che potrebbero contenere contenuti sessualizzati di minori ai regolatori europei.

    Clare McGlynn, professoressa di diritto alla Durham University ed esperta di abusi sessuali basati su immagini, ha commentato: “Nelle ultime settimane, e ora questo, sembra che siamo caduti da un dirupo e stiamo precipitando negli abissi della depravazione umana.

    Le vittime non possono difendersi

    Bloomberg, riportare i dati dell’analisi visti all’inizio, racconta diversi casi concreti. Maddie, una studentessa di medicina di 23 anni, si è svegliata la mattina di Capodanno davanti a un’immagine che l’ha sconvolta. Aveva pubblicato su X una foto con il fidanzato in un bar. Due sconosciuti l’hanno modificata usando Grok. Il primo ha chiesto di rimuovere il fidanzato e metterla in bikini. Il secondo ha chiesto di sostituire il bikini con un filo interdentale.

    Maddie ha segnalato le immagini a X tramite i sistemi di moderazione. Non ha mai ricevuto risposta. Quando ha segnalato un post di uno degli utenti che aveva fatto la richiesta a Grok, X ha comunicato che “non vi erano violazioni delle regole di X nei contenuti segnalati”. Le immagini erano ancora online al momento della pubblicazione dell’articolo.

    Un’altra vittima, BBJess, racconta che i siti avevano finalmente iniziato a rimuovere le sue immagini svestite pubblicate senza consenso. Ma Grok la scorsa settimana ha dato il via a una nuova ondata. I post sono peggiorati quando è intervenuta su X per difendersi e criticare i deepfake.

    Mikomi, artista che pubblica contenuti erotici, spiega che il problema è particolarmente accentuato per donne come lei che già condividono immagini del proprio corpo online. Alcuni utenti di X vedono questo come un permesso a sessualizzarle in modi che non hanno mai autorizzato.

    Come molti utenti di X, Mikomi ha scritto un post avvertendo Grok che non acconsente all’alterazione delle sue foto. “Non funziona”, ha detto. “Bloccare Grok non funziona. Niente funziona.” Non può abbandonare la piattaforma perché è vitale per il suo lavoro.

    “Cosa dovrei fare? Vuoi che perda il mio lavoro?”

    La differenza con gli altri chatbot

    Come già sottolineato, a differenza di altri chatbot, Grok non impone limiti efficaci agli utenti e non li blocca dal generare contenuti sessualizzati di persone reali, compresi i minori.

    Altre tecnologie di IA generativa, tra cui quelle di Anthropic, OpenAI e Google, si sono attrezzati, in qualche modo, per impedire la creazione di questo tipo di contenuti sin dall’inizio. Ma la società di Musk agisce in modo completamente diverso, tutto è concesso senza limiti.

    Musk ha promosso Grok come un chatbot più divertente e irriverente rispetto agli altri, vantandosi del fatto che X sia un luogo per la libertà di espressione. Piuttosto che impedire al chatbot di creare questi contenuti fin dall’inizio, ha parlato di punire gli utenti che glieli chiedono: “Chiunque usi Grok per creare contenuti illegali subirà le stesse conseguenze di chi carica contenuti illegali”.

    Ma questo non lascia molte opzioni alle vittime.

    La risposta delle istituzioni UE

    L’Unione Europea ha deciso di intervenire su questo caso.

    La Commissione Europea ha infatti ordinato a X di conservare tutti i documenti interni e i dati relativi a Grok fino alla fine del 2026. Il portavoce Thomas Regnier ha spiegato il senso dell’ordine: “Questo significa dire a una piattaforma: conserva i tuoi documenti interni, non liberartene, perché abbiamo dubbi sulla tua conformità“.

    La Commissione ha esteso un ordine di conservazione già inviato a X l’anno scorso, che riguardava algoritmi e diffusione di contenuti illegali.

    È un passaggio che si inserisce in un percorso già avviato. Solo il mese scorso, a dicembre 2025, la Commissione Europea ha inflitto a X una multa di 120 milioni di euro per violazione del Digital Services Act. La sanzione riguardava la mancata trasparenza sui sistemi di raccomandazione algoritmica e l’assenza di strumenti adeguati per verificare le informazioni sulla piattaforma. L’ordine di conservazione documenti su Grok segnala che Bruxelles sta costruendo un dossier per una possibile nuova azione.

    Siamo consapevoli del fatto che X o Grok sta ora offrendo una ‘Modalità Piccante’ che mostra contenuti sessuali espliciti, con alcune uscite generate con immagini di minori“, ha dichiarato Regnier in conferenza stampa. “Questo non è piccante. Questo è illegale.”

    Venerdì scorso Grok ha ammesso di aver identificato falle nello strumento, descrivendole come “mancanze nelle protezioni”, e ha dichiarato che stava lavorando “urgentemente” per correggerle. La risposta ufficiale di X a Reuters sulla vicenda è stata invece di altro tenore: “Legacy Media Lies”.

    Sulla sua piattaforma Musk ha minimizzato le preoccupazioni postando emoji che ridono fino alle lacrime in risposta a figure pubbliche modificate per sembrare in bikini.

    Nel frattempo, altri enti regolatori si stanno muovendo.

    Ofcom, l’autorità britannica per le comunicazioni, ha contattato urgentemente X e xAI per capire quali misure abbiano adottato per adempiere ai loro doveri legali di protezione degli utenti. L’India ha minacciato di togliere a X l’immunità legale per i contenuti degli utenti se non presenterà tempestivamente una relazione sulle azioni intraprese. Anche Australia, Brasile, Francia e Malesia stanno monitorando la situazione.

    Negli Stati Uniti la situazione è più complessa. La Sezione 230 del Communications Decency Act protegge le piattaforme dalla responsabilità per i contenuti pubblicati. Ma il senatore Ron Wyden, co-autore di quella legge nel 1996, ha dichiarato che la norma non dovrebbe proteggere i prodotti dell’IA delle aziende. “Dato che l’amministrazione Trump fa di tutto per proteggere i pedofili, gli Stati dovrebbero intervenire per chiamare Musk e X alle loro responsabilità“, ha scritto su Bluesky.

    Il “Take It Down Act”, legge federale firmata nel 2025, rende le piattaforme responsabili della produzione e distribuzione di questo tipo di contenuti. Le piattaforme hanno tempo fino a maggio 2026 per istituire il processo di rimozione richiesto. Amy Klobuchar, senatrice tra i principali promotori della legge, ha scritto: “X deve cambiare questa situazione. Se non lo farà, il Take It Down Act presto glielo imporrà.

    Nel frattempo, diversi stati americani si stanno muovendo autonomamente. California, New Mexico e New York stanno valutando azioni legali.

    C’è un dettaglio che rende la vicenda ancora più paradossale. Grok è un software utilizzato dal governo federale americano. Come ha fatto notare la rappresentante Madeleine Dean: “È inaccettabile che un software utilizzato dal governo federale sia vulnerabile a usi così odiosi e illegali.”

    Filtri insufficienti e mancanza di rispetto

    Nelle ultime ore, probabilmente nella giornata dell’8 gennaio, xAI sembrerebbe aver introdotto alcuni filtri. Le richieste più esplicite di nudità completa vengono ora bloccate. Nel senso che Grok su X non da seguito alla richiesta.

    Ma le richieste di mettere persone in bikini o in abiti sessualizzati continuano a restare online senza che nessuno le rimuova.

    Un caso emerso oggi mostra quanto questi filtri siano insufficienti.

    Grok l’immagine folle della ragazza uccisa a Minneapolis

    Un utente ha risposto ad un post dove era stata condivisia la foto della ragazza uccisa a Minneapolis, un caso che ha coinvolto l’ICE e sta facendo molto discutere. La foto ritraeva Renee Nicole Good ormai esanime.

    Questo utenti ha utilizzao l’immagine per a Grok di “metterla in bikini”. Grok ha eseguito la richiesta senza opporre alcuna resistenza.

    Grok e l'immagine della ragazza uccisa a Minneapolis
    Grok e l’immagine della ragazza uccisa a Minneapolis
    Grok e l'immagine della ragazza uccisa a Minneapolis
    Grok e l’immagine della ragazza uccisa a Minneapolis

    Il post con la richiesta ha superato le 480.000 visualizzazioni. L’immagine generata da Grok ne ha raggiunto 427.000. Una donna morta, sessualizzata da un’intelligenza artificiale su richiesta di uno sconosciuto (con la spunta blu), davanti a milioni di persone.

    Questo esempio è la sintesi di tutto. Non è solo la generazione di contenuti sessualizzati non consensuali. È la totale assenza di qualsiasi filtro contestuale. Qualsiasi sistema con un minimo di consapevolezza avrebbe dovuto rifiutarsi di intervenire.

    Il problema è strutturale

    Torniamo al punto che avevamo sollevato pochi giorni fa. Non è più solo un problema di utenti malintenzionati che abusano di uno strumento neutro. È un problema di architettura.

    Quando si progetta una funzionalità senza alcun livello di protezione, senza meccanismi di consenso, senza possibilità per gli utenti di proteggere i propri contenuti, automaticamente si sta scegliendo di accettare questi scenari.

    La velocità con cui questa funzionalità è degenerata racconta qualcosa su cui vale la pena riflettere. Dal lancio il 24 dicembre a oggi, 8 gennaio, sono passate due settimane. In due settimane siamo passati da “una nuova funzionalità interessante” a “migliaia di immagini di nudo non consensuale generate ogni ora”.

    E questo ci riporta al concetto di algoritmo del proprietario. Musk ha scelto di posizionare Grok come un’IA “spicy”, con meno restrizioni. Ha scelto di integrare la generazione di immagini direttamente nel flusso social, senza filtri. Ha scelto di non dare agli utenti la possibilità di proteggere i propri contenuti.

    Queste sono scelte. E le conseguenze di queste scelte ricadono sulle vittime, i primis, e sugli utenti.

    Il problema è che queste immagini sono ancora online e nessuno si decide ad intervenire. Men che meno il proprietario della piattaforma.

  • Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

    Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

    Il Pentagono ha annunciato un accordo con xAI per integrare Grok nei sistemi di difesa USA. L’IA di Musk avrà accesso diretto ai flussi di contenuti condivisi su X. Le modalità dell’accordo e la stessa possibile integrazione sollevano interrogativi su dati, controllo e trasparenza.

    Il Pentagono – oggi DOW, Dipartimento della Guerra – ha annunciato una partnership con xAI, l’azienda di intelligenza artificiale fondata da Elon Musk, per integrare il modello Grok nella piattaforma governativa GenAI.mil.

    Il rilascio è previsto per l’inizio del 2026 e coinvolgerà circa tre milioni di dipendenti militari e civili del Dipartimento della Difesa.

    A prima vista, potrebbe sembrare una notizia come tante nell’era dell’IA generativa. Ma guardando più da vicino emergono elementi che meritano qualche approfondimento in più. Perché questa non è semplicemente l’adozione di un nuovo strumento tecnologico da parte dell’esercito americano. In questi casi siamo oltre, e si entra nella sfera dell’inedito.

    Cosa prevede l’accordo tra il Pentagono e xAI

    Grok opererà a Impact Level 5 (IL5), il livello di sicurezza che consente la gestione di Controlled Unclassified Information (CUI). Si tratta di informazioni sensibili ma non classificate.

    Ossia, dati personali dei dipendenti, informazioni su infrastrutture critiche, dettagli operativi non segreti, comunicazioni interne governative. Singolarmente, questi dati non compromettono la sicurezza nazionale Usa, ma aggregati da un’IA possono rivelare elementi di una certa rilevanza.

    All’interno del comunicato diramato si legge che gli utenti, militari e civili del DOW (Department of War)) avranno accesso a “insight globali in tempo reale dalla piattaforma X”, fornendo al personale del Dipartimento della Guerra quello che viene definito un “vantaggio informativo decisivo” e una “consapevolezza situazionale globale”. È prevista anche una possibile estensione futura a “carichi di lavoro classificati”.

    Il valore del contratto è di 200 milioni di dollari, parte di accordi più ampi che includono anche OpenAI, Google e Anthropic. Ma qui emerge già un primo elemento di criticità.

    Secondo un ex funzionario del Pentagono, il contratto con xAI “è arrivato dal nulla”, quando altre aziende erano sotto osservazione da mesi. La senatrice Elizabeth Warren ha formalmente interrogato il Dipartimento della Difesa su questa circostanza.

    Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari
    Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

    Non esiste alcuna separazione tra Grok e X

    Questo è il nodo che distingue l’accordo Pentagon-xAI da qualsiasi altra partnership tra governo e aziende di IA. Grok non è un modello isolato. È un sistema profondamente integrato con la piattaforma X, e questa integrazione opera su più livelli.

    Training sui dati di X

    Grok viene addestrato sui post di X con un opt-in automatico attivato di default, senza informare gli utenti. L’impostazione è nascosta nelle opzioni di privacy e disattivabile solo da desktop.

    Secondo le policy della piattaforma, X può “utilizzare post, interazioni utente, input e risultati con Grok per training e fine-tuning, condividendoli con xAI”.

    Accesso in tempo reale

    Grok integra le API di X, processa nuovi tweet via WebSocket per aggiornamenti istantanei, non batch processing. Usa endpoint come GET /2/tweets/search/stream, GET /2/tweets/sample/stream, GET /2/trends/place.

    L’algoritmo di X determina quali contenuti hanno visibilità sulla piattaforma, e quindi quali dati alimentano Grok. In virtù di questo accordo, l’intelligenza artificiale Grok entra nel Pentagono con accesso diretto a quei flussi.

    Un cortocircuito epistemologico

    Un’analisi di Archyde coglie un punto da evidenziare: “L’obiettivo dichiarato, maggiore efficienza, sembra sottostimato. Il vero potenziale risiede nella capacità di elaborare e analizzare vasti dataset, identificando pattern e minacce che sarebbero impossibili da rilevare per gli analisti umani.

    Fermiamoci su questo passaggio. Dunque, il Pentagono userà un’IA per identificare minacce basandosi su dati provenienti da una piattaforma il cui algoritmo è progettato non per rappresentare la realtà, ma per massimizzare l’engagement.

    E quello stesso algoritmo è controllato dalla stessa persona che controlla l’IA.

    Non è solo un conflitto di interessi. È una struttura in cui la percezione della realtà dell’apparato militare più potente del mondo passa attraverso un filtro privato, opaco, potenzialmente manipolato.

    I “vasti dataset” menzionati sono in realtà contenuti di X già filtrati dall’algoritmo. I “pattern” identificati saranno pattern di una realtà distorta, se l’algoritmo amplifica certi contenuti e ne sopprime altri. Le “minacce” vengono definite secondo criteri incorporati nel modello. Chi li ha stabiliti? Con quali bias? Con quale trasparenza?

    Accordo xAI Pentagono, Grook entra nei sistemi militari USA
    Accordo xAI Pentagono, Grook entra nei sistemi militari USA

    Altri precedenti problematici

    La senatrice Warren ha sollevato preoccupazioni specifiche nella sua lettera al Pentagono. Musk ha promosso Grok come chatbot “non filtrato” e orientato alla “ricerca della verità” (truth-seeking) che non si conforma agli standard politicamente corretti.

    Ma Grok è noto per fornire informazioni inaccurate quando interrogato su eventi storici e disastri naturali, inclusi nomi, date e dettagli sbagliati.

    Giorni dopo che Musk aveva dichiarato sui social “miglioramenti significativi” al chatbot, Grok si autodefiniva “MechaHitler” e raccomandava un secondo Olocausto ad account neonazisti. La mancanza di filtri di sicurezza ha prodotto contenuti antisemiti e offensivi. Come ha osservato un esperto di sicurezza: “X è piena di fake news e visioni estremiste, non è ciò su cui vuoi che un LLM sia addestrato.”

    E questa è l’IA che ora avrà accesso ai flussi informativi del Pentagono per fornire “consapevolezza situazionale globale”.

    Le domande che resteranno senza risposta

    Chi garantisce che i dati di X usati da Grok rappresentino una visione equilibrata della realtà e non una versione amplificata algoritmicamente? Chi verifica che i modelli e le minacce identificate non riflettano i bias del sistema di training?

    Come viene gestito il conflitto di interessi di Musk, che con Starlink in zone di conflitto, SpaceX con contratti governativi, e ora un’IA che potrebbe influenzare le valutazioni di sicurezza nazionale su questi stessi dossier?

    E per i partner NATO? L’intelligence condivisa con gli Stati Uniti passerà attraverso sistemi integrati con l’IA di Musk? Con quale trasparenza? E con quali garanzie?

    Dall’algoritmo del proprietario all’IA del proprietario

    Ho scritto spesso di come l’”algoritmo del proprietario” serva gli obiettivi strategici di chi controlla la piattaforma, non gli interessi degli utenti. Ma qui siamo a un livello successivo.

    Non si tratta più solo di un algoritmo in mani private. È un’intera catena gestita da un singolo a servizio, ora, di apparati governativi.

    X come piattaforma che genera flussi informativi globali in tempo reale, xAI e Grok come IA che processa e interpreta quei flussi, Starlink come infrastruttura di connettività anche in zone di conflitto. E ora l’integrazione diretta con l’apparato militare degli Stati Uniti.

    È una forma di potere inedita: non statale, non puramente privata. Qualcosa di nuovo per cui forse non esiste ancora un nome adeguato.

    Cosa significa tutto questo per l’Europa

    L’Europa non ha equivalenti di X, xAI o Starlink. Questa asimmetria nell’infrastruttura cognitiva è un tema che diventerà sempre più urgente.

    Non stiamo parlando solo di disinformazione o manipolazione elettorale. Stiamo parlando della possibilità che la percezione della realtà dell’apparato militare più potente del mondo sia mediata da un’infrastruttura privata, poco chiara, controllata da un singolo individuo con interessi economici e politici globali.

    È un tema che richiederà analisi approfondite nei prossimi mesi. Perché quando l’IA non è più solo uno strumento ma diventa il filtro attraverso cui un’istituzione percepisce la realtà, le implicazioni vanno ben oltre l’”efficienza operativa”.

  • TikTok US, ora c’è la firma: il 22 gennaio 2026 sarà operativa

    TikTok US, ora c’è la firma: il 22 gennaio 2026 sarà operativa

    TikTok US prenderà il via il prossimo 22 gennaio 2026. ByteDance e TikTok hanno firmato gli accordi vincolanti per la joint venture americana. Oracle avrà un ruolo cruciale, con accesso all’algoritmo.

    La firma dell’accordo è finalmente arrivata. ByteDance e TikTok hanno firmato, giovedì 18 dicembre 2025, gli accordi vincolanti per la creazione di TikTok US.

    A comunicarlo è stato il CEO Shou Chew in un memo interno ai dipendenti, confermato da diverse testate internazionali.

    Dopo mesi di trattative, proroghe e tensioni diplomatiche tra Washington e Pechino, la piattaforma video più discussa degli ultimi anni entra in una nuova fase. Quella definitiva, almeno sulla carta, relativamente agli Usa ricordiamolo.

    L’accordo segue l’ordine esecutivo firmato da Donald Trump nel settembre scorso, che aveva delineato la struttura della nuova entità americana. Adesso quella struttura ha una data di chiusura prevista per il 22 gennaio 2026.

    TikTok US, la struttura della joint venture

    La nuova entità si chiamerà TikTok USDS Joint Venture LLC. La governance sarà affidata a un consiglio di amministrazione composto da sette membri, a maggioranza americana.

    Sul fronte della proprietà, il consorzio di investitori americani deterrà il 50% della nuova società. Oracle, Silver Lake e MGX, il fondo degli Emirati Arabi, controlleranno ciascuno il 15%. Gli affiliati degli attuali investitori di ByteDance manterranno circa il 30,1%, mentre ByteDance conserverà una quota del 19,9%.

    Il valore complessivo dell’operazione è stimato in circa 14 miliardi di dollari. Una cifra che riflette il peso di TikTok nel mercato americano, dove la piattaforma conta oltre 170 milioni di utenti.

    TikTok US, ora c'è la firma: il 22 gennaio 2026 sarà operativa
    TikTok US, ora c’è la firma: il 22 gennaio 2026 sarà operativa

    Il ruolo di Oracle e la sicurezza dei dati

    Come già ricordato, Oracle assume un ruolo centrale nell’operazione. La società di Larry Ellison, storico sostenitore di Trump, diventa il trusted security partner responsabile dell’audit e della certificazione della conformità ai termini di sicurezza nazionale.

    La joint venture americana sarà responsabile della protezione dei dati degli utenti statunitensi, della sicurezza dell’algoritmo, della moderazione dei contenuti e della garanzia software. Oracle supervisionerà lo storage delle informazioni degli americani, in linea con quanto annunciato dalla Casa Bianca nei mesi scorsi.

    Un passaggio cruciale riguarda l’algoritmo di raccomandazione. La nuova entità dovrà riallenare l’algoritmo sui dati degli utenti americani per garantire che il feed dei contenuti sia libero da manipolazioni esterne. Questo è il cuore della questione sicurezza che ha animato l’intero dibattito su TikTok negli Stati Uniti.

    Le criticità che restano aperte

    Non mancano le perplessità. Molti esperti ed osservatori hanno osservato che l’accordo non interrompe completamente i legami con ByteDance. Secondo queste voci, la struttura somiglia più a un accordo di franchising che lascia la tecnologia core in Cina, piuttosto che a una vera dismissione.

    La legge approvata dal Congresso nel 2024 richiedeva una separazione netta tra TikTok US e ByteDance.

    La struttura negoziata dall’amministrazione Trump sembra aggirare questo requisito, mantenendo ByteDance come licenziante dell’algoritmo e gestore delle attività commerciali globali, inclusi e-commerce, advertising e marketing sulla piattaforma americana.

    Dalla Cina ancora non è stato espresso un comunicato ufficiale sull’approvazione della transazione. Un passaggio non scontato, considerando che Pechino aveva posto il veto alla cessione dell’algoritmo già nel 2020.

    TikTok US e l’algoritmo del proprietario

    Come ho già osservato in passato, siamo di fronte a un altro caso di quello che definisco algoritmo del proprietario. L’accesso di Oracle al codice sorgente di TikTok apre scenari inediti sulla possibilità di modellare l’algoritmo di raccomandazione secondo gli interessi dei nuovi proprietari.

    X, sotto la gestione di Elon Musk, ha già dimostrato come la proprietà di una piattaforma possa influenzarne profondamente i meccanismi di distribuzione dei contenuti. Con TikTok US la dinamica sarà diversa, ma l’accesso privilegiato all’algoritmo da parte di soggetti vicini al governo americano solleva interrogativi legittimi.

    La fine di una storia iniziata nel 2020

    La firma degli accordi segna la conclusione di una saga iniziata nel 2020, quando la prima amministrazione Trump aveva tentato di vietare TikTok con un ordine esecutivo poi annullato da Biden.

    La legge bipartisan del 2024 ha riportato la questione al centro dell’agenda politica, costringendo ByteDance a trovare una soluzione per mantenere la piattaforma operativa negli Stati Uniti.

    Un compromesso che non accontenta tutti

    Il risultato è un compromesso che soddisfa parzialmente entrambe le parti. Gli Stati Uniti ottengono il controllo formale sulla piattaforma e sui dati degli utenti americani. ByteDance mantiene una presenza, seppur minoritaria, e continua a licenziare la tecnologia che ha reso TikTok un fenomeno globale.

    La domanda resta la stessa di settembre.

    Quanto durerà l’equilibrio trovato? In poco più di un mese, anche se c’è la firma, tutto ancora potrebbe succedere.

    La firma dell’accordo resta comunque un punto di non ritorno nella storia di TikTok. E resta un capitolo importante nella storia delle piattaforme digitali alla voce “Sovranità digitale”.

  • Gli Architetti dell’IA sono la Persona dell’Anno 2025 di TIME

    Gli Architetti dell’IA sono la Persona dell’Anno 2025 di TIME

    TIME nomina gli Architetti dell’IA Persona dell’Anno 2025. La copertina ricrea la foto iconica del 1932 con gli otto leader che stanno costruendo l’infrastruttura dell’intelligenza artificiale.

    Undici operai seduti su una trave d’acciaio, i piedi sospesi nel vuoto a 260 metri sopra Manhattan. Era il 20 settembre 1932, nel pieno della Grande Depressione, e quella foto – “Lunch Atop a Skyscraper” – divenne il simbolo di un’America che costruiva il proprio futuro con le mani, mattone dopo mattone, grattacielo dopo grattacielo.

    Novantatre anni dopo, TIME ha scelto di rievocare quell’immagine per raccontare un’altra rivoluzione. Sulla copertina del numero dedicato alla Persona dell’Anno 2025, gli operai sono stati sostituiti da otto figure in giacca e cravatta: i leader che stanno costruendo l’infrastruttura dell’intelligenza artificiale.

    Non più acciaio e cemento, ma chip, modelli linguistici, data center.

    È una scelta coraggiosa con un messaggio chiaro. E cioè che ci troviamo nel mezzo di una trasformazione paragonabile a quella che ridisegnò lo skyline di New York un secolo fa. E non solo.

    Siamo nel mezzo di una trasformazione simile a quella che cambiò il modo di lavorare, il modo di concepire il lavoro. Anche la IA sta cambiando il modo di lavorare e lo vedremo. Tutti temi alla base di questa scelta.

    Gli Architetti dell'IA sono la Persona dell'Anno 2025 di TIME
    Gli Architetti dell’IA sono la Persona dell’Anno 2025 di TIME

    Perché TIME ha scelto gli “Architetti dell’IA”

    La motivazione ufficiale è diretta: “Per aver inaugurato l’era delle macchine pensanti, per aver stupito e preoccupato l’umanità, per aver trasformato il presente e trasceso il possibile“. Ma c’è di più.

    Il 2025 è stato l’anno in cui l’intelligenza artificiale è passata da tecnologia emergente a infrastruttura pervasiva. ChatGPT ha superato gli 800 milioni di utenti settimanali attivi. L’84% degli studenti delle scuole superiori americane utilizza l’IA generativa per i compiti scolastici. E soprattutto, i modelli hanno smesso di limitarsi a rispondere: hanno iniziato a fare cose.

    Nick Turley, responsabile di ChatGPT in OpenAI, lo spiega così nell’articolo di TIME: “Vedere ChatGPT evolversi da partner conversazionale a qualcosa che può andare a fare vero lavoro per te è una transizione molto, molto importante che la maggior parte delle persone non ha ancora registrato“.

    È il passaggio dall’IA generativa all’IA agentica. E segna un cambio di paradigma.

    La copertina: operai del 1932 e architetti del 2025

    L’illustrazione di Jason Seiler ricrea la celebre “Lunch Atop a Skyscraper”, ma al posto degli operai immigrati – irlandesi, italiani, nativi americani – che costruirono il Rockefeller Center, siedono otto protagonisti della rivoluzione AI.

    Da sinistra a destra: Mark Zuckerberg (Meta), Lisa Su (AMD), Elon Musk (xAI), Jensen Huang (Nvidia), Sam Altman (OpenAI), Demis Hassabis (Google DeepMind), Dario Amodei (Anthropic), Fei-Fei Li (Stanford Human-Centered AI Institute e World Labs).

    Un parallelo evocativo. Nel 1932, quegli undici uomini rappresentavano una forza lavoro che stava letteralmente costruendo il futuro dell’America, con i muscoli, con il coraggio, spesso senza reti di sicurezza.

    Nel 2025, questi otto leader stanno costruendo qualcosa di altrettanto monumentale: l’infrastruttura computazionale su cui poggerà l’economia dei prossimi decenni.

    Ma c’è anche una differenza sostanziale. Gli operai del 1932 erano anonimi, ci sono voluti decenni per identificare anche solo due di loro. I costruttori del 2025 sono tra le persone più ricche e potenti del pianeta.

    Jensen Huang, a 62 anni, guida l’azienda con la maggiore capitalizzazione al mondo. Elon Musk è l’uomo più ricco della Terra.

    Il potere si è spostato. E la foto lo racconta senza bisogno di didascalie.

    Chi sono gli otto “Architetti dell’IA”

    Jensen Huang – CEO di Nvidia, l’azienda che produce i chip su cui gira praticamente tutta l’intelligenza artificiale contemporanea. Nvidia ha raggiunto i 5.000 miliardi di dollari di capitalizzazione. Huang è diventato consigliere informale di Donald Trump, che lo chiama regolarmente a tarda notte.

    Sam Altman – CEO di OpenAI, l’azienda che ha lanciato ChatGPT nel novembre 2022 e ha innescato la corsa all’IA generativa. Nel 2025, OpenAI ha completato la trasformazione in azienda for-profit e si prepara a ricevere investimenti per 500 miliardi di dollari attraverso il progetto Stargate.

    Elon Musk – Fondatore di xAI, l’ultima delle sue imprese, dedicata allo sviluppo di Grok. Ha costruito data center in tempi record. Rimane una figura controversa ma evidentemente centrale in questa fase.

    Mark Zuckerberg – CEO di Meta, ha integrato chatbot AI in Instagram, WhatsApp e Facebook. Ha avviato una campagna aggressiva di acquisizione di talenti, offrendo ai migliori ingegneri di machine learning compensi superiori a quelli dei giocatori professionisti.

    Lisa Su – CEO di AMD, sta costruendo un ecosistema software per competere con Nvidia. Nell’articolo di TIME dichiara: “Il 2025 è l’anno in cui l’IA è diventata davvero produttiva per le aziende“.

    Demis Hassabis – CEO di Google DeepMind, il laboratorio che ha sviluppato AlphaFold (previsione della struttura delle proteine) e continua a guidare la ricerca fondamentale. Mantiene un approccio cauto sui rischi: “Non sappiamo ancora abbastanza sull’IA per quantificare effettivamente il rischio“.

    Dario Amodei – CEO di Anthropic, l’azienda che sviluppa Claude e si posiziona come il laboratorio più attento alla sicurezza. Ha fatto una previsione che sta facendo discutere: l’IA potrebbe portare la disoccupazione al 20% nei prossimi cinque anni.

    Fei-Fei Li – Co-direttrice dello Stanford Human-Centered AI Institute e fondatrice di World Labs. È l’unica accademica del gruppo, e rappresenta la voce della ricerca etica e dello sviluppo responsabile.

    Gli Architetti dell'IA sono la Persona dell'Anno 2025 di TIME
    Gli Architetti dell’IA sono la Persona dell’Anno 2025 di TIME

    Come cambia il lavoro con la IA

    I numeri nell’articolo di TIME sono impressionanti. In Anthropic, Claude scrive fino al 90% del proprio codice. In Nvidia, strumenti come Cursor e Claude Code sono utilizzati dalla quasi totalità degli ingegneri. E questo ha permesso all’azienda di quadruplicare la produzione di chip raddoppiando solo il personale.

    Satya Nadella, CEO di Microsoft, ha rivelato che il 30% del codice dell’azienda è ora scritto dall’IA. Contemporaneamente, oltre il 40% dei licenziamenti recenti ha riguardato ingegneri software.

    I dati più aggiornati confermano la tendenza. Secondo la Federal Reserve di St. Louis, le occupazioni con maggiore esposizione all’IA hanno registrato aumenti della disoccupazione significativamente superiori alla media tra il 2022 e il 2025. Goldman Sachs stima che la disoccupazione tra i lavoratori tech di età compresa tra 20 e 30 anni sia aumentata di quasi 3 punti percentuali dall’inizio del 2025.

    Il World Economic Forum prevede che 92 milioni di posti di lavoro saranno eliminati entro il 2030. Ma anche che ne emergeranno 170 milioni di nuovi. Il saldo è positivo, ma il problema è la distribuzione: i nuovi lavori non saranno negli stessi luoghi, non richiederanno le stesse competenze, e non andranno alle stesse persone.

    Jensen Huang offre una prospettiva diversa: “Alcuni lavori scompariranno. Ma finché la domanda è alta per quella particolare industria, sono abbastanza fiducioso che l’IA guiderà produttività, crescita dei ricavi e quindi più assunzioni“. E aggiunge una frase che sta diventando un mantra: “Se non usi l’IA, perderai il lavoro a favore di qualcuno che la usa“.

    L’IA generativa lascia il passo all’IA agentica

    È questo il passaggio cruciale che emerge dall’articolo di TIME e che definirà il 2026. I modelli linguistici hanno acquisito nuove capacità: memoria (ricordano le conversazioni precedenti), accesso a strumenti esterni (possono cercare sul web, consultare database, eseguire codice), connessione ad altre fonti dati (email, cloud, calendari).

    Non si limitano più a generare testo. Ragionano, pianificano, eseguono.

    IA Agentica

    L’IA agentica – secondo la definizione di Gartner – è “un sistema di intelligenza artificiale autonomo che pianifica, ragiona e agisce per completare compiti con minima supervisione umana“.

    La differenza rispetto all’IA generativa è sostanziale: mentre ChatGPT risponde a un prompt, un agente AI può prendere un obiettivo complesso, scomporlo in sotto-compiti, eseguirli in sequenza, adattarsi agli imprevisti.

    BCG stima che gli agenti AI possano accelerare i processi aziendali del 30-50%. McKinsey parla di “paradigm shift”: otto aziende su dieci hanno implementato l’IA generativa, ma altrettante non hanno ancora registrato impatti significativi sui risultati. Gli agenti promettono di colmare questo divario.

    Capgemini riporta che l’82% delle organizzazioni pianifica di integrare agenti AI entro il 2026. Gartner prevede che entro il 2028, il 33% delle applicazioni software aziendali incorporerà funzionalità agentiche — rispetto a quasi zero nel 2023.

    La rivoluzione della IA e la questione europea

    C’è un’assenza evidente nella copertina di TIME: l’Europa.

    Otto figure, tutte americane (con l’eccezione di Hassabis, britannico) o cinesi di formazione americana. Nessun europeo.

    Non è un caso. L’articolo dedica ampio spazio alla competizione tra Stati Uniti e Cina. Il rilascio di DeepSeek a gennaio, definito “il momento Sputnik di Pechino“, ha scosso la Silicon Valley e accelerato la corsa. Ma l’Europa compare solo come spettatrice regolatrice.

    È una fotografia impietosa della nostra posizione. L’Unione Europea ha il Digital Services Act, l’AI Act, un quadro normativo avanzato.

    Ma non ha Nvidia, non ha OpenAI, non ha Anthropic. Non ha le infrastrutture adeguate per permettere che ci sia una “Nvidia” europea.

    Il quesito che dovremmo porci è se la regolamentazione (per quanto necessaria ovviamente), da sola, sia sufficiente a garantirci un ruolo in questa trasformazione. O se rischiamo di diventare consumatori di un’infrastruttura progettata e controllata altrove.

    Cosa succederebbe se l’Europa venisse isolata dal punto di vista digitale e tecnologico? Quale sarebbe il piano B?

    Rivoluzione IA, rischi e opportunità

    L’articolo di TIME non nasconde i rischi. Cita i casi di suicidio legati all’interazione con chatbot, il fenomeno della “psicosi da chatbot”, l’uso di deepfake per la disinformazione. Papa Leone XIV ha avvertito che l’IA potrebbe “manipolare i bambini e servire ideologie antiumane“.

    Dario Amodei stima che l’IA potrebbe portare la disoccupazione al 20% nei prossimi cinque anni. Demis Hassabis ammette che “c’è ancora un rischio significativo” nel non sapere se sarà facile mantenere il controllo di questi sistemi.

    Trump ha riassunto lo spirito del momento parlando direttamente a Huang durante una visita nel Regno Unito: “Non so cosa stai facendo qui. Spero che tu abbia ragione”.

    Il senso della copertina del TIME

    Lunch Atop a Skyscraper” fu scattata come foto promozionale per il Rockefeller Center. Una trovata pubblicitaria mascherata da momento spontaneo. Divenne il simbolo di un’epoca.

    La copertina di TIME del 2025 compie un’operazione simile. È una celebrazione, certo, ma anche un documento. Fissa un momento in cui il potere di plasmare il futuro si è concentrato nelle mani di poche persone. E questo concetto viene fissato con un’immagine che, come l’originale, rimarrà negli archivi.

    Nel 1932, quegli operai costruivano un grattacielo. Nel 2025, questi architetti costruiscono qualcosa di più ambizioso: l’infrastruttura su cui poggerà il pensiero automatizzato, l’economia algoritmica, forse la prossima fase della civiltà umana.

    È una responsabilità enorme. E la foto, con quegli otto leader (sei uomini e due donne) sospesi nel vuoto sopra Manhattan, lo racconta meglio di qualsiasi editoriale.

  • Operation Bluebird e il possibile ritorno di Twitter

    Operation Bluebird e il possibile ritorno di Twitter

    Operation Bluebird, startup guidata dall’ex responsabile marchi di Twitter, ha chiesto all’USPTO di cancellare i marchi Twitter e tweet da X Corp per rilanciare la piattaforma con twitter.new.

    È una di quelle notizie che, a prima lettura, sembra quasi paradossale. Ma sicuramente mette di buonumore i tanti nostalgici che dal 2022 sperano in un ritorno.

    Negli anni abbiamo assistito a piattaforme che hanno segnato il tempo, poi scomparse quando gli algoritmi sono diventati più importanti degli utenti. E ora si torna a parlare di Twitter, mai del tutto dimenticato.

    Eppure è tutto vero, e la base legale su cui poggia è tutt’altro che trascurabile.

    Operation Bluebird, una startup con sede in Virginia, ha presentato lo scorso 2 dicembre 2025 una petizione formale all’U.S. Patent and Trademark Office (USPTO) per chiedere la cancellazione dei marchi registrati “Twitter” e “tweet“, attualmente detenuti da X Corp, la società di Elon Musk.

    L’obiettivo è quello di utilizzare quei marchi per lanciare una nuova piattaforma social, chiamata twitter.new, che intende riportare in vita lo spirito originario della “piazza pubblica digitale” che Twitter rappresentava prima dell’acquisizione da parte di Musk nel 2022.

    Operation Bluebird e il possibile ritorno di Twitter
    Operation Bluebird e il possibile ritorno di Twitter

    Chi c’è dietro Operation Bluebird

    La startup non è guidata da improvvisati. Anzi, il team legale conosce molto bene il terreno ispido su cui si muove.

    Stephen Jadie Coates, general counsel di Operation Bluebird, è stato Associate Director for Trademarks, Domain Names and Marketing di Twitter dal 2014 al 2016. È stato lui, di fatto, il primo responsabile marchi assunto dall’azienda, colui che ha costruito da zero la strategia di protezione del brand Twitter. Conosce ogni sfumatura legale di quei marchi perché li ha gestiti in prima persona.

    Al suo fianco c’è Michael Peroff, fondatore di Operation Bluebird, avvocato specializzato in proprietà intellettuale e protezione dei marchi con base nell’Illinois e quasi 15 anni di esperienza nel settore.

    Non si tratta quindi di un tentativo opportunistico di qualche sconosciuto. Chi sta dietro questa operazione ha le competenze tecniche per comprendere esattamente cosa sta facendo e quali sono le probabilità di successo.

    L’argomento legale: l’abbandono del marchio

    La petizione di Operation Bluebird si basa su un principio cardine del diritto dei marchi statunitense. In buona sostanza: se non usi un marchio commercialmente, rischi di perderlo.

    Il Lanham Act (15 U.S.C. § 1127) stabilisce infatti che un marchio si considera “abbandonato” quando il suo uso è stato interrotto con l’intenzione di non riprenderlo.

    Secondo la normativa americana, tre anni consecutivi di non utilizzo creano una presunzione di abbandono. E qui i fatti sono abbastanza chiari:

    • Il logo del celebre uccellino blu (internamente chiamato “Larry Bird”) è stato completamente rimosso.
    • La piattaforma è stata ribattezzata X, con conseguente migrazione dell’interfaccia e del branding.
    • Il 17 maggio 2024, X Corp ha completato l’integrazione finale, reindirizzando definitivamente twitter.com verso x.com.
    • Il termine “tweet” è stato sostituito con “post” in tutta l’interfaccia e nelle comunicazioni ufficiali.

    Come ha dichiarato Coates a Reuters: “X ha abbandonato legalmente il marchio TWITTER“. La questione, secondo lui, è “straightforward”, lineare.

    Il paradosso del rinnovo del 2023

    Un elemento interessante della vicenda riguarda il fatto che X Corp ha effettivamente rinnovato la registrazione del marchio Twitter nel 2023. Ma quel rinnovo è stato approvato mentre l’azienda stava attivamente eliminando ogni traccia del brand dai propri prodotti e servizi.

    Come osservato da esperti di proprietà intellettuale, questa situazione crea un paradosso. Infatti, rinnovare un marchio che si sta pubblicamente demolendo è un po’ come “rinnovare l’abbonamento alla palestra mentre la stai demolendo”.

    Il semplice rinnovo burocratico, in assenza di un uso commerciale effettivo, potrebbe non bastare a proteggere il marchio. Altri esperti, come Mark Lemley, professore di diritto a Stanford ed esperto di diritto dei brand, sostiene che “un uso meramente simbolico non basta a preservare il marchio”.

    Interfaccia twitter.new
    Interfaccia twitter.new

    Il progetto twitter.new

    Operation Bluebird non si limita a chiedere la cancellazione dei marchi. Nei fatti, ha già presentato una domanda di registrazione per “Twitter” e sta costruendo una piattaforma alternativa.

    Sul sito twitter.new è già possibile riservare il proprio username in vista del lancio, previsto potenzialmente per la fine del 2026.

    Il messaggio sulla homepage è programmatico: “The public square is broken, but we still believe in it. One brand tried to fix it, then burned it all down. We are bringing it back – this time with trust” – La piazza pubblica è rotta, ma ci crediamo ancora. Un brand ha provato a sistemarla, poi ha dato fuoco a tutto. La stiamo riportando in vita – questa volta con fiducia.

    Come ha spiegato Peroff ad Ars Technica, l’obiettivo non è solo rilanciare un nome: “Esistono certamente alternative come Threads, Mastodon e Bluesky, ma nessuna ha raggiunto la scala o il riconoscimento del brand che Twitter aveva prima dell’acquisizione di Musk“.

    Ha aggiunto Coates: “Ricordo quando celebrity reagivano ai miei contenuti su Twitter durante il Super Bowl o altri eventi. Vogliamo che quell’esperienza torni, quella piazza pubblica dove tutti eravamo coinvolti insieme“.

    Quali gli scenari che si aprono

    La petizione di Operation Bluebird apre scenari legali interessanti e pone X Corp di fronte a un dilemma strategico. X Corp ha tempo fino ai primi di febbraio 2026 per presentare una risposta formale alla petizione di cancellazione.

    Se X decidesse di difendere i marchi, dovrà dimostrare di utilizzarli ancora commercialmente o di avere intenzione di riprenderne l’uso. Ma questo contraddirebbe le dichiarazioni pubbliche di Musk e le azioni concrete dell’azienda negli ultimi due anni. Difendere un brand che hai pubblicamente “annullato” creerebbe inoltre un paradosso enorme: se Twitter ha ancora valore, perché l’hai abbandonato?

    Se X non difendesse i marchi, Operation Bluebird potrebbe appropriarsi di uno dei nomi più riconoscibili nella storia dei social media. Un brand costruito in oltre 15 anni passerebbe nelle mani di una startup. Per ricominciare a volare.

    C’è però un terzo elemento da considerare. Anche in caso di cancellazione dei marchi registrati, X Corp potrebbe comunque citare in giudizio Operation Bluebird per violazione di marchio basandosi sul concetto di “residual goodwill” (avviamento residuo).

    La domanda che tutti gli esperti, e non solo, si fanno in questo momento: “Ma davvero Musk spenderebbe milioni di dollari per proteggere un brand che ha deliberatamente gettato nella spazzatura?“. In effetti, Operation Bluebird sta scommettendo che la risposta sia no.

    Gli utenti legati ancora a Twitter

    Già a settembre 2023, a pochi mesi dal rebranding, avevo riportato come il 69% degli utenti americani continuasse a chiamare la piattaforma ‘Twitter’.

    Inoltre, i dati più recenti confermano la stessa tendenza.

    Secondo un’analisi di Omnisend su oltre 14.500 email di marketing (luglio 2024), l’89% dei brand a livello globale – con punte del 95% in Italia – continua a riferirsi alla piattaforma con il vecchio nome.

    E secondo YouGov (2024), il 55% degli utenti giornalieri americani la chiama ancora Twitter. Il brand costruito in 17 anni non si cancella con un cambio di logo.

    Le implicazioni più ampie

    Al di là dell’esito specifico di questa controversia del tutto inattesa, il caso Operation Bluebird solleva questioni rilevanti per il mondo corporate e per chiunque si occupi di brand management.

    In primo luogo, evidenzia i rischi di un rebranding totale senza una chiara strategia di gestione dei marchi legacy. Le aziende che cambiano radicalmente identità devono decidere se difendere formalmente i vecchi marchi, cederli in modo controllato, o accettare che possano essere reclamati da altri.

    In secondo luogo, il caso dimostra che marchi iconici non sono immuni dall’abbandono legale. Anche un nome riconosciuto globalmente come Twitter può diventare vulnerabile se il proprietario smette di utilizzarlo in modo sostanziale.

    Infine, la vicenda rappresenta un interessante precedente su come le decisioni di un singolo proprietario possano alterare radicalmente il destino di asset intangibili dal valore inestimabile.

    Musk ha pagato 44 miliardi di dollari per Twitter nel 2022; ma ora qualcun altro potrebbe ottenere il diritto di usare quel nome attraverso una petizione legale.

    Per chiudere, la vicenda Operation Bluebird rappresenta qualcosa di più di una vicenda legale. È un caso che potrebbe stabilire, intanto, un precedente significativo su come le aziende tech gestiscono (o non gestiscono) i propri asset di brand durante processi di rebranding radicale.

    E se tutto dovesse andare bene, permetterebbe all’uccellino blu di tornare a volare. Senza che ci sia di mezzo Elon Musk.