Tag: social media

  • Apple e la minaccia di rimuovere l’app Grok di xAI

    Apple e la minaccia di rimuovere l’app Grok di xAI

    Una lettera di Apple, inviata a tre senatori Usa, ha rivelato che più volte gli aggiornamenti dell’app Grok di xAI furono respinti, arrivando a minacciare la rimozione dall’App Store.

    Certamente ricorderete quando tra la fine di dicembre 2025 e gennaio di quest’anno esplose lo scandalo Grok, l’app di xAI. Parliamo sempre del raggio di azione di Elon Musk. Ricorderete che quell’app permetteva a tutti, attraverso un testo condiviso su X, quindi in pubblico, di modificare immagini. Una funzionalità che ha finito per generare un fenomeno di deepfake a sfondo sessuale a livello globale.

    Ebbene, a distanza di tre mesi se ne torna a parlare perché NBC, in via esclusiva, in relazione alla lettera che tre senatori Usa avevano indirizzato a Apple e Google, chiedendo di rimuovere Grok dai rispettivi app market, ha avuto modo di visualizzare cosa Apple aveva risposto ai senatori.

    In pratica, il 9 gennaio 2026, i senatori Ron Wyden, Ben Ray Luján ed Edward Markey avevano scritto a Tim Cook e Sundar Pichai chiedendo la rimozione immediata delle app X e Grok dagli store.

    I senatori accusavano Grok di generare immagini sessuali non consensuali di donne e bambini, e Musk di aver incoraggiato il fenomeno reagendo con emoji di risate. La scadenza era fissata al 23 gennaio per una risposta scritta.

    E in effetti, senza che nessuno ne sapesse nulla, e si è scoperto grazie alla NBC, Cupertino aveva risposto.

    Il passaggio chiave della lettera recita: «Apple ha esaminato le successive modifiche degli sviluppatori e ha determinato che X aveva sostanzialmente risolto le proprie violazioni, ma l’app Grok rimaneva non conforme. Di conseguenza, abbiamo respinto la modifiche di Grok e notificato allo sviluppatore che sarebbero state necessarie ulteriori modifiche per rimediare alla violazione, oppure l’app avrebbe potuto essere rimossa dall’App Store.».

    In buona sostanza, Apple aveva bocciato i primi tentativi di xAI di sistemare il problema, giudicandoli però insufficienti. Solo dopo ulteriori modifiche ha approvato la versione aggiornata, definendola «sostanzialmente migliorata». Ma la minaccia di rimozione era stata formalizzata.

    Apple e la minaccia di rimuovere l'app Grok di xAI
    Apple e la minaccia di rimuovere l’app Grok di xAI

    Come si arrivò a quel punto

    Per chi ha seguito questa vicenda su InTime Blog, il contesto è abbastanza chiaro.

    Come ricordato in apertura, tra il 25 dicembre 2025 e l’8 gennaio 2026, Grok ha generato circa 4,6 milioni di immagini, di cui circa 3 milioni sessualizzate e circa 23.000 raffiguranti minori.

    Come avevo analizzato nell’articolo sulle migliaia di immagini di nudo generate da Grok, un’inchiesta di Bloomberg aveva quantificato il fenomeno: 6.700 immagini sessualizzate all’ora, 84 volte più dei principali siti di deepfake messi insieme.

    Ricorderete il post di Musk del 31 dicembre 2025, un’immagine di sé stesso in bikini generata da Grok, che aveva causato un’impennata del 1.400% nella generazione di contenuti simili.

    Come sottolineato più volte, in questa vicenda scatenata dalla funzionalità libera permettendo a chiunque di modificare immagini, le vittime non avevano strumenti per difendersi: donne che segnalavano immagini sessualizzate delle proprie foto a X non ricevevano risposta, o ricevevano notifiche che «non vi erano violazioni delle regole».

    X ha poi limitato la generazione di immagini agli abbonati paganti. Ma come avevo scritto nell’analisi sulla spunta blu che non rende sicura la generazione di immagini, spostare la funzionalità dietro un paywall non è una misura di sicurezza.

    Lo dimostrava il fatto che l’utente che aveva chiesto a Grok di manipolare l’immagine della donna uccisa a Minneapolis era un abbonato verificato. E come avevo ricordato nell’articolo sui numeri degli abbonamenti di X, la limitazione agli abbonati ha finito per monetizzare lo scandalo stesso.

    Lo scandalo Grok si è esteso ovunque

    Il 26 gennaio l’Unione Europea aveva aperto un’indagine formale DSA contro X per le immagini generate da Grok, con sanzioni potenziali fino al 6% del fatturato globale.

    Il DPC irlandese ha avviato un’indagine GDPR, con potenziali sanzioni fino al 4% del fatturato. Il Regno Unito ha varato una nuova legge con pene detentive fino a due anni per chi genera deepfake intimi non consensuali.

    E poi c’è la Francia. Il 3 febbraio la procura di Parigi, insieme a Europol, ha perquisito gli uffici parigini di X. Musk e l’ex CEO Linda Yaccarino sono stati convocati per un’audizione fissata per il 20 aprile, vale a dire tra pochi giorni.

    Negli Stati Uniti, il TAKE IT DOWN Act, firmato nel maggio 2025, entrerà in vigore a maggio 2026 rendendo reato federale la pubblicazione di immagini intime non consensuali generate da IA.

    Il DEFIANCE Act, approvato dal Senato il 13 gennaio citando esplicitamente lo scandalo Grok, consente alle vittime di citare in giudizio i creatori per danni fino a 150.000 dollari. E sono già in corso almeno tre cause legali contro xAI.


    Cosa dicono il TAKE IT DOWN Act e il DEFIANCE Act

    Il TAKE IT DOWN Act, firmato il 19 maggio 2025, è la prima legge federale Usa a criminalizzare la diffusione di immagini intime non consensuali, siano esse reali o generate dall’IA. La norma impone alle piattaforme l’obbligo di rimuovere tali contenuti entro 48 ore dalla segnalazione, prevedendo sanzioni penali e multe per chi pubblica o minaccia di diffondere tali immagini.

    Complementare a questo è il DEFIANCE Act, approvato dal Senato nel gennaio 2026, che colma un vuoto fondamentale: permette alle vittime di citare in giudizio civile i creatori di deepfake sessualizzati, richiedendo danni economici significativi.

    Per quanto riguarda l’operatività:

    • Il TAKE IT DOWN Act è tecnicamente in vigore dal giorno della firma, ma le piattaforme hanno tempo fino al 19 maggio 2026 per implementare procedure di segnalazione chiare e visibili.
    • Il DEFIANCE Act, dopo il via libera del Senato di metà gennaio 2026, deve ora completare l’iter alla Camera per diventare pienamente esecutivo.

    Due norme Usa che permetteranno di passare da una fase di “far west” digitale a una in cui la responsabilità civile e penale inizia a pesare anche nel mondo dei falsi artificiali.


    La generazione di immagini con sessualizzare con Grok continua

    Un secondo report di NBC documenta che Grok continua a generare immagini sessualizzate non consensuali, seppur in volumi ridotti.

    Gli utenti hanno sviluppato tecniche di aggiramento: chiedono a Grok di «abbinare la posa» di una foto di celebrità a una figura stilizzata in posizione suggestiva, o di «scambiare gli abiti» tra due foto. I video animati rappresentano una nuova frontiera di abuso.

    La risposta di Musk è stata la solita, ossia quella di provare a minimizzare e ad attaccare. In risposta ai provvedimenti del governo Uk, ha definito il governo di Starmer «fascista», ha sfidato pubblicamente gli utenti a «provare a violare la moderazione di Grok» ricevendo immediatamente risposte con contenuti nudi, e la risposta ufficiale di xAI ai giornalisti è stata «Legacy Media Lies».

    Il paradosso di questa vicenda è che la stessa reazione di Musk ha finito per amplificare la crisi, invece di placarla.

    Cosa potrebbe succedere adesso

    La rivelazione della lettera di Apple dimostra che i gatekeeper degli store hanno utilizzato la leva della rimozione come strumento di pressione, anche se non l’hanno esercitata fino in fondo.

    Apple ha anche rimosso 28 app «nudify» dal proprio store dopo che il Tech Transparency Project ne aveva identificate 47 disponibili su iOS, complessivamente scaricate 705 milioni di volte.

    Ma il vero banco, dicevamo, di prova sarà nelle prossime settimane.

    La scelta di Musk di posizionare Grok come un’intelligenza artificiale «spicy», con meno restrizioni, si scontra ora con un ecosistema normativo globale che non concede più sconti.

    L’integrazione di un generatore di immagini IA con misure di controllo minime all’interno di una piattaforma social da centinaia di milioni di utenti ha creato un rischio enorme. Conosciuto del resto.

    Un rischio tale per cui nessun intervento tardivo di moderazione può pienamente correggere.

    Ed è questo il punto in cui ci troviamo oggi. La lettera di risposta di Apple ci dice che il rischio c’è ed è conosciuto anche ai grandi gatekeeper. E le possibilità che la prossima volta si possa scrivere un esito diverso non è del tutto remota.

    Intanto, staremo a vedere cosa emergerà dall’audizione di Musk e della Yaccarino a Parigi.

  • Dopo 10 anni, Zuckerberg insiste a clonare se stesso

    Dopo 10 anni, Zuckerberg insiste a clonare se stesso

    Meta sta sviluppando un clone IA di Zuckerberg per interagire con i dipendenti. È l’ultimo capitolo di un’ossessione decennale per gli alter ego digitali, dalla realtà virtuale del 2016 al metaverso, fino alla superintelligenza.

    Partiamo da questa scena. Barcellona, febbraio 2016, quindi 10 anni fa al Mobile World Congress. Mark Zuckerberg fa il suo ingresso spettacolare in una sala gremita di giornalisti, mentre nessuno di loro lo nota. Sono tutti girati dalla parte opposta, immersi in visori per la realtà virtuale, intenti a osservare una scena che si svolge altrove, in un mondo simulato.

    Lui passa alla loro destra con un’espressione soddisfatta, quasi trionfante. Un’immagine che diventerà virale e storica allo stesso tempo e, a guardarla bene, fa ancora oggi un certo effetto.

    Quella scena oggi quasi surreale dava l’idea di quello che sarebbe stata la realtà virtuale social secondo Zuckerberg: un networking di persone riprodotto in un mondo non reale, totalmente ricostruito, simulato. Una realtà non reale attraverso la quale provare instaurare relazioni tra persone.

    Sono passati dieci anni esatti da allora e in questi giorni Zuckerberg ci riprova, con strumenti diversi certo, ma sempre con lo stesso identico pallino. Ossia quello di creare alter ego digitali che possano essere presenti ovunque senza esserci fisicamente.

    Secondo quanto riportato dal Financial Times, Meta sta sviluppando un clone IA fotorealistico del suo CEO, addestrato sui suoi modi di fare, sul suo tono e sulle sue dichiarazioni pubbliche, con l’obiettivo di farlo interagire con i dipendenti quando Zuckerberg non può o non vuole farlo di persona. Il CEO stesso starebbe supervisionando il progetto, dedicandoci dalle cinque alle dieci ore a settimana di quello che ormai si chiama vibe coding (sviluppo software con l’assistenza della IA).

    Dopo 10 anni, Zuckerberg insiste a clonare se stesso
    Dopo 10 anni, Zuckerberg insiste a clonare se stesso

    Un nuovo tentativo di cloni digitali dopo 10 anni

    Per capire cosa sta succedendo oggi ritorniamo a quel febbraio 2016.

    Due anni prima Facebook aveva acquisito Oculus VR per 2 miliardi di dollari, e Zuckerberg non aveva mai fatto mistero che quello fosse il segnale di un futuro nella realtà virtuale. Al Mobile World Congress di Barcellona 2016, quel futuro sembrava essere arrivato.

    Con la realtà virtuale le opportunità di connessione tra amici sarebbero state molte di più, al punto da vivere insieme, quindi virtualmente, esperienze che si svolgono in parti del mondo diverse. Era il pallino di Zuckerberg, e dopo aver lanciato il più grande social network, voleva passare alla storia anche come il pioniere della realtà virtuale in salsa social.

    Cinque anni dopo, nell’ottobre 2021, quel pallino diventa addirittura strategia aziendale. Facebook Inc. cambia nome e diventa Meta. L’accoglienza del nuovo nome fu tutt’altro che entusiasmante. A molti sembrò un’operazione di maquillage per distrarre l’opinione pubblica dai Facebook Papers e dalle rivelazioni di Frances Haugen.

    Ma si trattava anche di una mossa strategica con investimenti da 10 miliardi di dollari e l’assunzione di 10.000 persone in Europa. Tutto con l’obiettivo di costruire il metaverso.

    Il metaverso era la versione aggiornata della stessa visione: mondi virtuali dove le persone avrebbero potuto incontrarsi, lavorare, socializzare attraverso avatar digitali. Il concetto di alter ego era al centro di tutto. Horizon Worlds, il mondo virtuale che Zuckerberg aveva immaginato per un miliardo di persone, avrebbe dovuto essere il luogo dove tutto questo si sarebbe materializzato.

    Il metaverso, la promessa non mantenuta

    Ma le cose non sono andate come previsto.

    Reality Labs, la divisione dedicata al metaverso, ha accumulato oltre 70 miliardi di dollari di perdite operative dal 2021. Bloomberg ha riportato che Meta ha tagliato la spesa per il metaverso fino al 30%. E il colpo più simbolico è arrivato poche settimane fa: Horizon Worlds verrà rimosso dalla VR il prossimo 15 giugno 2026, sopravvivendo solo come esperienza mobile.

    Era il progetto per cui Facebook aveva cambiato nome in Meta.

    L’arrivo dell’intelligenza artificiale generativa ha cambiato tutto. Adesso si parla di Muse Spark e i Superintelligence Labs,

    In buona sostanza, Meta ha liquidato il metaverso, sacrificato i propri scienziati di punta, e dirottati centinaia di miliardi di dollari verso l’IA. Con l’addio di Yann LeCun e la rimozione di Chris dalla supervisione dell’IA, il ventottenne Alexandr Wang è diventato il primo Chief AI Officer nella storia dell’azienda.

    Ma restiamo concentrati sul tema. Dopo tutto questo, il pallino di Zuckerberg non è cambiato. È cambiata solo la tecnologia con cui cerca di realizzarla, ma la sua idea nel corso di questi anni è rimasta intatta.

    Mark Zuckerberg al MWC 2016
    Mark Zuckerberg al MWC 2016

    Dal metaverso al clone IA

    Nel 2016 la visione era la realtà virtuale social: essere presenti in un altro luogo senza esserci fisicamente. Nel 2021 è diventato metaverso: vivere in mondi virtuali attraverso avatar. Nel 2026 è la superintelligenza personale: avere un compagno IA che ci conosce profondamente e può agire al posto nostro.

    Il clone IA di Zuckerberg si inserisce perfettamente in questa progressione. Non è un’idea nuova, è la stessa idea di sempre realizzata con strumenti diversi. L’obiettivo resta quello di creare versioni digitali di persone reali che possano interagire al posto loro.

    Va detto, Meta ci ha già provato. Nel 2023 l’azienda aveva annunciato che avrebbe pagato milioni di dollari a celebrity come Snoop Dogg per trasformarle in chatbot. Il progetto è stato un fallimento e i chatbot hanno finito per fare dichiarazioni imbarazzanti per conto dei loro equivalenti in carne e ossa.

    Nel 2024 è arrivato AI Studio, che permette ai creator di Instagram di costruire versioni IA di se stessi per interagire con i fan via DM. Anche questo progetto ha avuto i suoi problemi, al punto che Meta ha dovuto bloccare l’accesso ai teenager dopo le critiche sulla salute mentale dei minori.

    Ora Zuckerberg sta applicando la stessa logica, partendo da se stesso.

    Il clone IA sarà addestrato non solo sui suoi modi di fare e sul suo tono, ma anche sul suo pensiero recente riguardo alle strategie aziendali. L’idea, secondo il Financial Times, è che i dipendenti possano sentirsi più connessi al fondatore attraverso le interazioni con il suo avatar digitale.

    La trasformazione del CEO nel corsi di questi 10 anni

    Nel 2016, quando Zuckerberg immaginava la realtà virtuale social, il ruolo del CEO di una grande azienda tecnologica era sostanzialmente quello di guida interna. Certo, le figure come lui erano già personaggi pubblici, ma la loro funzione principale restava quella di dirigere l’azienda, non di rappresentarla costantemente verso l’esterno.

    Dieci anni dopo, quel ruolo è cambiato radicalmente. I CEO delle grandi piattaforme di oggi sono diventati figure mediatiche a tutti gli effetti, produttori di contenuti che incarnano la visione aziendale.

    Lo vediamo con Sam Altman di OpenAI, che costruisce la propria immagine pubblica attraverso podcast, interviste, post sui social.

    E lo vediamo con lo stesso Zuckerberg, che negli ultimi anni ha curato attentamente la propria trasformazione da nerd impacciato a imprenditore sportivo e appassioandosi alle arti marziali miste.

    Il CEO non è più solo chi prende le decisioni. È una figura oggi che comunica la narrazione, che costruisce il brand, che incarna l’identità dell’azienda agli occhi del pubblico, degli investitori, delle istituzioni.

    E adesso Zuckerberg vuole clonare proprio quella figura.

    Cosa significa davvero clonare il CEO

    Se il ruolo del CEO moderno include la costruzione di una narrazione, la comunicazione di una visione, l’incarnazione di valori aziendali, cosa succede quando quella figura viene replicata artificialmente?

    Un avatar IA addestrato sulle dichiarazioni pubbliche e sul pensiero strategico di Zuckerberg può rispondere a domande, offrire feedback, partecipare a riunioni. Ma potrebbe incarnare una visione? Potrebbe trasmettere fiducia? Potrebbe davvero prendere decisioni che comportano responsabilità?

    Il Financial Times riporta che esiste anche un progetto separato, un CEO agent progettato per aiutare Zuckerberg a recuperare informazioni e svolgere compiti al suo posto.

    Si tratta di due progetti distinti ma complementari: uno clona la presenza, l’altro automatizza le funzioni.

    C’è poi la questione della governance. Se l’avatar IA di Zuckerberg dà un feedback a un dipendente, chi è responsabile di quel feedback? Se prende una posizione su una questione strategica, quella posizione riflette davvero il pensiero del CEO o si parla di approssimazione della IA? E se il clone dice qualcosa di sbagliato, come è già successo con i chatbot delle celebrity, chi ne risponde?

    Certo che sono tutte questioni che saranno risolte, ove mai questo progetto prenderà davvero piede, ma sono comunque domande da porsi in questo frangente.

    Dieci anni dopo, la stessa domanda

    Ma la realtà virtuale social affascina o inquieta?

    Dieci anni dopo, la domanda è la stessa ma la tecnologia, e il mondo, è cambiata.

    Non si tratta più di mondi virtuali dove incontrarsi come avatar, oggi si parla di creare copie di persone reali, che possano agire, parlare, decidere al loro posto. E se il primo esperimento è il CEO di una delle aziende più potenti del mondo, il passo successivo potrebbe essere davvero chiunque.

    Il Financial Times riporta che se l’esperimento con Zuckerberg avrà successo, Meta prevede di permettere ai creator di costruire avatar IA di se stessi, espandendo il progetto dimostrato al Meta Connect del 2024.

    Nel frattempo, tra licenziamenti e nuove strategie sulla IA, Meta sta spingendo i propri dipendenti a usare strumenti di automazione e software agentici.

    Insomma, Zuckerberg dimostra che il suo obiettivo resta quello di sempre. E per trasformarlo in realtà sarebbe disposto a cambiare anche la sua azienda. Il primo tentativo col metaverso è andato come abbiamo visto. Forse quello con la IA gli potrebbe andare bene. Forse.

  • X nel 2026, l’algoritmo del proprietario ha vinto

    X nel 2026, l’algoritmo del proprietario ha vinto

    L’analisi di Nate Silver rivela come X nel 2026 sia dominata da account di destra di bassa qualità. Al centro di tutto ovviamente c’è Musk. Non è visibilità organica, ma è l’algoritmo del proprietario che ha ribaltato la piattaforma.

    Quando Elon Musk ha acquistato Twitter nell’ottobre 2022, ha promesso di trasformarlo in una piazza digitale dove la libertà di espressione avrebbe trionfato. Tre anni e mezzo dopo, quella piazza è diventata qualcosa di molto diverso. Vale a dire un ecosistema chiuso dove prosperano account di bassissima qualità, teorie complottiste e disinformazione sistematica, mentre il giornalismo tradizionale viene progressivamente marginalizzato.

    E il grafico pubblicato da Nate Silver su Silver Bulletin lo dimostra con una chiarezza lascia spazio davvero a poche interpretazioni.

    L’immagine che si vede qui in basso è molto chiara. Si nota una costellazione di bolle che rappresentano gli account con più engagement su X nei primi mesi del 2026.

    Al centro c’è, ovviamente, Elon Musk con i suoi 223 milioni di follower e il boost algoritmico che si è costruito su misura.

    Attorno a lui, una galassia quasi interamente rossa: Pop Base, Catturd, Jackson Hinkle, Libs of TikTok, Laura Loomer, Scott Presler. Gli account blu, quelli che Silver classifica come liberal, sono pochi e marginali. Ma il dato più importante, forse, non è lo squilibrio politico, quello lo sapevamo già, ma è la qualità di ciò che genera engagement.

    Catturd preferito al New York Times: la vittoria della spazzatura

    C’è un dettaglio nel grafico di Silver che va evidenziato, ed è l’account Catturd, un profilo satirico di estrema destra, che genera più engagement del New York Times. Sì, si chiama letteralmente «Catturd» e che pubblica contenuti di qualità infima. E grazie alla spinta dell’algoritmo supera in interazioni una delle testate giornalistiche più importanti del mondo. E non è un caso isolato.

    Come avevo scritto analizzando l’evoluzione dell’algoritmo di X con Grok, la piattaforma di Musk ha progressivamente abbandonato qualsiasi pretesa di neutralità. Quello che vediamo oggi è il risultato finale di un processo iniziato subito dopo l’acquisizione: la costruzione dell’algoritmo del proprietario, come lo definisco ormai da tempo, che premia ciò che il proprietario vuole amplificare e penalizza ciò che vuole silenziare.

    Non si tratta di crescita organica, è ingegneria algoritmica

    Qualcuno potrebbe sostenere che questo spostamento rifletta semplicemente le preferenze degli utenti, che la destra americana sia più attiva sui social media, che si tratti di una dinamica organica.

    Ma poi i fatti raccontano una storia diversa. Prima dell’acquisizione di Musk, gli account con più engagement su Twitter erano figure come Taylor Swift, Barack Obama, Cristiano Ronaldo: celebrità che erano seguite da milioni di follower senza particolari spinte algoritmiche. Twitter lasciava che la rilevanza emergesse dalle interazioni reali degli utenti.

    Oggi quella che abbiamo sotto gli occhi è una situazione radicalmente diversa.

    Musk si è costruito un boost algoritmico personale – algoritmo del proprietario in purezza. I link esterni vengono sistematicamente penalizzati, una strategia che Silver definisce «miope» perché trasforma X in un giardino recintato dove i contenuti di qualità non hanno ragione di entrare.

    Gli account con la spunta blu legacy, quelli che avevano ottenuto la verifica prima dell’era Musk, sono stati progressivamente condannati all’irrilevanza. E il sistema di monetizzazione premia chi rimane sulla piattaforma e genera engagement, non chi produce contenuti verificati o approfonditi.

    Silver usa una metafora ecologica molto efficace per descrivere questo fenomeno. Infatti paragona X a un’isola remota dove, per mancanza di competizione, si sviluppano creature strane.

    È il cosiddetto effetto isola: in assenza di predatori naturali, prosperano specie che non sopravviverebbero in un ecosistema più competitivo. Il drago di Komodo esiste solo perché vive su isole isolate dell’Indonesia.

    In buona sostanza, Catturd esiste solo perché l’algoritmo di X lo protegge dalla competizione con contenuti di qualità.

    X, come i social media, sempre meno rilevanti per contenuti di qualità

    I social media, e X in particolare, stanno diventando sempre meno rilevanti per chi produce contenuti di qualità.

    Il New York Times ha 53 milioni di follower su X, eppure i suoi tweet generano spesso poche centinaia di like. È una sproporzione che non si spiega con il declino dell’interesse per il giornalismo. Ma si spiega con un algoritmo che penalizza sistematicamente i link esterni e i contenuti che portano gli utenti fuori dalla piattaforma.

    L’algoritmo del proprietario ha vinto

    Come avevo raccontato qui su questo blog, fin dall’inizio della vicenda Twitter/Musk, l’obiettivo dell’acquisizione non è mai stato quello dichiarato.

    Non si trattava di salvare la libertà di espressione o di combattere la censura.

    Si trattava di costruire una macchina di amplificazione per un certo tipo di contenuti: quelli che servono agli interessi politici e commerciali del proprietario. E quel progetto, possiamo dirlo, è andato a buon fine.

    Il grafico di Nate Silver non è solo una fotografia dello stato attuale di X. È la prova documentale di un’operazione riuscita.

    L’algoritmo del proprietario ha ribaltato completamente l’ecosistema della piattaforma, trasformandola da spazio di conversazione pubblica a camera di risonanza per disinformazione, teorie complottiste e propaganda politica.

    Resta da vedere se questa traiettoria sia reversibile o se X sia destinata a diventare sempre più marginale nel dibattito pubblico.

    Il processo già in corso coinvolge tutte le piattaforme social media, nessuna esclusa.

    L’algoritmo del proprietario ha vinto la battaglia per il controllo della piattaforma. Ma potrebbe aver perso la guerra per la sua rilevanza. Staremo a vedere, come sempre.

  • Mark Zuckerberg e Elon Musk, da nemici giurati a complici

    Mark Zuckerberg e Elon Musk, da nemici giurati a complici

    I documenti depositati nella causa Musk contro OpenAI rivelano messaggi privati tra i due CEO. Zuckerberg offrì supporto al DOGE e Musk propose un’offerta congiunta da 97,4 miliardi di dollari per acquisire OpenAI. Una convergenza strategica che ribalta anni di rivalità pubblica.

    Mark Zuckerberg si è offerto di aiutare Elon Musk e il suo DOGE.

    Lo rivelano i documenti depositati venerdì scorso nell’ambito della causa che Musk ha intentato contro Sam Altman e OpenAI, e vale la pena soffermarsi un attimo perché racconta molto più di un semplice scambio di messaggi tra due miliardari.

    Vi ricordate dove li avevamo lasciati? Era il 2023, e i due si stavano organizzando per sfidarsi a duello, un combattimento che avrebbe dovuto tenersi addirittura al Colosseo, con l’allora ministro Sangiuliano che si era offerto come mediatore istituzionale per ospitare lo scontro del secolo.

    L’inizio della rivalità tra Zuckerberg e Musk

    Una rivalità che in realtà affondava le radici molto più indietro. Un esempio si ebbe nel 2016, quando l’esplosione di un razzo SpaceX distrusse un satellite Facebook che si trovava a bordo. Da quel momento in poi i due sono andati avanti con provocazioni reciproche e dichiarazioni al vetriolo.

    Eppure, nel corso dell’ultimo periodo, qualcosa è cambiato, e i documenti giudiziari ci permettono oggi di ricostruire la sequenza con una certa precisione.

    Il primo segnale risale al 13 dicembre 2024, quando Zuckerberg scrisse a Musk per avvisarlo personalmente che qualcuno aveva fatto trapelare la lettera con cui Meta chiedeva all’Attorney General della California di bloccare la transizione di OpenAI verso un modello for-profit. Una lettera in cui Meta sosteneva esplicitamente che Musk fosse “qualificato e ben posizionato per rappresentare gli interessi dei californiani” nella sua battaglia legale contro Altman.

    Zuckerberg e Musk, insieme nel segno di Trump

    Poi è arrivato il 20 gennaio 2025, il giorno dell’insediamento di Trump, e la scena che si è presentata agli occhi del mondo ha reso evidente ciò che stava accadendo.

    Musk, Zuckerberg, Bezos e Pichai sedevano insieme in prima fila, più vicini al nuovo presidente di molti dei suoi stessi consiglieri, gli unici non familiari in grado letteralmente di sussurrare all’orecchio di Trump o Vance dal palco.

    Ciascuno di loro aveva versato un milione di dollari per l’evento, e Zuckerberg aveva annunciato pochi giorni prima l’abbandono del fact-checking sulle piattaforme Meta, una svolta che segnava un allineamento politico ormai inequivocabile.

    Ma è il 3 febbraio 2025 che la convergenza diventa operativa, come riportano i documenti.

    Mark Zuckerberg e Elon Musk, da nemici giurati a complici
    Mark Zuckerberg e Elon Musk, da nemici giurati a complici

    E uniti contro OpenAI di Sam Altman

    Alle 22:04, Zuckerberg scrive a Musk congratulandosi per i progressi del DOGE e offrendo supporto concreto: i suoi team sono pronti a rimuovere i contenuti che minacciano o fanno doxxing ai collaboratori di Musk. “Fammi sapere se c’è qualcos’altro che posso fare per aiutare”, conclude.

    Meno di mezz’ora dopo, Musk risponde con un cuore e rilancia: “Sei aperto all’idea di fare un’offerta per la proprietà intellettuale di OpenAI con me e alcuni altri?”. Zuckerberg propone di discuterne a voce, Musk dice che chiamerà la mattina dopo.

    Una settimana più tardi, il 10 febbraio, un consorzio guidato da xAI presenta un’offerta non sollecitata da 97,4 miliardi di dollari per acquisire OpenAI, con l’obiettivo dichiarato di bloccare la sua trasformazione in società for-profit. Zuckerberg alla fine non firmò la lettera d’intenti e il board di OpenAI respinse l’offerta, ma il fatto che l’ipotesi sia stata contemplata racconta una storia che va ben oltre i rapporti personali tra i due.

    Zuckerberg, Musk e Trump: una convergenza strategica

    Quello che emerge da questa ricostruzione è un quadro di convergenza strategica guidata da interessi comuni. OpenAI e Sam Altman rappresentano una minaccia esistenziale sia per xAI di Musk che per gli investimenti di Meta nell’intelligenza artificiale, e questo ha creato le condizioni per un allineamento che sarebbe stato impensabile solo due anni fa.

    A questo si aggiunge l’abbraccio condiviso dell’amministrazione Trump, con Meta che ha abbandonato le politiche di moderazione dei contenuti proprio alla vigilia dell’insediamento, e la consapevolezza che la transizione di OpenAI verso il for-profit minaccia entrambi i loro modelli di business.

    Un abbraccio che proprio in questi giorni ha trovato una nuova formalizzazione: mercoledì scorso Trump ha nominato Zuckerberg nel President’s Council of Advisors on Science and Technology, il panel che fornirà consulenza alla Casa Bianca su intelligenza artificiale e politiche tecnologiche.

    Dal duello al Colosseo all’offerta congiunta per OpenAI il passo è stato più breve di quanto chiunque potesse immaginare, e forse questo ci dice qualcosa su come funzionano davvero le dinamiche di potere nella Silicon Valley di oggi.

  • La sentenza del caso KGM segna la fine di un’era dei social media

    La sentenza del caso KGM segna la fine di un’era dei social media

    Una giuria di Los Angeles ha condannato Meta e YouTube per aver progettato piattaforme che creano dipendenza nei minori. È la prima sentenza di questo tipo nella storia. I 6 milioni di dollari di risarcimento sono una cifra simbolica, ma il principio che si afferma potrebbe cambiare per sempre il modo in cui pensiamo ai social media.

    Da anni si sostiene che i social media stanno cambiando, ed è vero. Ma molto spesso quando si fa questa affermazione non ci si rende davvero conto in cosa consista in questo cambiamento.

    Infatti, non sempre ce ne accorgiamo subito, perché il cambiamento vero raramente arriva con i titoli cubitali che ci aspetteremmo. Ma la data 25 marzo 2026 verrà ricordata per essere quello momento specifico in cui le piattaforme social media sono davvero cambiate.

    In un’aula di tribunale di Los Angeles, dodici persone comuni hanno stabilito qualcosa che nessuna istituzione, o quasi, era riuscita a stabilire prima: le piattaforme social possono essere ritenute responsabili per il modo in cui sono progettateNon per i contenuti che ospitano, ma per il design stesso.

    Come già raccontato su queste pagine, la sentenza riguarda una ragazza californiana, identificata con le iniziali K.G.M., che ha citato in giudizio Meta e Google. Come detto in altre situazioni, Kaley iniziato a usare YouTube a sei anni, Instagram a nove. Di fronte alla giuria ha raccontato di aver sviluppato depressione, dismorfismo corporeo, pensieri suicidi. Ma la cosa più importante non è la sua storia personale, per quanto drammatica, è il principio giuridico che questa sentenza afferma.

    La sentenza del caso KGM segna la fine di un’era dei social media
    La sentenza del caso KGM segna la fine di un’era dei social media

    Il design dei social media provoca dipendenza

    Per decenni le piattaforme digitali sono state protette dalla Sezione 230 del Communications Decency Act, una norma americana che le esonera dalla responsabilità per i contenuti pubblicati dagli utenti.

    È stata la base giuridica su cui si è costruito l’intero ecosistema dei social media. Ma questa sentenza aggira completamente quel principio. Non accusa Meta e YouTube per i video visti dalla ragazza o per i post che ha letto. Invece li accusa per lo scroll infinito, per le notifiche che interrompono il sonno, per i filtri di bellezza che alterano la percezione di sé, per i loop di engagement progettati per trattenere gli utenti il più a lungo possibile.

    In altre parole: il problema non è cosa c’è sulla piattaforma, ma è come funziona la piattaforma. È una distinzione sottile ma decisiva, e la giuria l’ha accolta. I documenti interni presentati in aula hanno mostrato che Meta sapeva esattamente cosa stesse facendo. Un memo aziendale recitava, traduco io: “Se vogliamo vincere alla grande con i teenager, dobbiamo portarli dentro come tweens”. Un altro documento stimava il valore economico di un tredicenne in circa 270 dollari, sulla base del fatto che gli utenti più giovani hanno una ritenzione a lungo termine molto più alta. La giuria ha visto questi documenti e ha tratto le sue conclusioni.

    6 milioni di dollari simbolici ma sono un precedente

    Diciamolo, sei milioni di dollari per aziende che valgono più di mille miliardi sono una cifra irrilevante e Meta non accuserà nemmeno il colpo.

    Ma non è questo il punto, il punto è che esistono oltre duemila cause simili solo in California, e più di diecimila a livello nazionale negli Stati Uniti. Questa sentenza era un test, quello che in gergo legale si chiama bellwether trial: un processo apripista che serve a capire se una certa teoria giuridica può reggere in tribunale.

    Il confronto che molti stanno facendo è con le cause contro l’industria del tabacco negli anni Novanta. È un parallelo che ha senso, fino ad un certo punto. Anche allora i documenti interni delle aziende dimostrarono che sapevano dei danni causati dal fumo. E anche allora la difesa si basò sulla responsabilità individuale del consumatore. Le prime sentenze furono simboliche, prima che l’intero sistema crollasse. Ma tra i due casi ci sono differenze importanti.

    Il tabacco causava danni fisici misurabili attraverso l’ingestione di una sostanza. Mentre la dipendenza da social media non è ancora riconosciuta ufficialmente come diagnosi clinica. E soprattutto: nessuno vuole abolire i social media, mentre abolire il fumo era un obiettivo ragionevole.

    Forse il parallelo più calzante è un altro, quello con la sicurezza automobilistica degli anni Sessanta. Le automobili non furono abolite, ad un certo punto ci si rese conto che andavano riprogettate con cinture di sicurezza, airbag e altri sistemi di sicurezza.

    Il principio che si affermò allora è lo stesso che potrebbe affermarsi oggi. Ossia, se un prodotto può essere reso più sicuro senza comprometterne la funzione, allora si deve fare in modo che lo diventi.

    I social media provocano dipendenza

    In aula è stata usata una parola che le piattaforme hanno sempre rifiutato: dipendenza.

    Una psichiatra di Stanford ha testimoniato che lo scrolling compulsivo attiva gli stessi circuiti cerebrali della ricompensa attivati dalle droghe, con brevi scariche di dopamina che addestrano gli utenti a cercare continuamente la prossima «meta». Gli studi di neuroimaging mostrano alterazioni cerebrali simili a quelle osservate nella dipendenza dal gioco d’azzardo.

    È un punto su cui vale la pena soffermarsi. Perché la difesa delle piattaforme si è sempre basata su un argomento apparentemente ragionevole: le persone scelgono liberamente di usare questi servizi, quindi la responsabilità è loro.

    Ma se il servizio è progettato specificamente per compromettere la capacità di scelta, allora l’argomento crolla. E questa è esattamente la tesi che la giuria ha accolto.

    La giuria ha anche stabilito che Meta e YouTube hanno agito con dolo, cioè con consapevolezza del danno, o con deliberata indifferenza verso le conseguenze delle proprie scelte progettuali. È una soglia giuridica particolarmente alta nel sistema americano. Non è stata una svista, è stata una scelta deliberata.

    Social media e dipendenza, il contesto UE e italiano

    Questa sentenza arriva dagli Stati Uniti, ma le sue implicazioni ci riguardano direttamente. L’Unione Europea ha già un quadro normativo avanzato con il Digital Services Act, che obbliga le piattaforme accessibili ai minori ad adottare misure per garantire privacy e sicurezza. Le linee guida della Commissione pubblicate nel 2025 raccomandano account dei minori impostati come privati di default, disattivazione di funzionalità che promuovono l’uso eccessivo come autoplay e notifiche notturne, divieto di pubblicità mirata ai minori. La Commissione ha già avviato procedimenti formali contro TikTok.

    In Italia il quadro è più complesso. L’età del consenso digitale è fissata a 14 anni e il Senato sta discutendo un disegno di legge per alzarla  e l’AGCOM ha approvato regolamenti sulla verifica dell’età. Inoltre, una class-action contro Meta e TikTok è stata promossa presso il Tribunale delle Imprese di Milano.

    A tutto questo si aggiunge che l’Istituto Superiore di Sanità stima circa 100.000 adolescenti italiani a rischio di dipendenza da social media. Ma l’approccio italiano resta orientato verso l’educazione digitale piuttosto che verso il divieto o la regolamentazione stringente. Staremo a vedere se questa sentenza americana cambierà qualcosa anche da noi.

    Cosa significa davvero questa sentenza per i social media

    Molti commentatori stanno dicendo che questa sentenza segna la fine dei social media. Non è così, e sarebbe sbagliato raccontarla in questi termini. Quello che questa sentenza segna è la fine di una certa idea di social media: quella in cui le piattaforme potevano progettare qualsiasi meccanismo di engagement senza doversi preoccupare delle conseguenze. Ecco, quella fase è finita.

    Ma c’è un altro aspetto su cui dovremmo riflettere, e che riguarda il futuro più che il passato. I social media che hanno causato i danni a KGM erano già pienamente algoritmici, progettati per massimizzare il tempo sulla piattaforma attraverso sistemi di raccomandazione e loop di engagement.

    Oggi quei sistemi si stanno evolvendo in qualcosa di ancora più pervasivo con l’intelligenza artificiale.

    Meta sta integrando chatbot basati su intelligenza artificiale generativa in Instagram e WhatsApp. Google sta facendo lo stesso con Gemini nei propri servizi. Sono prodotti progettati per creare conversazioni prolungate, relazioni continuative, interazioni che si ripetono giorno dopo giorno.

    Il principio affermato da questa sentenza, e cioè che il design di un prodotto digitale può essere considerato pericoloso se crea dipendenza, potrebbe applicarsi anche a questi nuovi sistemi.

    Se questa sentenza ci insegna qualcosa, è che non possiamo aspettare vent’anni per capire se questi nuovi prodotti stanno causando danni. Dobbiamo agire prima  e questa sentenza ci deve servire da monito. Perché i casi come quello della ragazza californiana potrebbero moltiplicarsi, e in forme ancora più gravi, se non interveniamo ora.

    La partita, va detto, è tutt’altro che chiusa. Meta e YouTube hanno annunciato che faranno appello e le prossime cause potrebbero avere esiti diversi.

    Ma qualcosa si è rotto nel rapporto tra le piattaforme e la società tutta. E difficilmente si potrà tornare indietro.

    Staremo a vedere come si evolverà questa storia.

  • OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    A sei mesi dal lancio dell’app standalone, OpenAI annuncia la chiusura di Sora. L’interesse degli utenti è crollato, l’accordo da 1 miliardo di dollari con Disney salta, e la motivazione ufficiale parla di risorse da destinare alla robotica. Ma il vero problema era un altro, Sora non ha mai avuto una visione.

    In certi momenti, nella vita di un prodotto tecnologico, arriva quello in cui appare evidente che l’entusiasmo iniziale non si è mai trasformato in qualcos’altro. Vale anche per la IA.

    Quel momento per Sora è arrivato ieri, martedì 24 marzo 2026, quando OpenAI ha annunciato su X la chiusura della piattaforma con un questo messaggio: “We’re saying goodbye to Sora”.

    La notizia arriva a sorpresa, possiamo dirlo, proprio il giorno dopo che la stessa OpenAI aveva pubblicato un post sugli standard di sicurezza dell’app. Un tempismo che la dice lunga sulla gestione della comunicazione del momento.

    Sora, 1 milione di download e poi il silenzio

    Quando Sora fu presentato a febbraio 2024, l’effetto fu straordinario. Video generati da semplici prompt di testo con una qualità quasi cinematografica, qualcosa che sembrava già fantascienza. Al punto che Hollywood si allarmò, i creativi si interrogarono sul proprio futuro, e OpenAI si ritrovò con un vantaggio competitivo che sembrava incolmabile.

    Ma quel vantaggio, lo sappiamo, aveva una data di scadenza. Come avevo raccontato alla sua prima apparizione due anni fa, le aspettative intorno a questa tecnologia erano altissime.

    Nel frattempo sono arrivati Runway con Gen-3, Pika, Kling di Kuaishou, Veo di Google. Quando Sora 2 è diventato disponibile al pubblico a settembre 2025, il mercato era già bell’affollato.

    L’app raggiunse comunque la vetta dell’App Store in pochi giorni, con 1 milione di download in dieci giorni, un dato anche più veloce di quello registrato da ChatGPT. Ma quel picco si è rivelato un fuoco di paglia.

    Secondo i dati di Appfigures, a dicembre 2025 i download erano calati del 32% rispetto a novembre, proprio nel periodo in cui la maggior parte delle app tipicamente cresce. E da lì, un declino costante mese dopo mese.

    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto
    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    Sora, una piattaforma nata senza una ragione d’essere

    In ogni caso, c’è una cosa che va detta chiaramente. Sora non ha mai avuto una visione.

    Era stata progettata come una sorta di TikTok generativo, un social network dove gli utenti potevano caricare cameo, ossia brevi video di sé stessi, per poi inserirsi in video sintetici insieme agli amici.

    Ma cosa doveva diventare, esattamente? Uno strumento per creator professionisti? Una piattaforma di intrattenimento? Un motore per la produzione cinematografica? La risposta, in verità, non è mai arrivata.

    Nel vuoto completo di strategia, Sora si è riempito di quello che ormai si definisce AI slop, contenuto AI generato in massa, spesso di qualità discutibile, talvolta ai limiti della legalità. Come video virali di Mario, Pikachu, personaggi Disney usati senza alcuna autorizzazione. Deepfake di Martin Luther King che hanno costretto OpenAI a bloccare temporaneamente l’uso del suo volto sulla piattaforma.

    È una modalità che si riconosce facilmente una volta che la si è vista. E cioè lanciare un prodotto, osservare cosa ne fanno gli utenti, e poi correre ai ripari quando le cose sfuggono di mano. È lo stesso approccio che abbiamo visto con lo spot natalizio di Coca-Cola: la tecnologia da sola non basta, serve una visione.

    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    Disney e 1 miliardo di dollari che non arriverà mai

    L’accordo con Disney annunciato a dicembre 2025 sembrava il tentativo di legittimare ex post un modello nato senza governance. Un miliardo di dollari di investimento, centinaia di personaggi Disney, Marvel, Pixar e Star Wars in licenza per la generazione video, con l’obiettivo di integrare il tutto in Disney+. Un colpo magistrale, sulla carta. Ma ora quell’accordo è saltato insieme alla piattaforma.

    In una dichiarazione rilasciata poche ore dopo l’annuncio di OpenAI, un portavoce di Disney ha confermato l’uscita dall’intesa con toni diplomatici: «As the nascent AI field advances rapidly, we respect OpenAI’s decision to exit the video generation business and to shift its priorities elsewhere.» Tradotto: Disney aveva scommesso su un cavallo che OpenAI ha deciso di ritirare dalla gara. E ora il colosso dell’intrattenimento dovrà trovare altri partner nel settore.

    Robotica e modelli di nuova generazione: la versione ufficiale

    La motivazione ufficiale fornita da OpenAI parla di riallocazione delle risorse.

    Sam Altman, secondo quanto riportato da The Information, ha comunicato ai dipendenti che la chiusura di Sora libererà capacità computazionale per i modelli AI di prossima generazione.

    Il team di ricerca, si legge nella dichiarazione ufficiale, continuerà a lavorare sulla world simulation research per far avanzare la robotica e “aiutare le persone a risolvere compiti fisici nel mondo reale“.

    Ma c’è dell’altro. Secondo il Wall Street Journal, OpenAI sta costruendo una super app che integrerà ChatGPT, gli strumenti di sviluppo Codex e altri prodotti in un’unica interfaccia. Una virata strategica che risponde, va detto, alla crescita di Anthropic e della famiglia Claude, che negli ultimi mesi ha visto un’adozione enterprise sempre più marcata.

    La sfida con i concorrenti, insomma, si gioca altrove. E Sora, con i suoi costi computazionali enormi e i suoi ricavi modesti, non faceva più parte della soluzione.

    La rivalità tra OpenAI e Anthropic si legge bene anche nella stessa antipatia che Altman e Amodei nutrono uno per l’altro. Di conseguenza, le due aziende rappresentano due visioni opposte del futuro dell’IA.

    Sam Altman e il suo modo riconoscibile di gestire le crisi

    Chi segue le vicende di OpenAI riconoscerà un certo schema. Altman ha un modo particolare di muoversi nelle situazioni di crisi, come avevo già raccontato.

    Dichiarazioni pubbliche calibrate, posizionamento dalla parte giusta, e poi azioni che vanno in direzione diversa.

    La chiusura di Sora segue lo stesso copione: il giorno prima un post sulla sicurezza, il giorno dopo l’annuncio della chiusura. Il ringraziamento alla community, la promessa di “condividere presto i dettagli”. E intanto le risorse vengono riallocate verso progetti più redditizi.

    Sora, e l’ammissione che la strategia non c’era mai stata

    OpenAI ha speso risorse computazionali enormi per un prodotto che, in buona sostanza, non generava ricavi significativi, non aveva un modello di business chiaro, e creava più problemi reputazionali che valore.

    La chiusura di Sora non è una rinuncia strategica. È l’ammissione che la strategia non c’era mai stata.

    Resta da capire cosa ne sarà della generazione video nel portafoglio di OpenAI. L’azienda non esce completamente dal settore, funzionalità video rimangono integrate in ChatGPT, ma lo fa da protagonista autonoma.

    Nel frattempo i concorrenti già citati continueranno a sviluppare i propri modelli. E Disney, con il suo miliardo di dollari da investire, cercherà altri interlocutori.

    La partita della generazione video AI, possiamo dirlo, è tutt’altro che chiusa. Ma OpenAI, almeno per ora, ha scelto di non giocarla più.

  • Elon Musk ha ingannato gli azionisti di Twitter, e li deve risarcire

    Elon Musk ha ingannato gli azionisti di Twitter, e li deve risarcire

    Elon Musk giudicato responsabile di frode sui titoli per i tweet del 2022. Risarcimento stimato fino a 2,6 miliardi di dollari. È la prima sconfitta di Musk in un processo per frode finanziaria.

    Venerdì 20 marzo 2026 una giuria federale di San Francisco ha emesso un verdetto nella vicenda giudiziaria di Elon Musk. L’uomo più ricco del mondo è stato giudicato responsabile di aver ingannato gli investitori di Twitter con dichiarazioni false che hanno artificialmente abbassato il prezzo delle azioni durante i mesi precedenti l’acquisizione da 44 miliardi di dollari nel 2022.

    Si tratta della prima sconfitta di Musk in un processo per frode finanziaria. E, secondo le stime, potrebbe costargli fino a 2,6 miliardi di dollari in risarcimenti. Gli avvocati degli azionisti di Twitter ritengono che questo sia uno dei verdetti più grandi di una giuria in tema di frode finanziaria nella storia degli Stati Uniti.

    Su queste pagine del blog ho seguito passo passo la vicenda dell’acquisizione di Twitter da parte di Elon Musk, fino a raccontare anche il momento della testimonianza in questo processo che vede imputato il proprietario di xAI. Questo verdetto conferma quello che avevo scritto già nel maggio 2022, quando gli azionisti depositarono la prima denuncia. E cioè che Musk stava giocando con questa acquisizione per fare in modo che il prezzo potesse scendere e fare in modo che la trattativa si ponesse in suo favore.

    I tweet che a Musk potrebbero costare miliardi di dollari

    La giuria del tribunale federale del Northern District of California ha esaminato quattro capi d’accusa basati sulla Sezione 10(b) del Securities Exchange Act. Il verdetto è stato unanime ma non totale, nel senso che Musk è stato ritenuto responsabile su due dei quattro capi d’accusa, mentre è stato assolto dagli altri due.

    Le due dichiarazioni giudicate materialmente false sono entrambi tweet pubblicati nel maggio 2022. Il primo, del 13 maggio, affermava che l’acquisizione di Twitter era “temporaneamente sospesa” in attesa di una verifica sulla percentuale di account bot.

    Il secondo, del 17 maggio, sosteneva che l’operazione “non può procedere” finché il CEO di Twitter non avesse dimostrato che la percentuale di bot era inferiore al 5%, suggerendo che potesse essere superiore al 20%.

    Dopo questi tweet le azioni Twitter crollarono di quasi il 18%, raggiungendo un minimo di 32,52 dollari, circa il 40% al di sotto del prezzo di acquisizione concordato di 54,20 dollari per azione.

    La giuria ha invece assolto Musk da una dichiarazione rilasciata in un podcast, giudicandola un’opinione e non un’affermazione di fatto fuorviante. E soprattutto ha respinto l’accusa di aver orchestrato uno “schema” fraudolento sistematico contro gli investitori.

    Elon Musk ha ingannato gli azionisti di Twitter, e li deve risarcire

    Le ipotesi sulle cifre del risarcimento

    La giuria ha calcolato danni compresi tra 3 e 8 dollari per azione per giorno di negoziazione durante l’intero periodo della classe, dal 13 maggio al 4 ottobre 2022. L’avvocato degli azionisti, Mark Molumphy, ha stimato il risarcimento totale in circa 2,1 miliardi di dollari per le perdite azionarie più 500 milioni per le stock option, per un totale massimo di circa 2,6 miliardi di dollari.

    L’importo finale dipenderà dal numero di azionisti che presenteranno richiesta di risarcimento attraverso il procedimento di class action. Questa comprende tutti gli investitori che hanno venduto titoli Twitter tra il 13 maggio e il 4 ottobre 2022, data in cui Musk annunciò che avrebbe proceduto con l’acquisizione al prezzo originale, facendo balzare il titolo del 22% in una sola seduta.

    Nonostante la cifra imponente, diverse fonti hanno osservato che il risarcimento avrebbe un impatto minimo sul patrimonio personale di Musk, stimato tra 650 e 839 miliardi di dollari a seconda dell’indice utilizzato.

    La difesa di Musk annuncia l’appello

    La reazione del team legale di Musk è stata rapida. In una dichiarazione rilasciata subito dopo il verdetto gli avvocati di Musk hanno affermato di considerare la decisione “un ostacolo temporaneo” e di attendere “piena soddisfazione in appello”.

    Gli avvocati hanno anche ricordato le recenti vittorie di Musk in cause separate: una vittoria in appello in Delaware relativa al compenso Tesla e un’altra vittoria in un tribunale del Texas lo stesso giorno del verdetto.

    Durante il processo, durato circa tre settimane iniziato il 2 marzo 2026, Musk stesso testimoniato il 4 marzo scorso. Le sue dichiarazioni più notevoli includono l’ammissione che i tweet fossero stati imprudenti: “Se questo fosse un processo su tweet stupidi, mi dichiarerei colpevole”. Musk ha però insistito di non aver mai dichiarato l’annullamento dell’operazione e di non poter controllare le decisioni di vendita degli investitori.

    Cosa succede adesso

    La tempistica post-verdetto si articola su due binari paralleli. Sul fronte del risarcimento gli avvocati degli azionisti hanno stimato che serviranno circa 90 giorni per attivare la procedura di amministrazione dei reclami, seguiti da ulteriori mesi per l’elaborazione delle richieste individuali.

    Complessivamente gli azionisti che hanno portato Musk in tribunale per frode finanziaria potrebbero ricevere i pagamenti entro sei mesi dal verdetto.

    Sul fronte dell’appello, gli avvocati di Musk confermano l’intenzione di impugnare il verdetto presso la Corte d’Appello, il che potrebbe estendere significativamente i tempi.

    Un procedimento parallelo rilevante è la causa SEC contro Musk, intentata nel gennaio 2025 per la mancata tempestiva comunicazione della sua quota azionaria superiore al 5% in Twitter nel marzo 2022. Al 17 marzo 2026 le parti erano in trattative per un possibile accordo. La SEC chiede una multa civile e la restituzione dei circa 150 milioni di dollari che Musk avrebbe risparmiato acquistando azioni prima della divulgazione obbligatoria.

    E va avanti l’indagine parigina su X e Elon Musk

    E mentre a San Francisco la giuria emetteva il verdetto, da Parigi arrivava un’altra tegola.

    Come riportato da Le Monde, i procuratori della sezione cyber della procura di Parigi hanno inviato due rapporti alle autorità statunitensi, alla SEC e al Dipartimento di Giustizia.

    L’ipotesi è che Musk abbia tentato di gonfiare artificialmente il numero di utenti di X in vista di una possibile quotazione in borsa. Le informazioni raccolte dai procuratori francesi, emerse nel corso di un’indagine avviata in Francia all’inizio del 2025, suggeriscono che la controversia sui deepfake generati da Grok, il chatbot di X, potrebbe essere stata alimentata deliberatamente per aumentare la valutazione della piattaforma.

    Il tutto in un momento cruciale, con l’IPO della nuova entità nata dalla fusione di SpaceX e xAI prevista per giugno 2026, mentre X stava perdendo slancio.

    Cosa dice la sentenza che condanna Musk al risarcimento

    La sentenza stabilisce che i tweet di un individuo con la capacità di influenzare i mercati possono essere trattati alla stregua di dichiarazioni finanziarie formali, ai fini della responsabilità per frode sui titoli. Come ricordato qui, è la prima volta che una giuria ritiene Musk personalmente responsabile per l’impatto dei suoi tweet sul mercato azionario.

    Ma il verdetto del 20 marzo 2026 segna tre novità fondamentali.

    È la prima condanna di Musk per le conseguenze dei suoi tweet, una frattura nel mito dell’invulnerabilità legale di “Teflon Elon”, il soprannome che Musk si è guadagnato in riferimento al “teflon”, il rivestimento antiaderente delle padelle per intenderci.

    Con un risarcimento stimato fino a 2,6 miliardi di dollari stabilisce un nuovo record per i verdetti di giuria in cause per frode sui titoli negli Stati Uniti. E crea un precedente sulla responsabilità per dichiarazioni sui social media che possono influenzare i mercati finanziari, con implicazioni che vanno ben oltre il caso specifico.

    In ogni caso, la battaglia legale è lontana dalla conclusione. L’appello annunciato dagli avvocati potrebbe prolungare il contenzioso per mesi, e l’assenza di una condanna per “schema fraudolento” offre alla difesa una base su cui costruire la propria impugnazione.

    Resta da vedere se questo verdetto segnerà davvero un limite al potere che alcuni individui esercitano sui mercati finanziari attraverso messaggi pubblici, o se confermerà che nell’era dei social media la linea tra comunicazione e manipolazione rimane indefinita.

    Perché è questo il punto nevralgico di questa vicenda.

  • X introduce il tasto dislike nelle risposte, ecco come funziona

    X introduce il tasto dislike nelle risposte, ecco come funziona

    Nikita Bier, responsabile di prodotto di X, ha annunciato il rilascio del tasto dislike sulle risposte con una battuta che sembrava uno scherzo. In realtà la funzionalità era già attiva per alcuni utenti. Il conteggio resta privato, ma il segnale arriva direttamente all’algoritmo di ranking.

    C’è un modo particolare in cui le piattaforme social introducono le novità più attese. Annunci studiati, comunicati stampa, roll-out graduali con tanto di post enigmatici. E poi c’è il modo di X, quello con cui ha introdotto il tasto dislike sulle risposte: con una battuta che nessuno, inizialmente, ha preso sul serio. Siamo su X e non poteva essere diversamente.

    Tutto è partito quando un utente ha chiesto a Nikita Bier, Head of Product di X, se fosse possibile aggiungere un pulsante di dislike per le risposte. La risposta di Bier è stata veloce e lapidaria: “Give me 60 seconds“.

    Otto minuti dopo, i primi screenshot mostravano l’icona del pollice verso già attiva su alcuni account. Non si trattava più di ironia e scherzo, era un’attivazione istantanea di una funzionalità che, con ogni probabilità, era già pronta e aspettava solo di essere accesa e aspettava solo il momento giusto.

    Ma la cosa interessante non è la velocità del rilascio, è il motivo per cui X ha deciso di procedere proprio ora.

    Bier: le risposte sono il peggior prodotto di X

    Nikita Bier non ha usato mezzi termini. In un post pubblicato poco dopo l’attivazione, ha scritto che l’algoritmo delle risposte è “attualmente il peggior prodotto dell’azienda” e che “non c’è logica, non c’è segnale, solo spazzatura”.

    Un’ammissione che spiega perché il dislike è stato introdotto esclusivamente sulle risposte e non sui post principali.

    Da mesi la sezione commenti di X è invasa da bot crypto, spam generato da agenti AI, e da tattiche di engagement farming e risposte completamente fuori tema che finiscono per inquinare l’esperienza (già molto difficile) di chi cerca un minimo di confronto che su X è sempre più un miraggio.

    Il tasto dislike serve proprio a questo, ossia a dare all’algoritmo un segnale immediato per mettere in cima le risposte apparentemente di valore e spingere in basso, o nascondere del tutto, il grande rumore di fondo.

    Il dislike su X, ecco come funziona

    La funzionalità è semplice e appare sotto le risposte, non sui post principali. È rappresentato da un’icona grigia, un pollice verso, posizionato accanto ai tasti di reactions. I conteggi sono assolutamente privati: nessuno può vedere quante volte una risposta è stata segnata come negativa, neanche l’autore stesso.

    Quando si clicca sul dislike, in alcuni casi si potrebbe aprire un piccolo spazio di feedback con opzioni strutturate in questo modo: “Spam”, “Generato da AI”, “Scorretto o fuorviante”, “Fuori tema”.

    Stiamo parlando quindi di un segnale privato che finisce dritto nell’algoritmo di ranking delle conversazioni. X lo usa per decidere quali risposte mostrare in alto e quali spingere verso il basso.

    Bier ha precisato che il tasto non funzionerà come il downvote di Reddit, dove i voti negativi sono pubblici e possono determinare il crollo della visibilità di un commento. Qui il segnale serve esclusivamente al ranking e alla personalizzazione della sezione risposte, senza esporre metriche che potrebbero alimentare dinamiche di attacchi coordinati o risposte di massa.

    L'immagine che mostra il dislike su X
    Come sarà il tasto dislike su X

    La strategia anti-spam: rendere lo spam economicamente insostenibile

    L’obiettivo di questa mossa, come dichiarato da Bier, non dovrebbe fermarsi al miglioramento dell’esperienza di chi legge le risposte. Nei prossimi 30 giorni, ha spiegato, chi produce spam su X guadagnerà sempre meno. Il dislike è solo una parte di un intervento più ampio che prevede anche limitazioni geografiche sulle risposte e altri strumenti per contrastare gli abusi.

    Se le risposte spam vengono sistematicamente abbassate in termini di visibilità dall’algoritmo grazie ai segnali negativi degli utenti, chi le produce non ottiene più visibilità. E se non ottiene visibilità, non guadagna. Il modello di business dei bot che intasano le conversazioni per generare impressions potrebbe essere così colpito alla radice.

    Il caso precedente di YouTube

    X non è la prima piattaforma a sperimentare con i segnali negativi. E la scelta di mantenere privati i conteggi sembra aver recepito le lezioni di chi ci ha provato prima.

    YouTube, nel novembre 2021, ha reso invisibili al pubblico i conteggi dei dislike sui video, pur mantenendo il pulsante attivo. L’obiettivo dichiarato era ridurre gli attacchi coordinati, il cosiddetto “dislike bombing”, che colpiva soprattutto i creator più piccoli o chi affrontava argomenti controversi.

    Secondo YouTube, l’esperimento aveva mostrato una riduzione significativa dei comportamenti di attacco mirato. L’algoritmo continuava a usare il segnale internamente per le raccomandazioni, ma la negatività pubblica si era in parte spostata nei commenti.

    Reddit e il rischio delle camere dell’eco

    Reddit rappresenta l’altra piattaforma che utilizza ormai questo strumento.

    Il downvote è pubblico, in grado far crollare drasticamente la visibilità di un commento. Studi accademici hanno documentato come un singolo voto negativo possa influenzare a cascata i voti successivi: chi arriva dopo tende a conformarsi al giudizio già espresso.

    Il risultato è una moderazione efficace contro spam e contenuti fuori tema, ma anche un effetto echo-chamber, di camera d’eco dove le opinioni in genere minoritarie vengono sistematicamente affossate.

    X sembra prendere spunto da queste due esperienze. Rendendo i conteggi privati, come ricordato prima, il segnale arriva all’algoritmo.

    X e il dislike, rilascio graduale

    Al momento il rollout è limitato e lato server, infatti alcuni utenti lo vedono già, altri no. Classico rilascio asimmetrico che X ha adottato per molte delle sue novità recenti. Chi lo ha già attivo riporta che la sezione risposte appare effettivamente più pulita, con meno spam in evidenza.

    Va ricordato che già nel luglio 2024, TechCrunch aveva riportato che X stava sviluppando attivamente il tasto dislike, con riferimenti nel codice dell’app iOS a un’icona a forma di cuore spezzato.

    Anche Twitter, prima dell’acquisizione di Musk, aveva sperimentato funzionalità simili nel 2021. Ma solo ora che il rilascio è diventato realtà.

    X introduce il tasto dislike nelle risposte, ecco come funziona
    X introduce il tasto dislike nelle risposte, ecco come funziona

    Una mossa che è anche un’incognita

    Diciamolo, per come stanno le cose sulla piattaforma di Elon Musk questa sicuramente non risolverà tutti i problemi, ma prova ad affrontare quello che lo stesso responsabile di prodotto ha definito il suo lato più debole.

    Resta da vedere se la promessa di Bier si realizzerà, soprattutto quando punta a rendere lo spam economicamente insostenibile entro 30 giorni.

    Più interessante da vedere è come gli utenti useranno questo nuovo strumento, se per migliorare la qualità delle conversazioni o per altri scopi che X non ha previsto.

    Vedremo come andrà anche questa.

  • Sam Altman ha rivelato a tutti la sua doppia faccia

    Sam Altman ha rivelato a tutti la sua doppia faccia

    La vicenda del contratto col Pentagono rivela come opera Sam Altman: solidarietà a parole mentre persegue i suoi obiettivi e scuse solo quando il danno d’immagine è fatto. I fatti raccontano un profilo diverso dall’immagine pubblica.

    Sam Altman ha un modo particolare di muoversi nelle situazioni di crisi. Dice le cose giuste al momento giusto, si posiziona dalla parte di chi appare più debole, esprime comprensione e solidarietà.

    E intanto agisce in direzione opposta. La vicenda del contratto tra OpenAI e il Pentagono, con tutto quello che è successo tra il 26 febbraio e il 3 marzo, offre una dimostrazione plastica di questo schema.

    Un meccanismo che si ripete

    Chi segue le vicende dell’intelligenza artificiale conosce già questo meccanismo.

    Altman lo ha usato più volte nel corso degli anni, con variazioni minime ma sempre con la stessa struttura di fondo: dichiarazioni pubbliche di principio accompagnate da azioni che vanno nella direzione opposta. Seguite poi da correzioni tardive presentate come ripensamenti spontanei.

    Questa volta però i fatti si sono susseguiti con una velocità tale da rendere il meccanismo visibile e chiaro a tutti. E vale la pena di ricostruirli non tanto per raccontare cosa è successo, che ormai è noto, ma per mostrare come Altman si è mosso in ogni passaggio.

    Sam Altman e il posizionamento preventivo

    Giovedì 26 febbraio, quando è già chiaro che Anthropic sta per rompere con il Pentagono, Altman invia un memo interno ai dipendenti di OpenAI. Nel memo scrive che l’azienda condivide le stesse “linee rosse” di Anthropic sulla sorveglianza di massa e sulle armi autonome. Si tratta di una mossa che prepara il terreno: qualunque cosa accada il giorno dopo, Altman potrà dire di essersi posizionato dalla parte giusta della storia.

    Come noto, il giorno dopo Dario Amodei rifiuta l’ultimatum del Pentagono e Anthropic viene classificata come rischio per la sicurezza nazionale. Trump definisce l’azienda “radicale di sinistra” e ordina alle agenzie federali di smettere di usare Claude.

    Ed è in questo momento che il comportamento di Altman diventa rivelatore.

    Sam Altman ha rivelato a tutti la sua doppia faccia
    Sam Altman ha rivelato a tutti la sua doppia faccia

    Altman e la finta solidarietà

    Poche ore dopo il ban di Anthropic, per non dire quasi in contemporanea, Sam Altman annuncia su X l’accordo tra OpenAI e il Pentagono per i sistemi classificati.

    Nel post accompagna l’annuncio con parole di solidarietà verso Amodei. Scrive di fidarsi di lui, di credere che Anthropic si preoccupi davvero della sicurezza, definisce il ban “un precedente estremamente spaventoso“.

    Sono dichiarazioni che suonano nobili, quasi coraggiose. Ma arrivano mentre Altman sta firmando il contratto che prende esattamente il posto di quello appena strappato al suo concorrente.

    È una modalità che si riconosce facilmente una volta che la si è vista una volta. Altman con i suoi modi non attacca mai direttamente. Si posiziona come alleato di chi sta per colpire, esprime comprensione per la sua posizione, e intanto porta a casa il risultato. La solidarietà diventa copertura per il raggiungimento dei suoi interessi.

    Il contesto che aggrava la posizione di Altman

    C’è un elemento che rende questa vicenda ancora più significativa.

    Nella notte tra il 27 e il 28 febbraio, mentre Altman celebrava il suo accordo e Anthropic veniva messa al bando, gli Stati Uniti lanciavano attacchi aerei sull’Iran. Il Wall Street Journal ha riportato che lo US Central Command ha utilizzato Claude per le operazioni: valutazioni di intelligence, identificazione dei bersagli, simulazioni di combattimento. Lo stesso modello che il governo aveva appena dichiarato un pericolo per la sicurezza nazionale veniva impiegato per una missione di guerra.

    Altman sapeva certamente che Claude era integrato nei sistemi militari al punto da non poter essere sostituito in tempi brevi. Sapeva che presentarsi come l’alternativa in quel momento preciso gli avrebbe garantito un vantaggio competitivo enorme. Ha scelto di farlo, accompagnando l’operazione con dichiarazioni di solidarietà.

    Sam Altman e il mea culpa calibrato

    Ieri, lunedì 3 marzo, dopo un fine settimana in cui Claude è salito al primo posto dell’App Store superando ChatGPT, in cui il movimento “Cancel ChatGPT” ha preso piede sui social e in cui i dati hanno mostrato un’emorragia di utenti verso Anthropic, Altman pubblica una nuova nota.

    Questa volta ammette che la gestione dell’accordo “è sembrata opportunistica e sciatta, riconosce di aver sbagliato i tempi, annuncia modifiche al contratto per includere le stesse garanzie che Amodei chiedeva fin dall’inizio.

    Anche qui la modalità è riconoscibile. Le scuse arrivano solo quando il danno d’immagine è ormai evidente e quantificabile. Non sono il prodotto di una riflessione, ma la risposta a una crisi di reputazione. Altman non dice “ho sbagliato a firmare mentre Anthropic veniva bandita“. Dice “ho sbagliato a comunicare male“. La sostanza dell’azione non viene mai messa in discussione, solo la forma.

    Nella nota aggiunge che sta lavorando per inserire nel contratto un linguaggio esplicito contro la sorveglianza domestica e le informazioni acquisite commercialmente, cioè i dati che il governo può comprare dai data broker senza mandato.

    Sono esattamente le garanzie che Amodei chiedeva prima di firmare. Ma Altman le aggiunge dopo, quando ormai servono a recuperare credibilità, non a stabilire un principio.

    E gli utenti scoprono Claude 

    Ma c’è ancora un aspetto di questa vicenda che sfugge al controllo di Altman, ed è la reazione del mercato.

    I dati di Anthropic mostrano che le iscrizioni giornaliere hanno raggiunto livelli record, gli utenti gratuiti sono cresciuti di oltre il 60% da gennaio, gli abbonati a pagamento sono più che raddoppiati. Bloomberg riporta che la crescita di Anthropic ha superato i 19 miliardi di dollari, più che raddoppiato rispetto ai 9 miliardi di fine 2025. Sono numeri che raccontano una migrazione in corso, anche se non si sa ancora di quale entità.

    Gli utenti hanno visto la stessa sequenza di eventi e ne hanno tratto le loro conclusioni. Hanno visto un CEO che esprime solidarietà mentre firma il contratto che sostituisce il concorrente; hanno visto le scuse arrivare solo dopo che i numeri mostravano un problema; hanno visto le modifiche al contratto presentate come concessioni spontanee quando erano evidentemente una risposta alla pressione. E hanno scelto di conseguenza.

    Sam Altman e il suo ritratto più chiaro

    Sam Altman ha costruito negli anni un’immagine pubblica di leader visionario, attento all’etica, preoccupato per le implicazioni dell’intelligenza artificiale.

    È un’immagine che ha coltivato con interviste, post sui social, apparizioni pubbliche calibrate. Ma le azioni raccontano una storia diversa, quella di un CEO che sa sempre dove posizionarsi per apparire dalla parte giusta mentre persegue obiettivi che vanno in un’altra direzione.

    Questa vicenda non è un incidente di percorso. È la manifestazione di un modo di operare che si ripete con variazioni minime da anni. La solidarietà usata come copertura, le scuse calibrate sul danno d’immagine, le concessioni presentate come principi quando sono risposte alla pressione del momento.

    Sono tutti elementi di uno stesso schema, e questa volta si sono manifestati in una sequenza così rapida e visibile da non poter essere ignorati, da nessuno.

    Resta da vedere se questa consapevolezza avrà conseguenze durature o se Altman riuscirà ancora una volta a riposizionarsi. Ma intanto i fatti sono chiari, e il profilo che ne emerge è difficile da essere frainteso.

    [L’immagine di copertina è modificata da Franz Russo – Credits: Sam Altman speaking at TED” by TED Conference is licensed under CC BY-NC-SA 4.0.]