Categoria: News

In questa categoria si trovano articoli che parlano di comunicazione, condivisione, social media, social network. Insomma, tutto ciò che riguarda il web 2.0 e di come si sta evolvendo

  • Da Tim Cook a John Ternus, Apple alla sfida della IA

    Da Tim Cook a John Ternus, Apple alla sfida della IA

    Tim Cook lascia la guida di Apple dopo quindici anni. Dal 1° settembre 2026 il nuovo CEO sarà John Ternus, responsabile dell’ingegneria hardware e da venticinque anni in azienda. Un passaggio di consegne che segna la fine di un’era e apre una nuova stagione per il colosso di Cupertino.

    La notizia è che Tim Cook lascia la carica di CEO il 1° settembre 2026, dopo quindici anni alla guida del colosso di Cupertino. Al suo posto arriva John Ternus, attuale senior vice president of Hardware Engineering, che diventerà l’ottavo CEO nella storia di Apple. Cook assumerà il ruolo di executive chairman.

    Tim Cook assume la carica di CEO di Apple dopo le dimissioni di Steve Jobs del 24 agosto 2011, poco meno di due mesi prima della sua scomparsa avvenuta il 5 ottobre del 2011.

    Sin da subito era chiaro in quel momento che non sarebbe stato facile per nessuno assumere la guida di un’azienda che era assolutamente in simbiosi con il suo condottiero. Un’impresa ardua che Cook decide si assumere, con coraggio.

    È entrato nella cattedrale del design tecnologico, celebrata in tutto il mondo, in punta di piedi, sempre con grande rispetto e ha cercato di portare il suo stile, quasi all’opposto del suo ingombrante predecessore.

    Nel corso dei 15 anni alla guida del colosso di Cupertino, Tim Cook ha trasformato questo approccio in un sistema, portando l’azienda da una capitalizzazione di circa 350 miliardi di dollari a oltre 4.000 miliardi, diventando uno dei CEO più longevi e di maggior successo nella storia della tecnologia.

    Dal 1° settembre 2026, dunque, Tim Cook diventerà executive chairman del consiglio di amministrazione di Apple.

    Non si tratta di una semplice rotazione manageriale, ma segna la fine di un’era e, insieme, dell’apertura di un’altra. Per capire cosa cambia, bisogna capire chi è stato Cook e chi è Ternus.

    da Tik Cook a John Ternus sfida IA franz russo LK
    Da Tim Cook a John Ternus, Apple alla sfida della IA

    Tim Cook e la sua rivoluzione silenziosa

    Cook nasce il 1° novembre 1960 a Mobile, in Alabama, e cresce a Robertsdale, una cittadina del Sud degli Stati Uniti in cui non ci sono colossi tecnologici né modelli da seguire.

    Si laurea in ingegneria industriale all’Università di Auburn nel 1982 e poi aggiunge un MBA alla Duke University nel 1988. Lavora dodici anni in IBM, arrivando a dirigere l’area distribuzione per il Nord America. Poi Intelligent Electronics, poi Compaq.

    Quando nel 1998 Steve Jobs lo chiama ad Apple, Cook ha già costruito una reputazione solida come curatore di catene di approvvigionamento. Non è un visionario nel senso che l’industria tecnologica associa a quel termine. È qualcosa di diverso: un grande manager che sa far funzionare le cose, da dietro le quinte però.

    Per Cook, tenere merce ferma in magazzino era uno spreco. Lo disse esplicitamente, con quella capacità pragmatica tipica dei grandi manager che curano i cicli produttivi.

    Portò il ciclo di rotazione delle scorte da mesi a giorni. Una rivoluzione silenziosa, lontana dai riflettori, che non genera titoli ma genera profitti. E in quegli anni, Jobs capisce che Cook è la persona che può far funzionare la macchina, mentre lui pensa ai prodotti.

    Quando Jobs muore, sei settimane esatte dopo aver ceduto formalmente la carica di CEO a Cook, molti si chiedono se Apple sopravviverà senza il suo fondatore. La risposta è scritta nei quindici anni successivi, sotto forma di numeri difficili che oggi sono difficili da contestare.

    Tim Cook e John Ternus
    Tim Cook e John Ternus

    Tim Cook e i numeri che nessuno si aspettava

    I dati del periodo Cook raccontano una storia che, ripetuta, rischia di sembrare banale per la sua grandiosità, ma che in realtà non ha precedenti nella storia del colosso di Cupertino.

    Il fatturato di Apple è passato da 110 miliardi di dollari nel 2011 a 416 miliardi nel 2025, un incremento di quasi quattro volte.

    I profitti sono quadruplicati, da 25 miliardi a 112 miliardi. La capitalizzazione di mercato è cresciuta di oltre dieci volte, da 350 miliardi a oltre 4.000 miliardi, rendendo Apple la terza azienda più grande al mondo per valore di borsa.

    Ma la vera eredità di Cook è un sistema. Due scommesse strategiche che, nell’era dei dell’intelligenza artificiale, appaiono più azzeccate di quanto sembrassero al momento.

    La prima è il silicio proprietario. Nel 2020, Apple ha annunciato l’abbandono dei chip Intel in favore dei propri chip della serie M, sviluppati internamente. Una mossa controcorrente che ha dato ad Apple un vantaggio tecnico enorme in termini di prestazioni e consumi energetici, e che si è rivelata quasi perfetta per l’era dell’intelligenza artificiale: i chip M sono ideali per l’elaborazione locale dei modelli AI, il cosiddetto “edge computing”, che Apple ha ribattezzato Apple Intelligence.

    La seconda è i Servizi. Cook ha trasformato l’App Store, iCloud, Apple Music, Apple TV+, Apple Pay e Apple Arcade in un ecosistema che nel 2025 ha generato 106 miliardi di dollari di ricavi, con un margine lordo di circa il 75%, più del doppio rispetto ai margini dell’hardware.

    In buona sostanza, ha costruito una macchina da soldi che gira indipendentemente dall’uscita del prossimo iPhone.

    Tim Cook e i valori come strategia

    C’è poi un aspetto del profilo di Cook che viene spesso trattato come secondario, ma che invece è risultato centrale. Ed è il suo modo di affrontare le grandi questioni sociali e politiche.

    Cook è stato il primo e unico CEO di una società Fortune 500 a dichiarare pubblicamente la sua omosessualità, nel 2014. Ha fatto della privacy degli utenti un pilastro della strategia Apple, in un’epoca in cui i rivali come Google e Meta costruivano i propri modelli di business sulla raccolta dei dati personali.

    Successivamente, ha assunto Lisa Jackson, ex direttrice dell’EPA, l’agenzia americana per la protezione ambientale, per guidare gli impegni di Apple sul clima. Non si è disdegnato di posizione sui diritti civili, sull’immigrazione, sull’uguaglianza.

    Questo però non ha impedito a Cook di navigare acque politicamente difficili con una certa disinvoltura diplomatica. E qui arriviamo al capitolo più controverso dei suoi ultimi anni.

    tim cook inaugurazione secondo mandato trump
    Tim Cook all’inaugurazione del secondo mandato di Trump

    Tim Cook, Trump e il prezzo della sopravvivenza

    La relazione tra Cook e Donald Trump è uno di quei casi in cui la realpolitik e l’immagine pubblica di un CEO importante entrano in collisione in maniera evidenza.

    Durante il primo mandato di Trump, tra il 2017 e il 2021, Cook aveva sviluppato una strategia precisa per gestire il presidente. Niente lobbisti, niente intermediari, niente comunicati ufficiali, ma telefonate dirette, cene riservate, affrontando un argomento per volta.

    Nel 2018, quando Trump introdusse i primi dazi pesanti sulle importazioni dalla Cina, Cook si sedette al tavolo ne momento giusto e ottenne quello che cercava. Ossia esenzioni mirate su iPhone, Apple Watch e componenti Mac. In cambio, promise investimenti e stabilimenti negli Stati Uniti. Gli stabilimenti, va detto, rimasero in gran parte sulla carta mentre le esenzioni furono effettive.

    Con il secondo mandato, però, il copione si è fatto più complicato. Cook ha partecipato alla cerimonia di insediamento di Trump nel gennaio 2025, effettuando la donazione personale di un milione di dollari al fondo per l’inaugurazione presidenziale.

    È la Casa Bianca nell’agosto 2025 portando in dono una teca di vetro su base d’oro a 24 carati costruita con materiali americani, annunciando al contempo nuovi investimenti da 100 miliardi di dollari negli Stati Uniti, per un impegno totale di 600 miliardi. Ha presenziato a una proiezione privata di un documentario su Melania Trump.

    Il tutto mentre i dazi stavano comunque costando ad Apple cifre enormi: solo nell’ultimo trimestre del 2025, Apple ha dichiarato costi aggiuntivi per 1,1 miliardi di dollari legati alle tariffe commerciali. E mentre Trump, in un viaggio a Riyadh, si lamentava pubblicamente dicendo di “avere un piccolo problema con Tim Cook”, in particolare per i piani di Apple di spostare parte della produzione dall’India anziché negli Stati Uniti.

    Cook, di fronte alle critiche, ha adottato una linea difensiva quanto mai calibrata: “Quello che faccio è rapportarmi sulle normative, non sulla politica”. Una distinzione sottile che si è dimostrata difficile da sostenere alla luce dei comportamenti concreti.

    Il giudizio complessivo su questa fase di Cook, possiamo dirlo, è emerso molto diviso.

    In questa ultima fase Cook non ha fatto altro che seguire le politiche di Trump, mettendo da parte la sua visione che era stata chiara nel primo mandato del presidente Usa. Un cambio di passo che ha finito per gettare ben più di qualche ombra sulla sua storia.

    John Ternus, l’uomo dei prodotti

    Ora arriviamo al protagonista del futuro.

    John Ternus, CEO di Apple
    John Ternus, CEO di Apple

    John Ternus nasce in California attorno al 1975, cresce con la passione per il nuoto e per l’ingegneria, e studia ingegneria meccanica all’Università della Pennsylvania, dove gareggia nella squadra universitaria di nuoto. La sua tesi di laurea è già rivelatrice del suo carattere. Infatti, progetta un braccio robotico per l’alimentazione controllabile da persone con tetraplegia attraverso movimenti della testa. È un ingegnere che pensa ai problemi reali delle persone. Arriverà a laurearsi nel 1997.

    Dopo quattro anni a Virtual Research Systems, dove progetta visori per la realtà virtuale, entra in Apple nel 2001, giusto nel momento in cui Steve Jobs sta ricostruendo l’azienda dopo quasi un decennio di declino.

    Entra nel team di product design e da lì non se ne andrà più. Nel 2013 diventa responsabile dell’ingegneria hardware, nel 2020 assume la responsabilità anche dell’iPhone, e nel 2021 viene promosso a senior vice president, il grado più alto del management operativo, diventando il membro più giovane del team esecutivo di Apple. Bloomberg lo descrive come “carismatico e molto apprezzato” internamente.

    Nel corso di quasi venticinque anni in Apple, Ternus ha avuto le mani su praticamente tutto ciò che l’azienda ha prodotto: iPad, AirPods, Apple Watch, Mac, iPhone. È lui a guidare la transizione al silicio proprietario con i chip M ed è sempre lui a seguire lo sviluppo dell’Apple Vision Pro, il visore per la realtà mista che, diciamolo, ha faticato a trovare un mercato dopo il lancio del 2024.

    Ternus ha poi spinto Apple verso materiali più sostenibili e verso prodotti più riparabili, una battaglia culturale non banale dentro un’azienda storicamente orientata a prodotti sigillati e non modificabili.

    John Ternus e le sfide che lo aspettano

    Ternus, 51 anni, arriva alla guida di Apple quasi alla stessa età in cui Cook aveva rilevato il ruolo da Jobs. È una coincidenza notata da molti, ma le condizioni sono diverse, e le sfide anche.

    La sfida più grande che lo attende è ovviamente l’intelligenza artificiale.

    Apple è, stranamente, in ritardo rispetto ai concorrenti su questo fronte. Siri è rimasta indietro mentre ChatGPT e Gemini di Google ridefinivano le aspettative degli utenti. A dicembre 2025, Apple ha cambiato la leadership del suo team AI, sostituendo il precedente responsabile con un veterano di Google.

    L’azienda ha annunciato che lancerà una versione aggiornata di Siri basata sul modello Gemini di Google.

    Il fatto che il nuovo CEO venga dall’ingegneria hardware, e non dai servizi o dall’AI, è un segnale che in molti leggono come la scelta di puntare sull’integrazione tra hardware e intelligenza artificiale, l’”edge AI”, come tratto distintivo rispetto ai concorrenti.

    C’è poi la questione dei dazi e della catena di approvvigionamento. La produzione Apple è ancora concentrata per oltre il 90% in Asia, principalmente in Cina attraverso Foxconn. Spostare quella produzione negli Stati Uniti, come Trump continua a chiedere, sarebbe economicamente devastante per il colosso di Cupertino.

    Secondo le stime di Bank of America, produrre un iPhone in America costerebbe così tanto da far superare al prezzo base i 2.000 dollari. Ternus si troverà quindi a gestire questa tensione strutturale, probabilmente con Cook a fare da scudo diplomatico nel ruolo di executive chairman.

    E poi c’è il dossier Jony Ive. Il leggendario designer che ha dato all’iPhone la sua identità estetica ha lasciato Apple nel 2019, ed è poi passato a OpenAI. Da allora, l’azienda ha continuato a lanciare prodotti eccellenti dal punto di vista ingegneristico, ma la visione estetica radicale che aveva caratterizzato l’era Jobs-Ive si è fatta meno definita. Ternus è un ingegnere, non un designer, sarà interessante osservare se saprà costruire attorno a sé il team creativo che serve proprio in questa fase.

    L’eredità Apple che passa di mano

    La transizione che Apple ha annunciato il 20 aprile 2026 rappresenta un passaggio tra due filosofie incarnate da due persone diverse.

    Cook ha guidato Apple con la logica del sistema, curando la catena di approvvigionamento, margini, ecosistema, diplomazia. È riuscito a costruire la macchina più profittevole della storia industriale moderna.

    Ternus arriva con la logica del prodotto, e quindi hardware, materiali, ingegneria, integrazione. È una scelta precisa nel segno di Apple ripartendo dai prodotti ridisegnandoli nell’era della IA.

    Cook come executive chairman gestirà i rapporti con i governi e le istituzioni, il che in questo momento storico significa, soprattutto, gestire il rapporto con l’amministrazione Trump e i suoi dazi.

    È un compito che libera Ternus dalle pressioni più politiche e gli permette, almeno in teoria, di concentrarsi sui prodotti.

    Resta da vedere se questa divisione dei ruoli funzionerà nella pratica, e se Ternus riuscirà a fare ciò che Cook ha fatto. E cioè ereditare un’azienda costruita attorno alla personalità di un fondatore leggendario e trasformarla in qualcosa di ancora più grande. Cook ci è riuscito, in parte.

    Adesso tutti attendono Ternus per vedere cosa sarà in gradi di fare.

  • L’IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet

    L’IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet

    L’intelligenza artificiale sta cambiando il mondo più in fretta di qualsiasi tecnologia prima. Il rapporto annuale dell’AI Index 2026 di Stanford HAI fotografa lo stato di adozione, investimenti, capacità dei modelli, impatto sul lavoro e costo ambientale. Ne emerge una situazione complesso.

    C’è una frase con cui Stanford HAI ha aperto la comunicazione del suo rapporto 2026 che vale la pena riportare, perché contiene già la chiave di lettura di tutto il resto: “Se state seguendo le notizie sull’IA, probabilmente avete il capogiro. L’IA è una corsa all’oro. L’IA è una bolla. L’IA vi sta rubando il lavoro. L’IA non sa ancora leggere un orologio analogico.”

    E il rapporto, nelle sue 400 pagine, prova a rispondere a tutte queste domande insieme, con dati verificati.

    È il nono anno consecutivo che lo Stanford HAI, istituto di ricerca sull’intelligenza artificiale fondato all’interno dell’università californiana, pubblica questo documento. Ed è probabilmente, al momento, la fonte più autorevole e indipendente che esista su questo tema, perché non è prodotta da un laboratorio con un interesse diretto nei risultati. Per questo assume una notevole importanza.

    L'IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet
    L’IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet

    IA, una velocità di adozione mai vista prima

    Partiamo dal dato più impressionante, quello che ci permette di mettere in prospettiva tutto il resto del rapporto

    Secondo l’AI Index 2026, l’IA generativa ha raggiunto il 53% di adozione globale in soli tre anni dal suo lancio di massa. Per capire cosa significa, basta un confronto: il personal computer ha impiegato molto più tempo per raggiungere una penetrazione analoga nella popolazione mondiale. Internet anche. Gli smartphone, che pure avevano trasformato la vita quotidiana di miliardi di persone, ci hanno messo circa un decennio.

    Il personal computer ha impiegato circa 16 anni per raggiungere il 50% di adozione nei paesi industrializzati, internet circa 7 anni.

    L’IA generativa ci è arrivata in tre anni, e lo ha fatto quasi gratis. La maggior parte degli strumenti che la gente usa ogni giorno, va detto, è accessibile in forma gratuita o quasi gratuita.

    Ma, va detto, l’adozione non è uniforme e non segue le logiche che ci si potrebbe aspettare.

    Singapore guida la classifica con il 61%, gli Emirati Arabi si collocano secondi al 54%. Gli Stati Uniti, con tutti i loro investimenti e con tutti i modelli che producono, si trovano “solo” al 24° posto con il 28,3%.

    Questo ci suggeriscie che non è detto che chi costruisce la tecnologia sia chi la adotta più in fretta. Spesso chi parte con meno vincoli strutturali si muove con più agilità.

    Velocità adozione Intelligenza Artificiale Generativa - The 2026 AI Report | Stanford HAI

    IA e la crescita degli investimenti, l’assenza dell’UE

    Gli investimenti globali in intelligenza artificiale nel 2025 hanno raggiunto i 581,7 miliardi di dollari, più che raddoppiando rispetto all’anno precedente. Gli investimenti privati sono cresciuti del 127,5%, arrivando a 344,7 miliardi, e le sole aziende di IA generativa hanno assorbito quasi la metà di quel totale.

    Ma quello che è più interessante è la distribuzione geografica di questi investimenti.

    Gli Stati Uniti guidano con 285,9 miliardi di dollari di investimenti privati, una cifra 23 volte superiore a quella della Cina, che si ferma a 12,4 miliardi. Anche qui, però, il rapporto invita alla cautela: i fondi governativi cinesi, che non compaiono nelle statistiche degli investimenti privati, avrebbero immesso nell’IA circa 184 miliardi di dollari solo tra il 2000 e il 2023. Il confronto diretto, quindi, rischia di essere fuorviante.

    E l’Europa? Qui i numeri sono sensibilmente inferiori.

    Tra il 2013 e il 2024, il capitolo dedicato alla governance e alle politiche pubbliche cita gli investimenti statali in IA dei principali paesi: il Regno Unito con 1,6 miliardi di dollari, la Germania con 505 milioni, la Francia con 320 milioni. L’Italia non compare.

    Quello che colpisce non è solo la modestia delle cifre europee rispetto agli Stati Uniti, ma è la frammentazione con cui ci si muove su questo terreno. Ogni paese va per conto suo, con strategie nazionali che si sovrappongono, senza coordinarsi in modo efficace.

    L’UE ha una voce autorevole sulla regolamentazione, ha prodotto l’AI Act, gode di un livello di fiducia più elevato rispetto agli USA e alla Cina nella capacità di governare il fenomeno. Ma sul fronte degli investimenti e della produzione di modelli, l’Europa rimane largamente assente.

    IA e i modelli europei che non ci sono

    Ed è qui che arriviamo al punto più dolente per chi guarda il fenomeno dall’Europa.

    Tra i modelli più rilevanti del 2025, quelli che il rapporto identifica come “rilevanti”notable” per le loro capacità, gli Stati Uniti ne hanno rilasciati 50, la Cina 30. L’Europa non compare.

    Si tratta di modelli di frontiera, quelli che spostano le capacità verso l’alto e che definiscono lo stato dell’arte. E in quella classifica, il continente europeo semplicemente non esiste come attore.

    Più del 90% di tutti i modelli rilevanti è prodotto da aziende private, e tra quelle aziende non ce n’è nessuna con sede in Europa che riesca a competere con OpenAI, Anthropic, Google, xAI o DeepSeek.

    Mistral, l’unica azienda europea che produce modelli di frontiera, non compare nella lista dei modelli più significativi dell’anno secondo la classificazione Epoch AI utilizzata dal rapporto Stanford.

    Modelli di IA generativa rilevanti - Yhe 2026 AI Report | Stanford HAI

    Cosa sa fare l’IA, e cosa non sa ancora fare

    Il rapporto offre su questo punto una lettura molto più sfumata di quanto i comunicati stampa dei vari laboratori lascino intendere.

    Stanford definisce la situazione attuale con una formula: “jagged frontier”, frontiera frastagliata.

    I modelli di punta battono i professionisti umani su domande di scienze a livello di dottorato, vincono medaglie d’oro alle olimpiadi internazionali di matematica, risolvono problemi di coding su SWE-bench con prestazioni che in un solo anno sono passate dal 60% a quasi il 100% del livello umano.

    Ma, nonostante tutto, lo stesso modello che vince quella medaglia d’oro riesce a leggere correttamente un orologio analogico solo il 50,1% delle volte.

    Una contraddizione che in realtà ci dice molto sula natura stessa di questi sistemi. E quindi eccellono in domini ben definiti, su compiti che assomigliano a quelli su cui sono stati addestrati, e faticano su altri che sembrano banali per un bambino di dieci anni.

    Questo non significa che siano inutili, anzi. Significa che chi li usa deve sapere dove funzionano meglio e dove no. E significa che i benchmark di marketing, quelli che le aziende usano per annunciare prestazioni record, spesso misurano cose molto lontane da ciò che conta davvero nel lavoro e nella vita reale.

    C’è un altro elemento che il rapporto segnala. Secondo il Foundation Model Transparency Index, l’indice che misura il grado di apertura dei laboratori sui propri sistemi, il punteggio medio è sceso da 58 a 40 nell’arco di un anno.

    Google, Anthropic e OpenAI hanno smesso di comunicare le dimensioni dei dataset e la durata degli addestramenti per i loro ultimi modelli. In buona sostanza: i modelli più capaci sono anche quelli che rivelano di meno su come funzionano.

    IA e il lavoro, chi perde e chi guadagna

    Il rapporto dedica ampio spazio all’impatto dell’IA sul lavoro, e anche qui la lettura è meno lineare di quanto la narrazione diffusa suggerisca.

    Da una parte, i guadagni in termini di produttività documentati sono reali: 14-15% nell’assistenza clienti, 26% nello sviluppo software, fino al 73% nei team di marketing.

    Dall’altra, quei guadagni non sono distribuiti in modo uniforme. Gli sviluppatori statunitensi tra i 22 e i 25 anni hanno visto la propria occupazione calare di quasi il 20% in un anno, mentre i colleghi più senior ha fatto registrare il dato opposto. Il discorso è sempre lo stesso: l’IA sostituisce l’ingresso, non l’esperienza di lavoro. E un terzo delle organizzazioni intervistate dichiara di aspettarsi riduzioni del personale nei prossimi dodici mesi.

    In aggiunta a questo, il 73% degli esperti di IA è ottimista sull’impatto della tecnologia sul lavoro. Ma solo il 23% delle persone in generale condivide questa visione.

    Questa frattura tra chi costruisce il futuro e chi ne subisce in qualche modo le conseguenze non è un problema di comunicazione, è solo un problema di fiducia.

    IA e lavoro - The 2026 AI Report | Stanford HAI

    IA e il costo che nessuno vuole calcolare

    C’è infine un capitolo del rapporto su cui mi soffermo, perché è quello che rischia di passare in secondo piano rispetto alle notizie sulle prestazioni e sugli investimenti. A dire il vero, è uno dei temi più trascurati in questa fase, anche se è quello forse più importanti. Perché riguarda davvero tutti.

    L’impronta ambientale di questa evoluzione tecnologica trainata dalla IA non è più un incidente di percorso, ma una costante strutturale.

    Addestrare Grok 4, il modello di xAI, ha generato un’emissione stimata di 72.816 tonnellate di CO2 equivalente, pari alle emissioni di 17.000 automobili che circolano per un intero anno.

    L’addestramento di GPT-4 è stimato a 5.184 tonnellate di CO2 equivalente, quello di Llama 3.1 405B di Meta a 8.930 tonnellate.

    IA e costo ambientale - The 2026 AI Report | Stanfor HAI

    La capacità installata dei data center dedicati all’IA ha raggiunto i 29,6 gigawatt, all’incirca la stessa quantità di energia necessaria per alimentare l’intero stato di New York al picco della domanda.

    E il solo consumo d’acqua per il raffreddamento dei server legato all’inferenza di GPT-4o potrebbe superare il fabbisogno idrico annuo di 12 milioni di persone.

    Per dare un riferimento ancora più concreto e diretto: la domanda energetica cumulativa di tutti i sistemi di IA nel mondo è oggi paragonabile al consumo elettrico nazionale di Svizzera o Austria.

    Questi numeri crescono insieme ai modelli. E il rapporto di Stanford osserva che i miglioramenti nell’efficienza hardware non hanno tenuto il passo con la scala delle nuove distribuzioni.

    In buona sostanza: stiamo diventando più bravi a costruire modelli più potenti molto più in fretta di quanto stiamo diventando bravi a farlo in modo sostenibile.

    Resta da vedere come il dibattito pubblico e politico saprà reggere il confronto con questa velocità.

    Per adesso, il rapporto di Stanford ci dice che la tecnologia sta correndo mentre le istituzioni camminano. E il divario tra le due andature è, in questo momento, il problema più grande di tutti da affrontare.


  • Caso Booking, perché proteggere il perimetro non basta più

    Caso Booking, perché proteggere il perimetro non basta più

    Il data breach di Booking ha esposto i dati di milioni di utenti, subito usati per truffe di phishing mirate. I dati di pagamento sono esclusi, ma il caso dimostra che la sicurezza perimetrale da sola non basta più.

    Il furto dei dati di Booking.com ha fatto molto discutere e ovviamente molto preoccupare. Come sempre accade in questi casi.

    Viviamo in un’era dove ormai non basta dire di essere protetti semplicemente adottando un software, bisogna cambiare approccio e mentalità. E questo caso, che tocca tutti, ce lo ricorda ancora una volta.

    Va specificato, del caso specifico di Booking.com non si conoscono tutti i dettagli. L’azienda ha confermato ufficialmente l’incidente il 13 aprile 2026, dopo aver rilevato anomalie nei propri sistemi. Alcune segnalazioni di utenti indicavano attività sospette già nei mesi precedenti (con casi isolati riportati a settembre 2025), suggerendo una possibile esposizione prolungata o attacchi mirati sequenziali.

    L’azienda non ha fornito dettagli, ma dati emersi da alcune indagini giornalistiche parlano di server esposto collegato a operazioni simili con dati di milioni di utenti. Non ci sono altri numeri su questo caso, su cui le indagini sono ancora in corso.

    In ogni caso, nomi, email, indirizzi, numeri di telefono, dettagli delle prenotazioni. Tutto leggibile, tutto utilizzabile senza alcuna decodifica. I dati di pagamento risultano esclusi dalla violazione, ma tutto il resto era esposto e conservato in chiaro. Booking.com ha confermato l’accaduto, aggiornato i PIN delle prenotazioni attive e avvisato i clienti con procedura standard.

    Nel frattempo, però, alcuni utenti avevano già ricevuto messaggi di phishing via WhatsApp contenenti i dettagli reali delle loro prenotazioni. Non messaggi generici, ma comunicazioni costruite con il nome della struttura, la data del soggiorno, il numero di telefono corretto. I dati sottratti sono stati usati nell’arco di ore per costruire truffe mirate.

    Per dare un’idea, Booking.com è una delle più grandi piattaforme di viaggio al mondo, con oltre 100 milioni di utenti attivi sull’app mobile, più di 500 milioni di visite mensili al sito e oltre 1,1 miliardi di pernottamenti prenotati nel 2024. Il fatturato annuo nel 2024 è stato di 23,7 miliardi di dollari, secondo Business of Apps.

    Caso Booking, perché proteggere il perimetro non basta più
    Caso Booking, perché proteggere il perimetro non basta più

    Il perimetro come illusione di sicurezza

    C’è un errore ricorrente nel modo in cui leggiamo queste vicende. Si guarda alla violazione come a un evento circoscritto: qualcuno è entrato, ha preso qualcosa, e quindi gestiamo le conseguenze.

    Ma quando i dati rubati sono in chiaro, l’incidente non ha una data di chiusura. Un nome associato a un indirizzo email, a un numero di telefono, a una prenotazione specifica diventa un profilo. Un profilo diventa un vettore di phishing. Un vettore di phishing, nelle mani giuste, diventa una campagna di frode che può durare mesi.

    I dati di Booking.com non spariscono dall’oggi al domani. Circolano, vengono rivenduti, vengono combinati con altri dataset. Ogni destinatario di quel messaggio WhatsApp che ci ha creduto ha già subito un danno che va ben oltre la prenotazione. E questo accade perché il sistema di sicurezza ha protetto i confini, non il contenuto.

    Valerio Pastore, fondatore di CyberGrant, lo spiega in modo efficace commentando proprio questo caso: la domanda giusta non è come impedire l’accesso, ma cosa succede se l’accesso avviene comunque.

    Se i dati sono crittografati nativamente, se seguono pattern di accesso non standard, se il dato stesso risulta illeggibile a chi non è autorizzato, allora la breccia diventa irrilevante. L’attaccante entra, ma non trova nulla di utile.

    La crittografia come presupposto, non come opzione

    Nessuna piattaforma che gestisce i dati di milioni di persone può garantire che nessuno entrerà mai nei suoi sistemi. Non dipende dal budget, dalla competenza del team o dalla tecnologia adottata. È la natura stessa delle infrastrutture connesse, e chi lavora nella sicurezza informatica lo sa da anni.

    Quando una violazione avviene – e prima o poi avviene – ciò che determina la gravità delle conseguenze è lo stato in cui si trovano i dati al momento dell’accesso.

    Se sono in chiaro, leggibili, immediatamente utilizzabili, il danno si propaga in ore. È quello che è successo con Booking.com: le informazioni sottratte sono diventate truffe di phishing personalizzate prima ancora che l’azienda completasse le notifiche ai clienti.

    La crittografia dei dati a riposo, come sottolinea Pastore, non è un componente opzionale da inserire in una roadmap futura o da valutare in funzione del budget disponibile.

    Nel 2026, per qualsiasi organizzazione che tratta dati personali su scala, è il presupposto minimo di responsabilità. Proteggere il perimetro serve a ridurre le probabilità di un accesso non autorizzato. Cifrare i dati all’origine serve a rendere quell’accesso inutile anche quando il perimetro non tiene.

    Fino al prossimo data breach…

    La differenza tra gestire un rischio e togliere valore a ciò che un attaccante riesce a rubare è tutta qui.

    Un dato cifrato che esce da un sistema non produce messaggi WhatsApp con i dettagli delle prenotazioni. Non alimenta campagne di phishing personalizzate. Non crea quel cortocircuito tra furto e danno che abbiamo visto in questo caso.

    Resta da vedere se il caso Booking.com spingerà altre piattaforme a ripensare l’architettura dei propri sistemi, o se continueremo a trattare la cifratura nativa come un lusso invece che come un requisito. La risposta, come sempre, la daranno – purtroppo – i prossimi data breach.

  • Apple e la minaccia di rimuovere l’app Grok di xAI

    Apple e la minaccia di rimuovere l’app Grok di xAI

    Una lettera di Apple, inviata a tre senatori Usa, ha rivelato che più volte gli aggiornamenti dell’app Grok di xAI furono respinti, arrivando a minacciare la rimozione dall’App Store.

    Certamente ricorderete quando tra la fine di dicembre 2025 e gennaio di quest’anno esplose lo scandalo Grok, l’app di xAI. Parliamo sempre del raggio di azione di Elon Musk. Ricorderete che quell’app permetteva a tutti, attraverso un testo condiviso su X, quindi in pubblico, di modificare immagini. Una funzionalità che ha finito per generare un fenomeno di deepfake a sfondo sessuale a livello globale.

    Ebbene, a distanza di tre mesi se ne torna a parlare perché NBC, in via esclusiva, in relazione alla lettera che tre senatori Usa avevano indirizzato a Apple e Google, chiedendo di rimuovere Grok dai rispettivi app market, ha avuto modo di visualizzare cosa Apple aveva risposto ai senatori.

    In pratica, il 9 gennaio 2026, i senatori Ron Wyden, Ben Ray Luján ed Edward Markey avevano scritto a Tim Cook e Sundar Pichai chiedendo la rimozione immediata delle app X e Grok dagli store.

    I senatori accusavano Grok di generare immagini sessuali non consensuali di donne e bambini, e Musk di aver incoraggiato il fenomeno reagendo con emoji di risate. La scadenza era fissata al 23 gennaio per una risposta scritta.

    E in effetti, senza che nessuno ne sapesse nulla, e si è scoperto grazie alla NBC, Cupertino aveva risposto.

    Il passaggio chiave della lettera recita: «Apple ha esaminato le successive modifiche degli sviluppatori e ha determinato che X aveva sostanzialmente risolto le proprie violazioni, ma l’app Grok rimaneva non conforme. Di conseguenza, abbiamo respinto la modifiche di Grok e notificato allo sviluppatore che sarebbero state necessarie ulteriori modifiche per rimediare alla violazione, oppure l’app avrebbe potuto essere rimossa dall’App Store.».

    In buona sostanza, Apple aveva bocciato i primi tentativi di xAI di sistemare il problema, giudicandoli però insufficienti. Solo dopo ulteriori modifiche ha approvato la versione aggiornata, definendola «sostanzialmente migliorata». Ma la minaccia di rimozione era stata formalizzata.

    Apple e la minaccia di rimuovere l'app Grok di xAI
    Apple e la minaccia di rimuovere l’app Grok di xAI

    Come si arrivò a quel punto

    Per chi ha seguito questa vicenda su InTime Blog, il contesto è abbastanza chiaro.

    Come ricordato in apertura, tra il 25 dicembre 2025 e l’8 gennaio 2026, Grok ha generato circa 4,6 milioni di immagini, di cui circa 3 milioni sessualizzate e circa 23.000 raffiguranti minori.

    Come avevo analizzato nell’articolo sulle migliaia di immagini di nudo generate da Grok, un’inchiesta di Bloomberg aveva quantificato il fenomeno: 6.700 immagini sessualizzate all’ora, 84 volte più dei principali siti di deepfake messi insieme.

    Ricorderete il post di Musk del 31 dicembre 2025, un’immagine di sé stesso in bikini generata da Grok, che aveva causato un’impennata del 1.400% nella generazione di contenuti simili.

    Come sottolineato più volte, in questa vicenda scatenata dalla funzionalità libera permettendo a chiunque di modificare immagini, le vittime non avevano strumenti per difendersi: donne che segnalavano immagini sessualizzate delle proprie foto a X non ricevevano risposta, o ricevevano notifiche che «non vi erano violazioni delle regole».

    X ha poi limitato la generazione di immagini agli abbonati paganti. Ma come avevo scritto nell’analisi sulla spunta blu che non rende sicura la generazione di immagini, spostare la funzionalità dietro un paywall non è una misura di sicurezza.

    Lo dimostrava il fatto che l’utente che aveva chiesto a Grok di manipolare l’immagine della donna uccisa a Minneapolis era un abbonato verificato. E come avevo ricordato nell’articolo sui numeri degli abbonamenti di X, la limitazione agli abbonati ha finito per monetizzare lo scandalo stesso.

    Lo scandalo Grok si è esteso ovunque

    Il 26 gennaio l’Unione Europea aveva aperto un’indagine formale DSA contro X per le immagini generate da Grok, con sanzioni potenziali fino al 6% del fatturato globale.

    Il DPC irlandese ha avviato un’indagine GDPR, con potenziali sanzioni fino al 4% del fatturato. Il Regno Unito ha varato una nuova legge con pene detentive fino a due anni per chi genera deepfake intimi non consensuali.

    E poi c’è la Francia. Il 3 febbraio la procura di Parigi, insieme a Europol, ha perquisito gli uffici parigini di X. Musk e l’ex CEO Linda Yaccarino sono stati convocati per un’audizione fissata per il 20 aprile, vale a dire tra pochi giorni.

    Negli Stati Uniti, il TAKE IT DOWN Act, firmato nel maggio 2025, entrerà in vigore a maggio 2026 rendendo reato federale la pubblicazione di immagini intime non consensuali generate da IA.

    Il DEFIANCE Act, approvato dal Senato il 13 gennaio citando esplicitamente lo scandalo Grok, consente alle vittime di citare in giudizio i creatori per danni fino a 150.000 dollari. E sono già in corso almeno tre cause legali contro xAI.


    Cosa dicono il TAKE IT DOWN Act e il DEFIANCE Act

    Il TAKE IT DOWN Act, firmato il 19 maggio 2025, è la prima legge federale Usa a criminalizzare la diffusione di immagini intime non consensuali, siano esse reali o generate dall’IA. La norma impone alle piattaforme l’obbligo di rimuovere tali contenuti entro 48 ore dalla segnalazione, prevedendo sanzioni penali e multe per chi pubblica o minaccia di diffondere tali immagini.

    Complementare a questo è il DEFIANCE Act, approvato dal Senato nel gennaio 2026, che colma un vuoto fondamentale: permette alle vittime di citare in giudizio civile i creatori di deepfake sessualizzati, richiedendo danni economici significativi.

    Per quanto riguarda l’operatività:

    • Il TAKE IT DOWN Act è tecnicamente in vigore dal giorno della firma, ma le piattaforme hanno tempo fino al 19 maggio 2026 per implementare procedure di segnalazione chiare e visibili.
    • Il DEFIANCE Act, dopo il via libera del Senato di metà gennaio 2026, deve ora completare l’iter alla Camera per diventare pienamente esecutivo.

    Due norme Usa che permetteranno di passare da una fase di “far west” digitale a una in cui la responsabilità civile e penale inizia a pesare anche nel mondo dei falsi artificiali.


    La generazione di immagini con sessualizzare con Grok continua

    Un secondo report di NBC documenta che Grok continua a generare immagini sessualizzate non consensuali, seppur in volumi ridotti.

    Gli utenti hanno sviluppato tecniche di aggiramento: chiedono a Grok di «abbinare la posa» di una foto di celebrità a una figura stilizzata in posizione suggestiva, o di «scambiare gli abiti» tra due foto. I video animati rappresentano una nuova frontiera di abuso.

    La risposta di Musk è stata la solita, ossia quella di provare a minimizzare e ad attaccare. In risposta ai provvedimenti del governo Uk, ha definito il governo di Starmer «fascista», ha sfidato pubblicamente gli utenti a «provare a violare la moderazione di Grok» ricevendo immediatamente risposte con contenuti nudi, e la risposta ufficiale di xAI ai giornalisti è stata «Legacy Media Lies».

    Il paradosso di questa vicenda è che la stessa reazione di Musk ha finito per amplificare la crisi, invece di placarla.

    Cosa potrebbe succedere adesso

    La rivelazione della lettera di Apple dimostra che i gatekeeper degli store hanno utilizzato la leva della rimozione come strumento di pressione, anche se non l’hanno esercitata fino in fondo.

    Apple ha anche rimosso 28 app «nudify» dal proprio store dopo che il Tech Transparency Project ne aveva identificate 47 disponibili su iOS, complessivamente scaricate 705 milioni di volte.

    Ma il vero banco, dicevamo, di prova sarà nelle prossime settimane.

    La scelta di Musk di posizionare Grok come un’intelligenza artificiale «spicy», con meno restrizioni, si scontra ora con un ecosistema normativo globale che non concede più sconti.

    L’integrazione di un generatore di immagini IA con misure di controllo minime all’interno di una piattaforma social da centinaia di milioni di utenti ha creato un rischio enorme. Conosciuto del resto.

    Un rischio tale per cui nessun intervento tardivo di moderazione può pienamente correggere.

    Ed è questo il punto in cui ci troviamo oggi. La lettera di risposta di Apple ci dice che il rischio c’è ed è conosciuto anche ai grandi gatekeeper. E le possibilità che la prossima volta si possa scrivere un esito diverso non è del tutto remota.

    Intanto, staremo a vedere cosa emergerà dall’audizione di Musk e della Yaccarino a Parigi.

  • Dopo 10 anni, Zuckerberg insiste a clonare se stesso

    Dopo 10 anni, Zuckerberg insiste a clonare se stesso

    Meta sta sviluppando un clone IA di Zuckerberg per interagire con i dipendenti. È l’ultimo capitolo di un’ossessione decennale per gli alter ego digitali, dalla realtà virtuale del 2016 al metaverso, fino alla superintelligenza.

    Partiamo da questa scena. Barcellona, febbraio 2016, quindi 10 anni fa al Mobile World Congress. Mark Zuckerberg fa il suo ingresso spettacolare in una sala gremita di giornalisti, mentre nessuno di loro lo nota. Sono tutti girati dalla parte opposta, immersi in visori per la realtà virtuale, intenti a osservare una scena che si svolge altrove, in un mondo simulato.

    Lui passa alla loro destra con un’espressione soddisfatta, quasi trionfante. Un’immagine che diventerà virale e storica allo stesso tempo e, a guardarla bene, fa ancora oggi un certo effetto.

    Quella scena oggi quasi surreale dava l’idea di quello che sarebbe stata la realtà virtuale social secondo Zuckerberg: un networking di persone riprodotto in un mondo non reale, totalmente ricostruito, simulato. Una realtà non reale attraverso la quale provare instaurare relazioni tra persone.

    Sono passati dieci anni esatti da allora e in questi giorni Zuckerberg ci riprova, con strumenti diversi certo, ma sempre con lo stesso identico pallino. Ossia quello di creare alter ego digitali che possano essere presenti ovunque senza esserci fisicamente.

    Secondo quanto riportato dal Financial Times, Meta sta sviluppando un clone IA fotorealistico del suo CEO, addestrato sui suoi modi di fare, sul suo tono e sulle sue dichiarazioni pubbliche, con l’obiettivo di farlo interagire con i dipendenti quando Zuckerberg non può o non vuole farlo di persona. Il CEO stesso starebbe supervisionando il progetto, dedicandoci dalle cinque alle dieci ore a settimana di quello che ormai si chiama vibe coding (sviluppo software con l’assistenza della IA).

    Dopo 10 anni, Zuckerberg insiste a clonare se stesso
    Dopo 10 anni, Zuckerberg insiste a clonare se stesso

    Un nuovo tentativo di cloni digitali dopo 10 anni

    Per capire cosa sta succedendo oggi ritorniamo a quel febbraio 2016.

    Due anni prima Facebook aveva acquisito Oculus VR per 2 miliardi di dollari, e Zuckerberg non aveva mai fatto mistero che quello fosse il segnale di un futuro nella realtà virtuale. Al Mobile World Congress di Barcellona 2016, quel futuro sembrava essere arrivato.

    Con la realtà virtuale le opportunità di connessione tra amici sarebbero state molte di più, al punto da vivere insieme, quindi virtualmente, esperienze che si svolgono in parti del mondo diverse. Era il pallino di Zuckerberg, e dopo aver lanciato il più grande social network, voleva passare alla storia anche come il pioniere della realtà virtuale in salsa social.

    Cinque anni dopo, nell’ottobre 2021, quel pallino diventa addirittura strategia aziendale. Facebook Inc. cambia nome e diventa Meta. L’accoglienza del nuovo nome fu tutt’altro che entusiasmante. A molti sembrò un’operazione di maquillage per distrarre l’opinione pubblica dai Facebook Papers e dalle rivelazioni di Frances Haugen.

    Ma si trattava anche di una mossa strategica con investimenti da 10 miliardi di dollari e l’assunzione di 10.000 persone in Europa. Tutto con l’obiettivo di costruire il metaverso.

    Il metaverso era la versione aggiornata della stessa visione: mondi virtuali dove le persone avrebbero potuto incontrarsi, lavorare, socializzare attraverso avatar digitali. Il concetto di alter ego era al centro di tutto. Horizon Worlds, il mondo virtuale che Zuckerberg aveva immaginato per un miliardo di persone, avrebbe dovuto essere il luogo dove tutto questo si sarebbe materializzato.

    Il metaverso, la promessa non mantenuta

    Ma le cose non sono andate come previsto.

    Reality Labs, la divisione dedicata al metaverso, ha accumulato oltre 70 miliardi di dollari di perdite operative dal 2021. Bloomberg ha riportato che Meta ha tagliato la spesa per il metaverso fino al 30%. E il colpo più simbolico è arrivato poche settimane fa: Horizon Worlds verrà rimosso dalla VR il prossimo 15 giugno 2026, sopravvivendo solo come esperienza mobile.

    Era il progetto per cui Facebook aveva cambiato nome in Meta.

    L’arrivo dell’intelligenza artificiale generativa ha cambiato tutto. Adesso si parla di Muse Spark e i Superintelligence Labs,

    In buona sostanza, Meta ha liquidato il metaverso, sacrificato i propri scienziati di punta, e dirottati centinaia di miliardi di dollari verso l’IA. Con l’addio di Yann LeCun e la rimozione di Chris dalla supervisione dell’IA, il ventottenne Alexandr Wang è diventato il primo Chief AI Officer nella storia dell’azienda.

    Ma restiamo concentrati sul tema. Dopo tutto questo, il pallino di Zuckerberg non è cambiato. È cambiata solo la tecnologia con cui cerca di realizzarla, ma la sua idea nel corso di questi anni è rimasta intatta.

    Mark Zuckerberg al MWC 2016
    Mark Zuckerberg al MWC 2016

    Dal metaverso al clone IA

    Nel 2016 la visione era la realtà virtuale social: essere presenti in un altro luogo senza esserci fisicamente. Nel 2021 è diventato metaverso: vivere in mondi virtuali attraverso avatar. Nel 2026 è la superintelligenza personale: avere un compagno IA che ci conosce profondamente e può agire al posto nostro.

    Il clone IA di Zuckerberg si inserisce perfettamente in questa progressione. Non è un’idea nuova, è la stessa idea di sempre realizzata con strumenti diversi. L’obiettivo resta quello di creare versioni digitali di persone reali che possano interagire al posto loro.

    Va detto, Meta ci ha già provato. Nel 2023 l’azienda aveva annunciato che avrebbe pagato milioni di dollari a celebrity come Snoop Dogg per trasformarle in chatbot. Il progetto è stato un fallimento e i chatbot hanno finito per fare dichiarazioni imbarazzanti per conto dei loro equivalenti in carne e ossa.

    Nel 2024 è arrivato AI Studio, che permette ai creator di Instagram di costruire versioni IA di se stessi per interagire con i fan via DM. Anche questo progetto ha avuto i suoi problemi, al punto che Meta ha dovuto bloccare l’accesso ai teenager dopo le critiche sulla salute mentale dei minori.

    Ora Zuckerberg sta applicando la stessa logica, partendo da se stesso.

    Il clone IA sarà addestrato non solo sui suoi modi di fare e sul suo tono, ma anche sul suo pensiero recente riguardo alle strategie aziendali. L’idea, secondo il Financial Times, è che i dipendenti possano sentirsi più connessi al fondatore attraverso le interazioni con il suo avatar digitale.

    La trasformazione del CEO nel corsi di questi 10 anni

    Nel 2016, quando Zuckerberg immaginava la realtà virtuale social, il ruolo del CEO di una grande azienda tecnologica era sostanzialmente quello di guida interna. Certo, le figure come lui erano già personaggi pubblici, ma la loro funzione principale restava quella di dirigere l’azienda, non di rappresentarla costantemente verso l’esterno.

    Dieci anni dopo, quel ruolo è cambiato radicalmente. I CEO delle grandi piattaforme di oggi sono diventati figure mediatiche a tutti gli effetti, produttori di contenuti che incarnano la visione aziendale.

    Lo vediamo con Sam Altman di OpenAI, che costruisce la propria immagine pubblica attraverso podcast, interviste, post sui social.

    E lo vediamo con lo stesso Zuckerberg, che negli ultimi anni ha curato attentamente la propria trasformazione da nerd impacciato a imprenditore sportivo e appassioandosi alle arti marziali miste.

    Il CEO non è più solo chi prende le decisioni. È una figura oggi che comunica la narrazione, che costruisce il brand, che incarna l’identità dell’azienda agli occhi del pubblico, degli investitori, delle istituzioni.

    E adesso Zuckerberg vuole clonare proprio quella figura.

    Cosa significa davvero clonare il CEO

    Se il ruolo del CEO moderno include la costruzione di una narrazione, la comunicazione di una visione, l’incarnazione di valori aziendali, cosa succede quando quella figura viene replicata artificialmente?

    Un avatar IA addestrato sulle dichiarazioni pubbliche e sul pensiero strategico di Zuckerberg può rispondere a domande, offrire feedback, partecipare a riunioni. Ma potrebbe incarnare una visione? Potrebbe trasmettere fiducia? Potrebbe davvero prendere decisioni che comportano responsabilità?

    Il Financial Times riporta che esiste anche un progetto separato, un CEO agent progettato per aiutare Zuckerberg a recuperare informazioni e svolgere compiti al suo posto.

    Si tratta di due progetti distinti ma complementari: uno clona la presenza, l’altro automatizza le funzioni.

    C’è poi la questione della governance. Se l’avatar IA di Zuckerberg dà un feedback a un dipendente, chi è responsabile di quel feedback? Se prende una posizione su una questione strategica, quella posizione riflette davvero il pensiero del CEO o si parla di approssimazione della IA? E se il clone dice qualcosa di sbagliato, come è già successo con i chatbot delle celebrity, chi ne risponde?

    Certo che sono tutte questioni che saranno risolte, ove mai questo progetto prenderà davvero piede, ma sono comunque domande da porsi in questo frangente.

    Dieci anni dopo, la stessa domanda

    Ma la realtà virtuale social affascina o inquieta?

    Dieci anni dopo, la domanda è la stessa ma la tecnologia, e il mondo, è cambiata.

    Non si tratta più di mondi virtuali dove incontrarsi come avatar, oggi si parla di creare copie di persone reali, che possano agire, parlare, decidere al loro posto. E se il primo esperimento è il CEO di una delle aziende più potenti del mondo, il passo successivo potrebbe essere davvero chiunque.

    Il Financial Times riporta che se l’esperimento con Zuckerberg avrà successo, Meta prevede di permettere ai creator di costruire avatar IA di se stessi, espandendo il progetto dimostrato al Meta Connect del 2024.

    Nel frattempo, tra licenziamenti e nuove strategie sulla IA, Meta sta spingendo i propri dipendenti a usare strumenti di automazione e software agentici.

    Insomma, Zuckerberg dimostra che il suo obiettivo resta quello di sempre. E per trasformarlo in realtà sarebbe disposto a cambiare anche la sua azienda. Il primo tentativo col metaverso è andato come abbiamo visto. Forse quello con la IA gli potrebbe andare bene. Forse.

  • Ecco Muse Spark, la superintelligenza di Meta

    Ecco Muse Spark, la superintelligenza di Meta

    Meta ha presentato Muse Spark, il primo modello di IA sviluppato dal nuovo Superintelligence Lab. È un modello proprietario che segna una rottura netta con la filosofia open source che aveva caratterizzato Meta fino a ieri. La domanda è se tutto questo basterà a colmare il divario con OpenAI, Anthropic e Google.

    Mark Zuckerberg ha al momento diversi problemi, ma uno in particolare ce l’ha con le promesse. Nel gennaio 2025 aveva annunciato che sarebbe stato un anno decisivo per l’intelligenza artificiale di Meta, con Llama 4 pronto a diventare il modello stato dell’arte e Meta AI destinata a raggiungere un miliardo di utenti.

    Un anno dopo, Llama 4 è soltanto un ricordo imbarazzante, il Chief AI Scientist che lo aveva costruito se n’è andato sbattendo la porta, e Zuckerberg si ritrova a presentare qualcosa di completamente diverso.

    E parliamo di Muse Spark, il primo modello sviluppato da un laboratorio che non esisteva nemmeno dodici mesi fa.

    Ma questa volta la posta in gioco è diversa. Non si tratta di un aggiornamento incrementale o di una nuova versione di un prodotto esistente.

    Muse Spark rappresenta una rottura totale con il passato di Meta. È un modello proprietario invece che open source ed è stato costruito da un team quasi interamente nuovo.

    Muse Spark rappresenta il prodotto concreto di una riorganizzazione che ha investito ogni livello dell’azienda. Centinaia di licenziamenti, l’abbandono progressivo del metaverso, investimenti da 135 miliardi di dollari nel solo 2026. E al centro di tutto, un ventottenne che fino a ieri guidava un’azienda di etichettatura dati. Ma andiamo con ordine.

    Muse Spark nasce dalle ceneri di Llama

    Per capire Muse Spark bisogna partire da quello che è successo prima.

    Nell’aprile 2025, Meta lancia Llama 4 nelle varianti Maverick e Scout, ma il rilascio è un disastro. Yann LeCun, premio Turing 2019 e Chief AI Scientist di Meta dal 2013, ammetterà poi al Financial Times che i risultati erano stati falsificati: il team aveva usato versioni ottimizzate per specifici benchmark, gonfiando artificialmente le prestazioni. Il modello di punta, Behemoth, viene rinviato più volte e infine accantonato.

    Zuckerberg, furioso, mette da parte l’intera organizzazione GenAI e inizia a reclutare personalmente un nuovo team.

    Crea un gruppo WhatsApp chiamato Recruiting Party attivo 24 ore su 24. Il risultato di quella crisi è Muse Spark, nome in codice interno Avocado, costruito da zero in nove mesi dal nuovo Meta Superintelligence Labs. Non è una versione evoluta di Llama, è un modello completamente diverso, ricostruito a partire da un nuovo stack di pre-training.

    Cosa fa Muse Spark

    Proviamo a spiegarlo in modo semplice, perché è importante capire di cosa stiamo parlando.

    Muse Spark è un modello di intelligenza artificiale multimodale, il che significa che può elaborare testo, immagini e voce contemporaneamente.

    Ha una finestra di contesto di 262.000 token, vale a dire che può tenere a mente una quantità enorme di informazioni durante una conversazione. E opera in tre modalità diverse a seconda di cosa gli viene chiesto.

    La modalità Instant serve per le domande rapide: chiedi qualcosa, ottieni una risposta immediata. La modalità Thinking attiva un ragionamento più profondo per problemi complessi. Ma la vera novità è la modalità Contemplating, che orchestra più sotto-agenti che ragionano in parallelo.

    In pratica, se chiedi a Meta AI di pianificare un viaggio in famiglia, un agente si occupa dell’itinerario, un altro confronta le destinazioni, un terzo cerca le attività adatte ai bambini. Tutto contemporaneamente.

    Tra le capacità distintive c’è il ragionamento visivo: si può fotografare uno scaffale di snack in aeroporto, ad esempio, e Muse Spark ti dice quali hanno più proteine senza che tu debba leggere le etichette.

    C’è poi una modalità shopping che integra dati comportamentali dalle piattaforme Meta. E ci sono capacità di ragionamento medico sviluppate in collaborazione con oltre mille medici, anche se su questo punto, va detto, i dubbi sulla privacy restano aperti.

    Muse Spark, una storia all’inseguimento

    I benchmark sono il modo in cui l’industria misura le capacità dei modelli di IA, e quelli di Muse Spark raccontano dei dati interessanti.

    Sull’Artificial Analysis Intelligence Index, il modello di Meta ottiene un punteggio di 52, collocandosi nella top 5 globale ma dietro a GPT-5.4 e Gemini 3.1 Pro, entrambi a 57, e leggermente sotto Claude Opus 4.6, a 53. Il salto rispetto ai modelli Llama 4 è enorme: Maverick aveva ottenuto 18, Scout appena 13.

    Dove Muse Spark eccelle davvero è nei benchmark specialistici.

    Nel ragionamento medico batte GPT-5.4 e surclassa tutti gli altri. Nella comprensione di grafici e figure supera anche i migliori modelli di OpenAI. Ma i punti deboli sono altrettanto significativi: nel ragionamento astratto il divario con Gemini è drastico, 42.5 contro 76.5. E nel coding agentico, che è diventato l’obiettivo principale di Anthropic e degli altri nella corsa all’IA, GPT-5.4 lo supera nettamente.

    C’è poi un aspetto che va sottolineato, perché riguarda la credibilità di questi numeri.

    I benchmark auto-dichiarati di Meta vanno trattati con cautela data la storia recente.

    Fortune ha notato che le verifiche indipendenti mostrano a volte discrepanze: su alcuni test, Meta dichiara risultati che i laboratori esterni non riescono a replicare. È un problema di fiducia che l’azienda dovrà risolvere.

    L’abbandono dell’open source e la svolta strategica

    La scelta closed source è il cambio di rotta più clamoroso.

    Nel luglio 2024, Zuckerberg aveva pubblicato un manifesto intitolato Open Source AI is the Path Forward, paragonando Llama a Linux e argomentando che l’IA open source rappresentava la migliore possibilità del mondo di sfruttare questa tecnologia. Appena due anni dopo, Muse Spark è completamente un modello proprietario.

    Le ragioni di questa inversione sono diverse.

    Primo, la pressione competitiva: dopo il fallimento di Llama 4, Meta non può permettersi di regalare le proprie innovazioni ai concorrenti.

    Secondo, il precedente di DeepSeek: il laboratorio cinese aveva copiato con successo l’architettura di Llama per sviluppare il proprio modello R1, dimostrando concretamente i rischi della strategia aperta.

    Terzo, la monetizzazione: Meta sta sperimentando l’accesso API a pagamento, attualmente in anteprima privata per partner selezionati.

    La strategia emergente sembra quella di un modello freemium: i modelli più potenti e recenti restano proprietari e disponibili tramite API a pagamento, mentre le versioni precedenti vengono rilasciate come open source. Meta ha dichiarato di sperare di rendere open source le future versioni del modello, ma senza fornire alcuna tempistica. Tradotto: per ora resta tutto chiuso.

    Alexandr Wang e i 14 miliardi di dollari per un ventottenne

    A guidare il Meta Superintelligence Labs c’è Alexandr Wang, nominato primo Chief AI Officer nella storia di Meta. La sua storia merita di essere raccontata perché dice molto sulla scommessa che Zuckerberg sta facendo.

    <!-- wp:heading -->
<h2 class="wp-block-heading"><strong>Meta ha presentato Muse Spark, il primo modello di IA sviluppato dal nuovo Superintelligence Lab. È un modello proprietario che segna una rottura netta con la filosofia open source che aveva caratterizzato Meta fino a ieri. La domanda è se tutto questo basterà a colmare il divario con OpenAI, Anthropic e Google.</strong></h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Mark Zuckerberg ha al momento diversi problemi, ma uno in particolare ce l'ha con le promesse. Nel gennaio 2025 aveva annunciato che sarebbe stato un anno decisivo per l'intelligenza artificiale di Meta, con Llama 4 pronto a diventare il modello stato dell'arte e Meta AI destinata a raggiungere un miliardo di utenti. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Un anno dopo, <a href="https://www.franzrusso.it/?s=Llama" target="_blank" rel="noreferrer noopener">Llama</a> 4 è soltanto un ricordo imbarazzante, il Chief AI Scientist che lo aveva costruito se n'è andato sbattendo la porta, e Zuckerberg si ritrova a presentare qualcosa di completamente diverso.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>E <a href="https://about.fb.com/news/2026/04/introducing-muse-spark-meta-superintelligence-labs/">parliamo di Muse Spark, il primo modello sviluppato da un laboratorio che non esisteva nemmeno dodici mesi fa</a>.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Ma questa volta la posta in gioco è diversa. Non si tratta di un aggiornamento incrementale o di una nuova versione di un prodotto esistente. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark rappresenta una rottura totale con il passato di Meta. È un modello proprietario invece che open source ed è stato costruito da un team quasi interamente nuovo.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark rappresenta il prodotto concreto di una riorganizzazione che ha investito ogni livello dell'azienda. Centinaia di licenziamenti, l'abbandono progressivo del metaverso, investimenti da 135 miliardi di dollari nel solo 2026. E al centro di tutto, un ventottenne che fino a ieri guidava un'azienda di etichettatura dati. Ma andiamo con ordine.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading">Muse Spark nasce dalle ceneri di Llama</h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Per capire Muse Spark bisogna partire da quello che è successo prima. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nell'aprile 2025, Meta lancia Llama 4 nelle varianti Maverick e Scout, ma il rilascio è un disastro. <a href="https://www.franzrusso.it/intelligenza-artificiale/yann-lecun-laurea-ad-honorem-universita-siena/" target="_blank" rel="noreferrer noopener">Yann LeCun</a>, premio Turing 2019 e Chief AI Scientist di Meta dal 2013, ammetterà poi al Financial Times che i risultati erano stati falsificati: il team aveva usato versioni ottimizzate per specifici benchmark, gonfiando artificialmente le prestazioni. Il modello di punta, Behemoth, viene rinviato più volte e infine accantonato. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Zuckerberg, furioso, mette da parte l'intera organizzazione GenAI e inizia a reclutare personalmente un nuovo team. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Crea un gruppo WhatsApp chiamato Recruiting Party attivo 24 ore su 24. <strong>Il risultato di quella crisi è Muse Spark, nome in codice interno Avocado, costruito da zero in nove mesi dal nuovo Meta Superintelligence Labs</strong>. Non è una versione evoluta di Llama, è un modello completamente diverso, ricostruito a partire da un nuovo stack di pre-training.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading"><strong>Cosa fa Muse Spark </strong></h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Proviamo a spiegarlo in modo semplice, perché è importante capire di cosa stiamo parlando. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>Muse Spark è un modello di intelligenza artificiale multimodale, il che significa che può elaborare testo, immagini e voce contemporaneamente</strong>. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Ha una finestra di contesto di 262.000 token, vale a dire che può tenere a mente una quantità enorme di informazioni durante una conversazione. E opera in tre modalità diverse a seconda di cosa gli viene chiesto.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>La modalità Instant serve per le domande rapide: chiedi qualcosa, ottieni una risposta immediata. La modalità Thinking attiva un ragionamento più profondo per problemi complessi. Ma la vera novità è la modalità Contemplating, che orchestra più sotto-agenti che ragionano in parallelo. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>In pratica, se chiedi a Meta AI di pianificare un viaggio in famiglia, un agente si occupa dell'itinerario, un altro confronta le destinazioni, un terzo cerca le attività adatte ai bambini. Tutto contemporaneamente.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Tra le capacità distintive c'è il ragionamento visivo: si può fotografare uno scaffale di snack in aeroporto, ad esempio, e Muse Spark ti dice quali hanno più proteine senza che tu debba leggere le etichette. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>C'è poi una modalità shopping che integra dati comportamentali dalle piattaforme Meta. E ci sono capacità di ragionamento medico sviluppate in collaborazione con oltre mille medici, anche se su questo punto, va detto, i dubbi sulla privacy restano aperti.</p>
<!-- /wp:paragraph -->

<!-- wp:heading {"level":3} -->
<h3 class="wp-block-heading"><strong>Muse Spark, una storia all'inseguimento</strong></h3>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>I benchmark sono il modo in cui l'industria misura le capacità dei modelli di IA, e quelli di Muse Spark raccontano dei dati interessanti. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Sull'<a href="https://artificialanalysis.ai/evaluations/artificial-analysis-intelligence-index">Artificial Analysis Intelligence Index</a>, il modello di Meta ottiene un punteggio di 52, <strong>collocandosi nella top 5 globale ma dietro a GPT-5.4 e Gemini 3.1 Pro</strong>, entrambi a 57, e leggermente sotto Claude Opus 4.6, a 53. Il salto rispetto ai modelli Llama 4 è enorme: Maverick aveva ottenuto 18, Scout appena 13.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Dove Muse Spark eccelle davvero è nei benchmark specialistici. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nel ragionamento medico batte GPT-5.4 e surclassa tutti gli altri. Nella comprensione di grafici e figure supera anche i migliori modelli di OpenAI. Ma i punti deboli sono altrettanto significativi: nel ragionamento astratto il divario con Gemini è drastico, 42.5 contro 76.5. E nel coding agentico, che è diventato l'obiettivo principale di Anthropic e degli altri nella corsa all'IA, GPT-5.4 lo supera nettamente.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>C'è poi un aspetto che va sottolineato, perché riguarda la credibilità di questi numeri. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I benchmark auto-dichiarati di Meta vanno trattati con cautela data la storia recente. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Fortune ha notato che le verifiche indipendenti mostrano a volte discrepanze: su alcuni test, Meta dichiara risultati che i laboratori esterni non riescono a replicare. È un problema di fiducia che l'azienda dovrà risolvere.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading">L'abbandono dell'open source e la svolta strategica</h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>La scelta closed source è il cambio di rotta più clamoroso. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nel luglio 2024, Zuckerberg aveva pubblicato un manifesto intitolato Open Source AI is the Path Forward, paragonando Llama a Linux e argomentando che l'IA open source rappresentava la migliore possibilità del mondo di sfruttare questa tecnologia. Appena due anni dopo, Muse Spark è completamente un modello proprietario.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Le ragioni di questa inversione sono diverse. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Primo, la pressione competitiva: dopo il fallimento di Llama 4, Meta non può permettersi di regalare le proprie innovazioni ai concorrenti. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Secondo, il precedente di DeepSeek: il laboratorio cinese aveva copiato con successo l'architettura di Llama per sviluppare il proprio modello R1, dimostrando concretamente i rischi della strategia aperta. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Terzo, la monetizzazione: Meta sta sperimentando l'accesso API a pagamento, attualmente in anteprima privata per partner selezionati.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>La strategia emergente sembra quella di un modello freemium: i modelli più potenti e recenti restano proprietari e disponibili tramite API a pagamento, mentre le versioni precedenti vengono rilasciate come open source. Meta ha dichiarato di sperare di rendere open source le future versioni del modello, ma senza fornire alcuna tempistica. Tradotto: per ora resta tutto chiuso.</p>
<!-- /wp:paragraph -->

<!-- wp:heading {"level":3} -->
<h3 class="wp-block-heading"><strong>Alexandr Wang e i 14 miliardi di dollari per un ventottenne</strong></h3>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>A guidare il Meta Superintelligence Labs c'è Alexandr Wang, nominato primo Chief AI Officer nella storia di Meta. La sua storia merita di essere raccontata perché ci dice molto sulla scommessa che Zuckerberg sta facendo. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nato nel 1997 a Los Alamos, figlio di fisici cinesi immigrati che lavoravano al laboratorio nazionale, Wang aveva fondato Scale AI a 19 anni abbandonando il MIT. A 24 anni era il più giovane miliardario self-made al mondo.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Meta ha investito 14,3 miliardi di dollari per una quota del 49% in Scale AI, raddoppiandone la valutazione. Come parte dell'accordo, Wang ha lasciato la carica di CEO per guidare il nuovo laboratorio. Zuckerberg lo ha descritto come il fondatore più impressionante della sua generazione. Ma c'è chi solleva dubbi: Wang viene da un'azienda di etichettatura dati, non dalla ricerca fondamentale sull'IA. E il suo arrivo ha provocato la partenza di Yann LeCun, che al Financial Times ha dichiarato di non essere disposto a sottostare all'autorità di un giovane e inesperto manager.</p>
<!-- /wp:paragraph -->

<!-- wp:heading {"level":3} -->
<h3 class="wp-block-heading"><strong>I licenziamenti e l'abbandono del metaverso</strong></h3>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>La nascita del Superintelligence Labs è solo un tassello di una riorganizzazione che ha investito ogni livello di Meta. L'elenco delle perdite è impressionante. Yann LeCun se n'è andato e ha fondato un proprio laboratorio raccogliendo oltre un miliardo di dollari. Chris Cox, Chief Product Officer e veterano ventennale, è stato rimosso dalla supervisione dell'IA dopo il fiasco di Llama 4. Undici dei quattordici ricercatori originali che avevano costruito il primo modello Llama nel 2023 hanno lasciato l'azienda.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I licenziamenti hanno colpito a ondate: circa 600 posizioni eliminate dal laboratorio nell'ottobre 2025, circa 1.500 dipendenti da Reality Labs nel gennaio 2026 con la chiusura degli studi di gioco VR, e diverse centinaia in più nel marzo 2026. Come avevo raccontato qui su InTime Blog analizzando l'acquisizione di Moltbook, Meta sta ridisegnando completamente la propria struttura organizzativa attorno all'intelligenza artificiale.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Il ridimensionamento del metaverso è altrettanto drastico. Reality Labs ha accumulato oltre 70 miliardi di dollari di perdite operative dal 2021. Bloomberg ha riportato che Meta sta tagliando la spesa per il metaverso fino al 30%. Il colpo più simbolico: Horizon Worlds, il mondo virtuale che Zuckerberg aveva immaginato per un miliardo di persone, verrà rimosso dalla VR il 15 giugno 2026, sopravvivendo solo come esperienza mobile. Era il progetto per cui Facebook aveva cambiato nome in Meta. Ora è un residuo.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading">Zuckerberg e la superintelligenza personale per tutti</h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Nel luglio 2025, Zuckerberg ha pubblicato un lungo post intitolato Personal Superintelligence for Everyone, in cui delineava la sua visione. Vale la pena di soffermarsi su cosa intende, perché è diverso da quello che propongono i concorrenti. La superintelligenza personale di Meta non è un sistema centralizzato che automatizza tutto il lavoro umano. È un compagno personale che ci conosce profondamente, comprende i nostri obiettivi, e può aiutarci a raggiungerli.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Come avevo scritto nell'articolo sulla strategia di Meta verso la superintelligenza, questa visione ha un vantaggio strutturale che nessun concorrente può replicare: 3,58 miliardi di utenti giornalieri sulle piattaforme Meta. Se Muse Spark funziona, quella distribuzione potrebbe trasformarlo nel modello di IA più utilizzato al mondo quasi per inerzia. È la stessa logica che ha guidato l'acquisizione di Moltbook, il social network per agenti AI: Meta sta costruendo l'infrastruttura dove l'intelligenza artificiale vive, lavora e interagisce.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Ma nella conference call sugli utili del gennaio 2026, il tono di Zuckerberg è cambiato sensibilmente. Ha ammesso che le risposte a molte domande degli investitori sarebbero state insoddisfacenti, perché l'azienda è in un periodo di ricostruzione. Sui primi modelli ha detto che sarebbero stati buoni, ma soprattutto avrebbero mostrato la traiettoria rapida su cui Meta si trova. È un'ammissione implicita che le promesse del 2025 erano premature.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>Lo scenario competitivo e la frattura Altman-Amodei</strong></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark arriva in un panorama competitivo incandescente. Il giorno prima del lancio, Anthropic ha svelato Claude Mythos Preview, descritto come il modello di IA più potente mai sviluppato dall'azienda, talmente pericoloso da non poter essere rilasciato al pubblico per le minacce alla sicurezza informatica. È disponibile solo per dodici partner selezionati, tra cui AWS, Apple, Google e Microsoft. Come avevo analizzato qui su InTime Blog raccontando la frattura tra Altman e Amodei, la rivalità tra i due è ormai una guerra aperta.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>All'India AI Impact Summit del febbraio 2026, il primo ministro Modi ha invitato i leader dell'IA a tenersi per mano per una foto simbolica di unità: Altman e Amodei hanno ostentatamente rifiutato, alzando i pugni chiusi. Al Super Bowl 2026, Anthropic ha trasmesso quattro spot che deridevano i piani di OpenAI; Altman ha risposto definendo Anthropic disonesta e autoritaria. In questo scontro, Zuckerberg potrebbe inserirsi per provare a uscirne vincitore. C'è poi il rapporto con Elon Musk, che ha seguito una traiettoria inversa: dalla sfida alla gabbia del 2023 a un disgelo tattico. Come avevo scritto nell'articolo sulla possibile alleanza tra Zuckerberg e Musk, documenti giudiziari desecretati nel marzo 2026 hanno rivelato contatti diretti tra i due. Zuckerberg aveva offerto supporto per DOGE, Musk aveva chiesto se fosse interessato a un'offerta congiunta per OpenAI. Zuckerberg ha ascoltato ma ha rifiutato di partecipare. La convergenza resta tattica, non strategica, ma il nemico comune in OpenAI potrebbe cambiare le cose.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>I 600 miliardi di dollari e la scommessa esistenziale</strong></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I numeri degli investimenti sono impressionanti anche per gli standard della Silicon Valley. Meta prevede di spendere fino a 135 miliardi di dollari nel 2026, quasi il doppio dei 72 miliardi dell'anno precedente. Zuckerberg ha promesso 600 miliardi in nuovi data center entro il 2028. È una scommessa esistenziale: se la superintelligenza arriva e Meta non è pronta, l'azienda rischia di diventare irrilevante. Se investe tutto e la superintelligenza non arriva, o arriva in forme diverse da quelle previste, ha bruciato centinaia di miliardi. Come avevo analizzato nell'articolo sui risultati record di Meta nel 2025, il razionale di Zuckerberg è elegante nella sua semplicità: se la superintelligenza arriva presto, Meta sarà pronta per un cambio di paradigma generazionale. Se arriva tardi, Meta avrà capacità di calcolo in eccesso che può usare per accelerare il proprio core business pubblicitario. Nel peggiore dei casi, rallenta la costruzione di infrastruttura e cresce lentamente dentro quello che ha già costruito. È lo stesso ragionamento che Jeff Bezos usò per Amazon Web Services.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>Una trasformazione senza precedenti</strong></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark non è semplicemente un nuovo modello di intelligenza artificiale. È la manifestazione fisica di una trasformazione aziendale che ha pochi precedenti nella storia della tecnologia. Meta ha liquidato il metaverso, sacrificato i propri scienziati di punta, abbandonato la propria filosofia open source, investito decine di miliardi in un ventottenne, e promesso 600 miliardi di dollari per costruire qualcosa che, per sua stessa ammissione, è ancora alla portata ma non raggiunto.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I rischi sono proporzionali all'ambizione. I benchmark auto-dichiarati richiedono verifica indipendente. La partenza di LeCun priva Meta di credibilità scientifica. La scelta closed source aliena la comunità degli sviluppatori che aveva costruito un ecosistema attorno a Llama. E il modello Watermelon, il vero test della capacità del Superintelligence Labs di competere stabilmente alla frontiera, è ancora in fase di sviluppo.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nel frattempo, Anthropic ha dimostrato con Mythos capacità che pongono domande esistenziali sulla sicurezza, Google domina su più benchmark, e OpenAI prepara un'IPO da mille miliardi. La corsa alla superintelligenza è appena iniziata. E Meta ha deciso che il prezzo per non partecipare è più alto di qualsiasi investimento immaginabile. Staremo a vedere se questa scommessa si rivelerà la più lungimirante o la più costosa della storia della Silicon Valley.</p>
<!-- /wp:paragraph -->
    Nella foto: Alexandr Wang

    Nato nel 1997 a Los Alamos, figlio di fisici cinesi immigrati che lavoravano al laboratorio nazionale, Wang aveva fondato Scale AI a 19 anni abbandonando il MIT. A 24 anni era il più giovane miliardario self-made al mondo.

    Meta ha investito 14,3 miliardi di dollari per una quota del 49% in Scale AI, raddoppiandone la valutazione. Come parte dell’accordo, Wang ha lasciato la carica di CEO per guidare il nuovo laboratorio. Zuckerberg lo ha descritto come il fondatore più impressionante della sua generazione. Ma c’è chi solleva dubbi: Wang viene da un’azienda di etichettatura dati, non dalla ricerca fondamentale sull’IA.

    E il suo arrivo ha provocato la partenza di Yann LeCun, che al Financial Times ha dichiarato di non essere disposto a sottostare all’autorità di un giovane e inesperto manager.

    I licenziamenti e l’abbandono del metaverso

    La nascita del Superintelligence Labs è solo un tassello di una riorganizzazione che ha investito ogni livello di Meta. L’elenco delle perdite è impressionante.

    Yann LeCun se n’è andato e ha fondato un proprio laboratorio raccogliendo oltre un miliardo di dollari.

    Chris Cox, Chief Product Officer e veterano ventennale, è stato rimosso dalla supervisione dell’IA dopo il fiasco di Llama 4. Undici dei quattordici ricercatori originali che avevano costruito il primo modello Llama nel 2023 hanno lasciato l’azienda.

    I licenziamenti hanno riguardato circa 600 posizioni del laboratorio, nell’ottobre 2025; circa 1.500 dipendenti da Reality Labs nel gennaio 2026 con la chiusura degli studi di gioco VR, e diverse centinaia in più nel marzo 2026.

    Come avevo raccontato qui su InTime Blog analizzando l’acquisizione di Moltbook, Meta sta ridisegnando completamente la propria struttura organizzativa attorno all’intelligenza artificiale.

    Il ridimensionamento del metaverso è stato altrettanto drastico.

    Reality Labs ha accumulato oltre 70 miliardi di dollari di perdite operative dal 2021. Bloomberg ha riportato che Meta stava tagliando la spesa per il metaverso fino al 30%.

    La ristrutturazione ha colpito anche Horizon Worlds, il mondo virtuale che Zuckerberg aveva immaginato per un miliardo di persone. Verrà rimosso dalla VR il 15 giugno 2026, sopravvivendo solo come esperienza mobile.

    Era il progetto per cui Facebook aveva cambiato nome in Meta.

    Zuckerberg e la superintelligenza personale per tutti

    Nel luglio 2025, Zuckerberg ha pubblicato un lungo post intitolato Personal Superintelligence for Everyone, in cui delineava la sua visione.

    Vale la pena di soffermarsi su cosa intende, perché è diverso da quello che propongono i concorrenti.

    La superintelligenza personale di Meta non è un sistema centralizzato che automatizza tutto il lavoro umano. Si tratta di un compagno personale che ci conosce profondamente, comprende i nostri obiettivi, e può aiutarci a raggiungerli.

    Come avevo scritto sulla strategia di Meta verso la superintelligenza, questa visione ha un vantaggio strutturale che nessun concorrente può ancora raggiungere. E cioè 3,58 miliardi di utenti giornalieri sulle piattaforme Meta.

    Se Muse Spark funziona, quella distribuzione potrebbe trasformarlo nel modello di IA più utilizzato al mondo quasi per inerzia.

    È la stessa logica che ha guidato l’acquisizione di Moltbook, il social network per agenti AI: Meta sta costruendo l’infrastruttura dove l’intelligenza artificiale vive, lavora e interagisce.

    Lo scenario competitivo e la frattura Altman-Amodei

    Muse Spark arriva in un panorama competitivo incandescente.

    Il giorno prima del lancio, Anthropic ha svelato Claude Mythos Preview, descritto come il modello di IA più potente mai sviluppato dall’azienda, talmente pericoloso da non poter essere rilasciato al pubblico per le minacce alla sicurezza informatica.

    È disponibile solo per dodici partner selezionati, tra cui AWS, Apple, Google e Microsoft. Come avevo analizzato qui su InTime Blog raccontando la frattura tra Altman e Amodei, la rivalità tra i due è ormai una guerra aperta.

    C’è poi il rapporto con Elon Musk, che ha seguito una traiettoria inversa: dalla sfida alla gabbia del 2023 a un disgelo tattico.

    Come avevo scritto nell’articolo sulla possibile alleanza tra Zuckerberg e Musk, documenti giudiziari desecretati nel marzo 2026 hanno rivelato contatti diretti tra i due.

    Insomma, non si tratta solo del lancio di un nuovo modello di IA, come ormai ci stiamo abituando ad assistere praticamente ogni giorno.

    Dietro c’è una strategia che val la pena di essere indagata per capire il perché di certe mosse, per avere chiaro anche il contesto in cui ci si muove.

    E anche di comprendere come lo schema delle alleanze si muove e agisce di conesguenza.

  • X nel 2026, l’algoritmo del proprietario ha vinto

    X nel 2026, l’algoritmo del proprietario ha vinto

    L’analisi di Nate Silver rivela come X nel 2026 sia dominata da account di destra di bassa qualità. Al centro di tutto ovviamente c’è Musk. Non è visibilità organica, ma è l’algoritmo del proprietario che ha ribaltato la piattaforma.

    Quando Elon Musk ha acquistato Twitter nell’ottobre 2022, ha promesso di trasformarlo in una piazza digitale dove la libertà di espressione avrebbe trionfato. Tre anni e mezzo dopo, quella piazza è diventata qualcosa di molto diverso. Vale a dire un ecosistema chiuso dove prosperano account di bassissima qualità, teorie complottiste e disinformazione sistematica, mentre il giornalismo tradizionale viene progressivamente marginalizzato.

    E il grafico pubblicato da Nate Silver su Silver Bulletin lo dimostra con una chiarezza lascia spazio davvero a poche interpretazioni.

    L’immagine che si vede qui in basso è molto chiara. Si nota una costellazione di bolle che rappresentano gli account con più engagement su X nei primi mesi del 2026.

    Al centro c’è, ovviamente, Elon Musk con i suoi 223 milioni di follower e il boost algoritmico che si è costruito su misura.

    Attorno a lui, una galassia quasi interamente rossa: Pop Base, Catturd, Jackson Hinkle, Libs of TikTok, Laura Loomer, Scott Presler. Gli account blu, quelli che Silver classifica come liberal, sono pochi e marginali. Ma il dato più importante, forse, non è lo squilibrio politico, quello lo sapevamo già, ma è la qualità di ciò che genera engagement.

    Catturd preferito al New York Times: la vittoria della spazzatura

    C’è un dettaglio nel grafico di Silver che va evidenziato, ed è l’account Catturd, un profilo satirico di estrema destra, che genera più engagement del New York Times. Sì, si chiama letteralmente «Catturd» e che pubblica contenuti di qualità infima. E grazie alla spinta dell’algoritmo supera in interazioni una delle testate giornalistiche più importanti del mondo. E non è un caso isolato.

    Come avevo scritto analizzando l’evoluzione dell’algoritmo di X con Grok, la piattaforma di Musk ha progressivamente abbandonato qualsiasi pretesa di neutralità. Quello che vediamo oggi è il risultato finale di un processo iniziato subito dopo l’acquisizione: la costruzione dell’algoritmo del proprietario, come lo definisco ormai da tempo, che premia ciò che il proprietario vuole amplificare e penalizza ciò che vuole silenziare.

    Non si tratta di crescita organica, è ingegneria algoritmica

    Qualcuno potrebbe sostenere che questo spostamento rifletta semplicemente le preferenze degli utenti, che la destra americana sia più attiva sui social media, che si tratti di una dinamica organica.

    Ma poi i fatti raccontano una storia diversa. Prima dell’acquisizione di Musk, gli account con più engagement su Twitter erano figure come Taylor Swift, Barack Obama, Cristiano Ronaldo: celebrità che erano seguite da milioni di follower senza particolari spinte algoritmiche. Twitter lasciava che la rilevanza emergesse dalle interazioni reali degli utenti.

    Oggi quella che abbiamo sotto gli occhi è una situazione radicalmente diversa.

    Musk si è costruito un boost algoritmico personale – algoritmo del proprietario in purezza. I link esterni vengono sistematicamente penalizzati, una strategia che Silver definisce «miope» perché trasforma X in un giardino recintato dove i contenuti di qualità non hanno ragione di entrare.

    Gli account con la spunta blu legacy, quelli che avevano ottenuto la verifica prima dell’era Musk, sono stati progressivamente condannati all’irrilevanza. E il sistema di monetizzazione premia chi rimane sulla piattaforma e genera engagement, non chi produce contenuti verificati o approfonditi.

    Silver usa una metafora ecologica molto efficace per descrivere questo fenomeno. Infatti paragona X a un’isola remota dove, per mancanza di competizione, si sviluppano creature strane.

    È il cosiddetto effetto isola: in assenza di predatori naturali, prosperano specie che non sopravviverebbero in un ecosistema più competitivo. Il drago di Komodo esiste solo perché vive su isole isolate dell’Indonesia.

    In buona sostanza, Catturd esiste solo perché l’algoritmo di X lo protegge dalla competizione con contenuti di qualità.

    X, come i social media, sempre meno rilevanti per contenuti di qualità

    I social media, e X in particolare, stanno diventando sempre meno rilevanti per chi produce contenuti di qualità.

    Il New York Times ha 53 milioni di follower su X, eppure i suoi tweet generano spesso poche centinaia di like. È una sproporzione che non si spiega con il declino dell’interesse per il giornalismo. Ma si spiega con un algoritmo che penalizza sistematicamente i link esterni e i contenuti che portano gli utenti fuori dalla piattaforma.

    L’algoritmo del proprietario ha vinto

    Come avevo raccontato qui su questo blog, fin dall’inizio della vicenda Twitter/Musk, l’obiettivo dell’acquisizione non è mai stato quello dichiarato.

    Non si trattava di salvare la libertà di espressione o di combattere la censura.

    Si trattava di costruire una macchina di amplificazione per un certo tipo di contenuti: quelli che servono agli interessi politici e commerciali del proprietario. E quel progetto, possiamo dirlo, è andato a buon fine.

    Il grafico di Nate Silver non è solo una fotografia dello stato attuale di X. È la prova documentale di un’operazione riuscita.

    L’algoritmo del proprietario ha ribaltato completamente l’ecosistema della piattaforma, trasformandola da spazio di conversazione pubblica a camera di risonanza per disinformazione, teorie complottiste e propaganda politica.

    Resta da vedere se questa traiettoria sia reversibile o se X sia destinata a diventare sempre più marginale nel dibattito pubblico.

    Il processo già in corso coinvolge tutte le piattaforme social media, nessuna esclusa.

    L’algoritmo del proprietario ha vinto la battaglia per il controllo della piattaforma. Ma potrebbe aver perso la guerra per la sua rilevanza. Staremo a vedere, come sempre.

  • Mark Zuckerberg e Elon Musk, da nemici giurati a complici

    Mark Zuckerberg e Elon Musk, da nemici giurati a complici

    I documenti depositati nella causa Musk contro OpenAI rivelano messaggi privati tra i due CEO. Zuckerberg offrì supporto al DOGE e Musk propose un’offerta congiunta da 97,4 miliardi di dollari per acquisire OpenAI. Una convergenza strategica che ribalta anni di rivalità pubblica.

    Mark Zuckerberg si è offerto di aiutare Elon Musk e il suo DOGE.

    Lo rivelano i documenti depositati venerdì scorso nell’ambito della causa che Musk ha intentato contro Sam Altman e OpenAI, e vale la pena soffermarsi un attimo perché racconta molto più di un semplice scambio di messaggi tra due miliardari.

    Vi ricordate dove li avevamo lasciati? Era il 2023, e i due si stavano organizzando per sfidarsi a duello, un combattimento che avrebbe dovuto tenersi addirittura al Colosseo, con l’allora ministro Sangiuliano che si era offerto come mediatore istituzionale per ospitare lo scontro del secolo.

    L’inizio della rivalità tra Zuckerberg e Musk

    Una rivalità che in realtà affondava le radici molto più indietro. Un esempio si ebbe nel 2016, quando l’esplosione di un razzo SpaceX distrusse un satellite Facebook che si trovava a bordo. Da quel momento in poi i due sono andati avanti con provocazioni reciproche e dichiarazioni al vetriolo.

    Eppure, nel corso dell’ultimo periodo, qualcosa è cambiato, e i documenti giudiziari ci permettono oggi di ricostruire la sequenza con una certa precisione.

    Il primo segnale risale al 13 dicembre 2024, quando Zuckerberg scrisse a Musk per avvisarlo personalmente che qualcuno aveva fatto trapelare la lettera con cui Meta chiedeva all’Attorney General della California di bloccare la transizione di OpenAI verso un modello for-profit. Una lettera in cui Meta sosteneva esplicitamente che Musk fosse “qualificato e ben posizionato per rappresentare gli interessi dei californiani” nella sua battaglia legale contro Altman.

    Zuckerberg e Musk, insieme nel segno di Trump

    Poi è arrivato il 20 gennaio 2025, il giorno dell’insediamento di Trump, e la scena che si è presentata agli occhi del mondo ha reso evidente ciò che stava accadendo.

    Musk, Zuckerberg, Bezos e Pichai sedevano insieme in prima fila, più vicini al nuovo presidente di molti dei suoi stessi consiglieri, gli unici non familiari in grado letteralmente di sussurrare all’orecchio di Trump o Vance dal palco.

    Ciascuno di loro aveva versato un milione di dollari per l’evento, e Zuckerberg aveva annunciato pochi giorni prima l’abbandono del fact-checking sulle piattaforme Meta, una svolta che segnava un allineamento politico ormai inequivocabile.

    Ma è il 3 febbraio 2025 che la convergenza diventa operativa, come riportano i documenti.

    Mark Zuckerberg e Elon Musk, da nemici giurati a complici
    Mark Zuckerberg e Elon Musk, da nemici giurati a complici

    E uniti contro OpenAI di Sam Altman

    Alle 22:04, Zuckerberg scrive a Musk congratulandosi per i progressi del DOGE e offrendo supporto concreto: i suoi team sono pronti a rimuovere i contenuti che minacciano o fanno doxxing ai collaboratori di Musk. “Fammi sapere se c’è qualcos’altro che posso fare per aiutare”, conclude.

    Meno di mezz’ora dopo, Musk risponde con un cuore e rilancia: “Sei aperto all’idea di fare un’offerta per la proprietà intellettuale di OpenAI con me e alcuni altri?”. Zuckerberg propone di discuterne a voce, Musk dice che chiamerà la mattina dopo.

    Una settimana più tardi, il 10 febbraio, un consorzio guidato da xAI presenta un’offerta non sollecitata da 97,4 miliardi di dollari per acquisire OpenAI, con l’obiettivo dichiarato di bloccare la sua trasformazione in società for-profit. Zuckerberg alla fine non firmò la lettera d’intenti e il board di OpenAI respinse l’offerta, ma il fatto che l’ipotesi sia stata contemplata racconta una storia che va ben oltre i rapporti personali tra i due.

    Zuckerberg, Musk e Trump: una convergenza strategica

    Quello che emerge da questa ricostruzione è un quadro di convergenza strategica guidata da interessi comuni. OpenAI e Sam Altman rappresentano una minaccia esistenziale sia per xAI di Musk che per gli investimenti di Meta nell’intelligenza artificiale, e questo ha creato le condizioni per un allineamento che sarebbe stato impensabile solo due anni fa.

    A questo si aggiunge l’abbraccio condiviso dell’amministrazione Trump, con Meta che ha abbandonato le politiche di moderazione dei contenuti proprio alla vigilia dell’insediamento, e la consapevolezza che la transizione di OpenAI verso il for-profit minaccia entrambi i loro modelli di business.

    Un abbraccio che proprio in questi giorni ha trovato una nuova formalizzazione: mercoledì scorso Trump ha nominato Zuckerberg nel President’s Council of Advisors on Science and Technology, il panel che fornirà consulenza alla Casa Bianca su intelligenza artificiale e politiche tecnologiche.

    Dal duello al Colosseo all’offerta congiunta per OpenAI il passo è stato più breve di quanto chiunque potesse immaginare, e forse questo ci dice qualcosa su come funzionano davvero le dinamiche di potere nella Silicon Valley di oggi.

  • La sentenza del caso KGM segna la fine di un’era dei social media

    La sentenza del caso KGM segna la fine di un’era dei social media

    Una giuria di Los Angeles ha condannato Meta e YouTube per aver progettato piattaforme che creano dipendenza nei minori. È la prima sentenza di questo tipo nella storia. I 6 milioni di dollari di risarcimento sono una cifra simbolica, ma il principio che si afferma potrebbe cambiare per sempre il modo in cui pensiamo ai social media.

    Da anni si sostiene che i social media stanno cambiando, ed è vero. Ma molto spesso quando si fa questa affermazione non ci si rende davvero conto in cosa consista in questo cambiamento.

    Infatti, non sempre ce ne accorgiamo subito, perché il cambiamento vero raramente arriva con i titoli cubitali che ci aspetteremmo. Ma la data 25 marzo 2026 verrà ricordata per essere quello momento specifico in cui le piattaforme social media sono davvero cambiate.

    In un’aula di tribunale di Los Angeles, dodici persone comuni hanno stabilito qualcosa che nessuna istituzione, o quasi, era riuscita a stabilire prima: le piattaforme social possono essere ritenute responsabili per il modo in cui sono progettateNon per i contenuti che ospitano, ma per il design stesso.

    Come già raccontato su queste pagine, la sentenza riguarda una ragazza californiana, identificata con le iniziali K.G.M., che ha citato in giudizio Meta e Google. Come detto in altre situazioni, Kaley iniziato a usare YouTube a sei anni, Instagram a nove. Di fronte alla giuria ha raccontato di aver sviluppato depressione, dismorfismo corporeo, pensieri suicidi. Ma la cosa più importante non è la sua storia personale, per quanto drammatica, è il principio giuridico che questa sentenza afferma.

    La sentenza del caso KGM segna la fine di un’era dei social media
    La sentenza del caso KGM segna la fine di un’era dei social media

    Il design dei social media provoca dipendenza

    Per decenni le piattaforme digitali sono state protette dalla Sezione 230 del Communications Decency Act, una norma americana che le esonera dalla responsabilità per i contenuti pubblicati dagli utenti.

    È stata la base giuridica su cui si è costruito l’intero ecosistema dei social media. Ma questa sentenza aggira completamente quel principio. Non accusa Meta e YouTube per i video visti dalla ragazza o per i post che ha letto. Invece li accusa per lo scroll infinito, per le notifiche che interrompono il sonno, per i filtri di bellezza che alterano la percezione di sé, per i loop di engagement progettati per trattenere gli utenti il più a lungo possibile.

    In altre parole: il problema non è cosa c’è sulla piattaforma, ma è come funziona la piattaforma. È una distinzione sottile ma decisiva, e la giuria l’ha accolta. I documenti interni presentati in aula hanno mostrato che Meta sapeva esattamente cosa stesse facendo. Un memo aziendale recitava, traduco io: “Se vogliamo vincere alla grande con i teenager, dobbiamo portarli dentro come tweens”. Un altro documento stimava il valore economico di un tredicenne in circa 270 dollari, sulla base del fatto che gli utenti più giovani hanno una ritenzione a lungo termine molto più alta. La giuria ha visto questi documenti e ha tratto le sue conclusioni.

    6 milioni di dollari simbolici ma sono un precedente

    Diciamolo, sei milioni di dollari per aziende che valgono più di mille miliardi sono una cifra irrilevante e Meta non accuserà nemmeno il colpo.

    Ma non è questo il punto, il punto è che esistono oltre duemila cause simili solo in California, e più di diecimila a livello nazionale negli Stati Uniti. Questa sentenza era un test, quello che in gergo legale si chiama bellwether trial: un processo apripista che serve a capire se una certa teoria giuridica può reggere in tribunale.

    Il confronto che molti stanno facendo è con le cause contro l’industria del tabacco negli anni Novanta. È un parallelo che ha senso, fino ad un certo punto. Anche allora i documenti interni delle aziende dimostrarono che sapevano dei danni causati dal fumo. E anche allora la difesa si basò sulla responsabilità individuale del consumatore. Le prime sentenze furono simboliche, prima che l’intero sistema crollasse. Ma tra i due casi ci sono differenze importanti.

    Il tabacco causava danni fisici misurabili attraverso l’ingestione di una sostanza. Mentre la dipendenza da social media non è ancora riconosciuta ufficialmente come diagnosi clinica. E soprattutto: nessuno vuole abolire i social media, mentre abolire il fumo era un obiettivo ragionevole.

    Forse il parallelo più calzante è un altro, quello con la sicurezza automobilistica degli anni Sessanta. Le automobili non furono abolite, ad un certo punto ci si rese conto che andavano riprogettate con cinture di sicurezza, airbag e altri sistemi di sicurezza.

    Il principio che si affermò allora è lo stesso che potrebbe affermarsi oggi. Ossia, se un prodotto può essere reso più sicuro senza comprometterne la funzione, allora si deve fare in modo che lo diventi.

    I social media provocano dipendenza

    In aula è stata usata una parola che le piattaforme hanno sempre rifiutato: dipendenza.

    Una psichiatra di Stanford ha testimoniato che lo scrolling compulsivo attiva gli stessi circuiti cerebrali della ricompensa attivati dalle droghe, con brevi scariche di dopamina che addestrano gli utenti a cercare continuamente la prossima «meta». Gli studi di neuroimaging mostrano alterazioni cerebrali simili a quelle osservate nella dipendenza dal gioco d’azzardo.

    È un punto su cui vale la pena soffermarsi. Perché la difesa delle piattaforme si è sempre basata su un argomento apparentemente ragionevole: le persone scelgono liberamente di usare questi servizi, quindi la responsabilità è loro.

    Ma se il servizio è progettato specificamente per compromettere la capacità di scelta, allora l’argomento crolla. E questa è esattamente la tesi che la giuria ha accolto.

    La giuria ha anche stabilito che Meta e YouTube hanno agito con dolo, cioè con consapevolezza del danno, o con deliberata indifferenza verso le conseguenze delle proprie scelte progettuali. È una soglia giuridica particolarmente alta nel sistema americano. Non è stata una svista, è stata una scelta deliberata.

    Social media e dipendenza, il contesto UE e italiano

    Questa sentenza arriva dagli Stati Uniti, ma le sue implicazioni ci riguardano direttamente. L’Unione Europea ha già un quadro normativo avanzato con il Digital Services Act, che obbliga le piattaforme accessibili ai minori ad adottare misure per garantire privacy e sicurezza. Le linee guida della Commissione pubblicate nel 2025 raccomandano account dei minori impostati come privati di default, disattivazione di funzionalità che promuovono l’uso eccessivo come autoplay e notifiche notturne, divieto di pubblicità mirata ai minori. La Commissione ha già avviato procedimenti formali contro TikTok.

    In Italia il quadro è più complesso. L’età del consenso digitale è fissata a 14 anni e il Senato sta discutendo un disegno di legge per alzarla  e l’AGCOM ha approvato regolamenti sulla verifica dell’età. Inoltre, una class-action contro Meta e TikTok è stata promossa presso il Tribunale delle Imprese di Milano.

    A tutto questo si aggiunge che l’Istituto Superiore di Sanità stima circa 100.000 adolescenti italiani a rischio di dipendenza da social media. Ma l’approccio italiano resta orientato verso l’educazione digitale piuttosto che verso il divieto o la regolamentazione stringente. Staremo a vedere se questa sentenza americana cambierà qualcosa anche da noi.

    Cosa significa davvero questa sentenza per i social media

    Molti commentatori stanno dicendo che questa sentenza segna la fine dei social media. Non è così, e sarebbe sbagliato raccontarla in questi termini. Quello che questa sentenza segna è la fine di una certa idea di social media: quella in cui le piattaforme potevano progettare qualsiasi meccanismo di engagement senza doversi preoccupare delle conseguenze. Ecco, quella fase è finita.

    Ma c’è un altro aspetto su cui dovremmo riflettere, e che riguarda il futuro più che il passato. I social media che hanno causato i danni a KGM erano già pienamente algoritmici, progettati per massimizzare il tempo sulla piattaforma attraverso sistemi di raccomandazione e loop di engagement.

    Oggi quei sistemi si stanno evolvendo in qualcosa di ancora più pervasivo con l’intelligenza artificiale.

    Meta sta integrando chatbot basati su intelligenza artificiale generativa in Instagram e WhatsApp. Google sta facendo lo stesso con Gemini nei propri servizi. Sono prodotti progettati per creare conversazioni prolungate, relazioni continuative, interazioni che si ripetono giorno dopo giorno.

    Il principio affermato da questa sentenza, e cioè che il design di un prodotto digitale può essere considerato pericoloso se crea dipendenza, potrebbe applicarsi anche a questi nuovi sistemi.

    Se questa sentenza ci insegna qualcosa, è che non possiamo aspettare vent’anni per capire se questi nuovi prodotti stanno causando danni. Dobbiamo agire prima  e questa sentenza ci deve servire da monito. Perché i casi come quello della ragazza californiana potrebbero moltiplicarsi, e in forme ancora più gravi, se non interveniamo ora.

    La partita, va detto, è tutt’altro che chiusa. Meta e YouTube hanno annunciato che faranno appello e le prossime cause potrebbero avere esiti diversi.

    Ma qualcosa si è rotto nel rapporto tra le piattaforme e la società tutta. E difficilmente si potrà tornare indietro.

    Staremo a vedere come si evolverà questa storia.

  • OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    A sei mesi dal lancio dell’app standalone, OpenAI annuncia la chiusura di Sora. L’interesse degli utenti è crollato, l’accordo da 1 miliardo di dollari con Disney salta, e la motivazione ufficiale parla di risorse da destinare alla robotica. Ma il vero problema era un altro, Sora non ha mai avuto una visione.

    In certi momenti, nella vita di un prodotto tecnologico, arriva quello in cui appare evidente che l’entusiasmo iniziale non si è mai trasformato in qualcos’altro. Vale anche per la IA.

    Quel momento per Sora è arrivato ieri, martedì 24 marzo 2026, quando OpenAI ha annunciato su X la chiusura della piattaforma con un questo messaggio: “We’re saying goodbye to Sora”.

    La notizia arriva a sorpresa, possiamo dirlo, proprio il giorno dopo che la stessa OpenAI aveva pubblicato un post sugli standard di sicurezza dell’app. Un tempismo che la dice lunga sulla gestione della comunicazione del momento.

    Sora, 1 milione di download e poi il silenzio

    Quando Sora fu presentato a febbraio 2024, l’effetto fu straordinario. Video generati da semplici prompt di testo con una qualità quasi cinematografica, qualcosa che sembrava già fantascienza. Al punto che Hollywood si allarmò, i creativi si interrogarono sul proprio futuro, e OpenAI si ritrovò con un vantaggio competitivo che sembrava incolmabile.

    Ma quel vantaggio, lo sappiamo, aveva una data di scadenza. Come avevo raccontato alla sua prima apparizione due anni fa, le aspettative intorno a questa tecnologia erano altissime.

    Nel frattempo sono arrivati Runway con Gen-3, Pika, Kling di Kuaishou, Veo di Google. Quando Sora 2 è diventato disponibile al pubblico a settembre 2025, il mercato era già bell’affollato.

    L’app raggiunse comunque la vetta dell’App Store in pochi giorni, con 1 milione di download in dieci giorni, un dato anche più veloce di quello registrato da ChatGPT. Ma quel picco si è rivelato un fuoco di paglia.

    Secondo i dati di Appfigures, a dicembre 2025 i download erano calati del 32% rispetto a novembre, proprio nel periodo in cui la maggior parte delle app tipicamente cresce. E da lì, un declino costante mese dopo mese.

    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto
    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    Sora, una piattaforma nata senza una ragione d’essere

    In ogni caso, c’è una cosa che va detta chiaramente. Sora non ha mai avuto una visione.

    Era stata progettata come una sorta di TikTok generativo, un social network dove gli utenti potevano caricare cameo, ossia brevi video di sé stessi, per poi inserirsi in video sintetici insieme agli amici.

    Ma cosa doveva diventare, esattamente? Uno strumento per creator professionisti? Una piattaforma di intrattenimento? Un motore per la produzione cinematografica? La risposta, in verità, non è mai arrivata.

    Nel vuoto completo di strategia, Sora si è riempito di quello che ormai si definisce AI slop, contenuto AI generato in massa, spesso di qualità discutibile, talvolta ai limiti della legalità. Come video virali di Mario, Pikachu, personaggi Disney usati senza alcuna autorizzazione. Deepfake di Martin Luther King che hanno costretto OpenAI a bloccare temporaneamente l’uso del suo volto sulla piattaforma.

    È una modalità che si riconosce facilmente una volta che la si è vista. E cioè lanciare un prodotto, osservare cosa ne fanno gli utenti, e poi correre ai ripari quando le cose sfuggono di mano. È lo stesso approccio che abbiamo visto con lo spot natalizio di Coca-Cola: la tecnologia da sola non basta, serve una visione.

    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    Disney e 1 miliardo di dollari che non arriverà mai

    L’accordo con Disney annunciato a dicembre 2025 sembrava il tentativo di legittimare ex post un modello nato senza governance. Un miliardo di dollari di investimento, centinaia di personaggi Disney, Marvel, Pixar e Star Wars in licenza per la generazione video, con l’obiettivo di integrare il tutto in Disney+. Un colpo magistrale, sulla carta. Ma ora quell’accordo è saltato insieme alla piattaforma.

    In una dichiarazione rilasciata poche ore dopo l’annuncio di OpenAI, un portavoce di Disney ha confermato l’uscita dall’intesa con toni diplomatici: «As the nascent AI field advances rapidly, we respect OpenAI’s decision to exit the video generation business and to shift its priorities elsewhere.» Tradotto: Disney aveva scommesso su un cavallo che OpenAI ha deciso di ritirare dalla gara. E ora il colosso dell’intrattenimento dovrà trovare altri partner nel settore.

    Robotica e modelli di nuova generazione: la versione ufficiale

    La motivazione ufficiale fornita da OpenAI parla di riallocazione delle risorse.

    Sam Altman, secondo quanto riportato da The Information, ha comunicato ai dipendenti che la chiusura di Sora libererà capacità computazionale per i modelli AI di prossima generazione.

    Il team di ricerca, si legge nella dichiarazione ufficiale, continuerà a lavorare sulla world simulation research per far avanzare la robotica e “aiutare le persone a risolvere compiti fisici nel mondo reale“.

    Ma c’è dell’altro. Secondo il Wall Street Journal, OpenAI sta costruendo una super app che integrerà ChatGPT, gli strumenti di sviluppo Codex e altri prodotti in un’unica interfaccia. Una virata strategica che risponde, va detto, alla crescita di Anthropic e della famiglia Claude, che negli ultimi mesi ha visto un’adozione enterprise sempre più marcata.

    La sfida con i concorrenti, insomma, si gioca altrove. E Sora, con i suoi costi computazionali enormi e i suoi ricavi modesti, non faceva più parte della soluzione.

    La rivalità tra OpenAI e Anthropic si legge bene anche nella stessa antipatia che Altman e Amodei nutrono uno per l’altro. Di conseguenza, le due aziende rappresentano due visioni opposte del futuro dell’IA.

    Sam Altman e il suo modo riconoscibile di gestire le crisi

    Chi segue le vicende di OpenAI riconoscerà un certo schema. Altman ha un modo particolare di muoversi nelle situazioni di crisi, come avevo già raccontato.

    Dichiarazioni pubbliche calibrate, posizionamento dalla parte giusta, e poi azioni che vanno in direzione diversa.

    La chiusura di Sora segue lo stesso copione: il giorno prima un post sulla sicurezza, il giorno dopo l’annuncio della chiusura. Il ringraziamento alla community, la promessa di “condividere presto i dettagli”. E intanto le risorse vengono riallocate verso progetti più redditizi.

    Sora, e l’ammissione che la strategia non c’era mai stata

    OpenAI ha speso risorse computazionali enormi per un prodotto che, in buona sostanza, non generava ricavi significativi, non aveva un modello di business chiaro, e creava più problemi reputazionali che valore.

    La chiusura di Sora non è una rinuncia strategica. È l’ammissione che la strategia non c’era mai stata.

    Resta da capire cosa ne sarà della generazione video nel portafoglio di OpenAI. L’azienda non esce completamente dal settore, funzionalità video rimangono integrate in ChatGPT, ma lo fa da protagonista autonoma.

    Nel frattempo i concorrenti già citati continueranno a sviluppare i propri modelli. E Disney, con il suo miliardo di dollari da investire, cercherà altri interlocutori.

    La partita della generazione video AI, possiamo dirlo, è tutt’altro che chiusa. Ma OpenAI, almeno per ora, ha scelto di non giocarla più.