Categoria: News

In questa categoria si trovano articoli che parlano di comunicazione, condivisione, social media, social network. Insomma, tutto ciò che riguarda il web 2.0 e di come si sta evolvendo

  • Lo scontro Musk-Altman avrà effetti sul futuro dell’intelligenza artificiale

    Lo scontro Musk-Altman avrà effetti sul futuro dell’intelligenza artificiale

    Si è aperto a Oakland il processo Musk-Altman. Restano in piedi solo due accuse: violazione del vincolo non profit e arricchimento ingiustificato. In gioco c’è la rimozione di Altman, l’annullamento della conversione di OpenAI in società a scopo di lucro e una restituzione fino a 134 miliardi. Il verdetto atteso a metà maggio.

    Solo fino a qualche anno fa, nessuno avrebbe mai creduto che Elon Musk avrebbe finito per portare in tribunale Sam Altman per annullare la leadership di OpenAI e per ricondurre la stessa azienda al suo obiettivo originale, ossia quella di società senza scopo di lucro. Oltre alla restituzione di diverse decine di miliardi di dollari.

    Nessuno ci avrebbe creduto, ma da oggi è davvero così. La sintesi non regge in realtà perché il caso arrivato presso l’aula del tribunale federale di Oakland si è trasformato nel corso di questi mesi e resta comunque complesso.

    Cerchiamo di capire perché si è arrivati a questo punto e qual è la posta in gioco. L’esito di questo processo non è scritto da nessuna parte, perché si tratta di una questione che riguarda direttamente Elon Musk e Sam Altman. Ma visto il ruolo che oggi giocano questi miliardari, è lecito sostenere che l’esito di questo processo avrà effetti sul futuro dell’intelligenza artificiale.

    La storia inizia oltre 10 anni fa, quando una promessa arriva poi a valere svariati miliardi di dollari e riguarda da vicino il futuro dell’IA. Elon Musk e Sam Altman dieci anni fa avevano firmato la stessa dichiarazione di intenti, e oggi si trovano in tribunale per stabilire chi di loro due l’ha, infine, tradita. Musk sostiene senza mezzi termini che a tradire è stato Altman.

    La giudice Yvonne Gonzalez Rogers ha avviato la selezione e l’insediamento dei nove giurati (così come prevede l’ordinamento americano) che ascolteranno le prove nelle prossime tre settimane.

    Le arringhe d’apertura sono fissate per oggi, 28 aprile. Da quel momento, e fino a metà maggio, OpenAI dovrà difendere la propria esistenza. E a fare da sfondo, va detto, c’è la quotazione in borsa attesa per il quarto trimestre 2026, valutata diversi trilioni di dollari.

    Lo scontro Musk-Altman avrà effetti sul futuro dell'intelligenza artificiale
    Lo scontro Musk-Altman avrà effetti sul futuro dell’intelligenza artificiale

    Il caso Musk-Altman, le accuse dimezzate

    Quello che arriva in aula non è la causa che Musk aveva depositato nel 2024, adesso è decisamente più ridotta.

    Venerdì 24 aprile Musk ha ritirato di sua iniziativa le accuse di frode e “frode costruttiva” contro Altman. Ufficialmente per “snellire” il dibattimento, ma il risultato concreto è che davanti alla giuria restano solo due capi d’accusa di natura equitativa: violazione del vincolo di destinazione non profit e arricchimento ingiustificato.

    La giuria in questa occasione ha potere solo consultivo. Infatti, sarà la giudice Gonzalez Rogers a emettere la decisione vincolante, in una seconda fase del processo che inizierà il 18 maggio davanti, appunto, alla sola giudice. Questo significa che i titoli che leggeremo nei prossimi giorni, “Musk vince” o “Altman vince”, andranno presi con estrema cautela. La partita vera si gioca dopo, lontano dai giurati.

    Il percorso di pulizia dei capi d’accusa è cominciato da tempo. La causa originaria, depositata presso la corte federale ad agosto 2024, conteneva ben 26 capi d’accusa. Tra questi c’erano l’associazione a delinquere ai sensi del RICO, le violazioni delle norme antitrust dello Sherman Act, la pubblicità ingannevole. Tutte decadute.

    RICO sta per Racketeer Influenced and Corrupt Organizations Act, una legge federale americana del 1970. Nata per colpire la mafia italoamericana, quando i procuratori non riuscivano a incastrare i boss perché i singoli reati venivano commessi dai sottoposti.

    In questo contesto, Musk sosteneva che OpenAI, Altman, Microsoft e altri avessero costruito uno schema fraudolento sistematico per appropriarsi degli asset della nonprofit, e che quindi rientrassero nella definizione di organizzazione corrotta secondo il RICO.

    Nel corso dei mesi dalla deposizione, la giudice Gonzalez Rogers ha provveduto ad attivare un esame attento dei capi d’accusa. Il processo che verrà celebrato è un guscio di quello che Musk aveva immaginato. Resta però la richiesta più ambiziosa, quella sui risarcimenti miliardari e qui le cifre sono esorbitanti.

    Le richieste di Elon Musk

    Il 7 aprile scorso Musk ha depositato la sua richiesta formale di risarcimenti per la seconda fase. Vuole la rimozione di Altman da amministratore delegato e da direttore della Foundation. Chiede la rimozione di Greg Brockman da presidente della società di pubblico beneficio. E vuole l’annullamento della conversione del 28 ottobre 2025 che ha trasformato OpenAI in società a scopo di lucro.

    Inoltre, vuole una restituzione che potrebbe arrivare a circa 134 miliardi di dollari.

    Va specificato che questa somma non finirebbe nelle tasche di Musk. Andrebbe alla OpenAI Foundation, l’ente di beneficenza che oggi controlla il 26% della società. Musk, in altre parole, ha strutturato la sua causa in modo da non incassare nulla personalmente. Il suo guadagno finanziario di fronte ad una eventuale una vittoria sarebbe zero.

    È un punto che al momento sta sfuggendo ai più, ma che vale la pena evidenziare. Quello che in sostanza chiede Musk è la rimozione di Sam Altman e di Greg Brockman dai loro incarichi.

    La difesa di OpenAI e la benedizione dei due procuratori

    Nonostante la causa, il 28 ottobre 2025 OpenAI ha completato la sua ristrutturazione societaria. OpenAI, Inc. è diventata la OpenAI Foundation, un ente nonprofit. Il braccio operativo è diventato OpenAI Group PBC, una società di pubblico beneficio del Delaware. La fondazione detiene il 26% della nuova entità, circa 130 miliardi di dollari di valore. Microsoft detiene il 27%, circa 135 miliardi.

    Ora, sia il procuratore generale californiano Bonta sia quello del Delaware Jennings hanno emesso dichiarazioni di non obiezione sulla ristrutturazione, dopo aver ottenuto da OpenAI concessioni che assicurano che gli asset rimangano “irrevocabilmente dedicati a scopi di beneficenza”. E qui si entra nel cuore della questione giuridica.

    Negli Stati Uniti, i procuratori generali statali sono i custodi pubblici degli enti di beneficenza. Sono loro, in via primaria, a dover vigilare che un ente fondato per scopi benefici rispetti le sue promesse. Se i due procuratori generali competenti hanno esaminato le carte e non hanno sollevato obiezioni, la pretesa di Musk secondo cui OpenAI avrebbe violato proprio quel vincolo di destinazione benefica entra in tribunale già molto azzoppata. Ma su questo si vedrà a fine processo.

    Da una parte, Musk e il suo team punteranno tutto sulle prove documentali interne. Dall’altra, OpenAI risponderà agitando la firma dei due procuratori generali e l’approvazione formale dello Stato della California. La giuria dovrà decidere a quale autorità prestare fede. E la giudice ha già definito “un testa o croce” il merito della questione, quando a marzo 2025 ha respinto l’ingiunzione preliminare richiesta da Musk. Si tratta di un pronunciamento che non sbilancia la giudice verso nessuna delle parti in causa.

    Un passo indietro al 2015, quando nacque OpenAI

    OpenAI nasce l’11 dicembre 2015 come ente nonprofit del Delaware. La missione dichiarata è ambiziosa, persino ingenua per i tempi che sarebbero venuti dopo: avanzare l’intelligenza digitale “nel modo più probabile per beneficiare l’umanità”, senza il vincolo del profitto.

    I co-presidenti sono Sam Altman, allora a capo di Y Combinator, ed Elon Musk. Il direttore tecnico è Greg Brockman, il direttore scientifico Ilya Sutskever.

    L’annuncio si regge su una promessa di finanziamento da un miliardo di dollari, sottoscritta da Musk, Altman, Brockman, Reid Hoffman, Peter Thiel, Jessica Livingston, AWS, Infosys e YC Research. Solo che, come emergerà anni dopo, di quel miliardo entro il 2021 era stato effettivamente versato qualcosa come 133 milioni.

    E la quota di Musk, oggetto di contestazione che attraversa tutto il processo, è inferiore a 45 milioni di dollari secondo la contabilità di OpenAI. Una ricostruzione di Semafor del marzo 2023 parlava di 100 milioni da fonti anonime, ma i documenti evidenziano la cifra più bassa.

    Lo scarto tra impegni annunciati e denaro effettivamente messo a disposizione non è un dettaglio. È parte di come Musk costruisce oggi la sua tesi del “patto fondativo”.

    La rottura del 2018 e la versione di Musk

    Musk lascia il consiglio di OpenAI il 20 febbraio 2018. La versione che fornisce allora ai dipendenti è quella del conflitto di interessi: Tesla sta correndo verso l’intelligenza artificiale per la guida autonoma, e quindi non si può più stare in due posti contemporaneamente.

    È una versione plausibile, accettabile, ben struttturata. Solo che, come ha rivelato per primo Semafor cinque anni dopo e come hanno poi confermato le email pubblicate da OpenAI nel marzo 2024, non risulta essere la versione completa.

    A fine 2017, Musk aveva detto ad Altman che OpenAI era “rimasta fatalmente indietro rispetto a Google”. E aveva proposto di prenderne la guida lui stesso, come amministratore delegato, con la maggioranza delle quote e il pieno controllo del consiglio. In alternativa, di fondere OpenAI dentro Tesla. Brockman, Sutskever e Altman rifiutarono questa proposto. E Mus di conseguenza se ne andò.

    Il 15 settembre 2017, prima ancora di rompere con Altman, Musk aveva fatto incorporare in silenzio una società del Delaware chiamata Open Artificial Intelligence Technologies, Inc., attraverso il suo fiduciario personale Jared Birchall.

    Una società già strutturata come società di pubblico beneficio, esattamente la stessa forma giuridica che Musk oggi accusa OpenAI di aver scelto per tradire la missione. La trovata la racconta OpenAI nel suo blog ufficiale, e i giudici l’hanno ammessa come prova al processo.

    In una mail del 1° febbraio 2018, Musk inoltrò una proposta secondo cui OpenAI avrebbe dovuto “agganciarsi a Tesla come sua mucca da mungere”, scrivendo che era “esattamente giusto”. Quando lasciò, disse allo staff che la “probabilità di successo” di OpenAI era zero, e ritirò la quota residua del suo impegno. Il discorso sul conflitto Tesla, secondo Semafor, “non fu accolto bene. La maggior parte non si bevve completamente la storia”.

    Una cosa è raccontare di essersene andati per principio. Un’altra è essersene andati dopo aver provato a prendersi tutto. Il processo che si è aperto ieri cercherà di stabilire quale delle due versioni risulterà essere quella vera.

    L’accelerazione di OpenAI e il ruolo di Microsoft

    Il 30 novembre 2022, OpenAI lancia ChatGPT. Nel giro di cinque giorni il chatbot raggiunge un milione di utenti e a gennaio 2023 sono già 100 milioni gli utenti attivi mensili, l’adozione consumer più veloce della storia. La valutazione di OpenAI esplode. Da circa 14 miliardi di dollari nel 2021 si passa a 29 miliardi a gennaio 2023, a 86 miliardi a fine dello stesso anno, fino agli oltre 850 miliardi di oggi.

    In quel passaggio, Microsoft consolida la sua presenza con un investimento da circa 10 miliardi di dollari, che porta il totale dei suoi versamenti vicino ai 13 miliardi. Una struttura societaria complessa le riconosce il 75% dei profitti fino al recupero del capitale, poi il 49% fino a un tetto di circa 92 miliardi.

    Una struttura che, secondo Musk, consolida quello che lui stesso definisce un cartello tra OpenAI, Microsoft e l’industria del cloud. Il giudice però ha respinto in via definitiva questa tesi: l’accusa antitrust è caduta, e i due dirigenti che la rendevano possibile, Reid Hoffman e Deannah Templeton, si sono dimessi prima che la causa arrivasse in aula.

    Resta in piedi solo un capo di accusa contro Microsoft, ossia quello di concorso nella violazione del vincolo di destinazione non profit. Per questo Microsoft ha solo cinque ore di tempo davanti alla giuria, contro le venti riservate a Musk e a OpenAI.

    Per contrastare OpenAI, Musk fonda xAI

    Il 9 marzo 2023, mentre ChatGPT porta nel mondo la sua IA generativa, Musk fonda silenziosamente X.AI Corp. in Nevada. La presenta pubblicamente il 12 luglio 2023 dagli studi di Tucker Carlson, descrivendola come “TruthGPT”, un’alternativa a ChatGPT che secondo lui sarebbe “addestrato a essere politicamente corretto”. Il chatbot, ribattezzato Grok, viene lanciato su X il 4 novembre 2023.

    A marzo 2025, la fusione tra xAI e X porta il valore complessivo del veicolo intorno ai 113 miliardi. A febbraio 2026, SpaceX assorbe xAI in un’operazione tutta in azioni a una valutazione combinata di circa 1,25 trilioni di dollari.

    Tutto questo costruisce un contesto che offre ad OpenAI un argomento forte da portare in questo processo: Musk non sta combattendo solo per dei principi, sta combattendo anche per un’azienda concorrente che brucia un miliardo di dollari al mese e che ha bisogno di bloccare proprio OpenAI per poter crescere.

    Le risposte giudiziarie di OpenAI, depositate il 9 aprile 2025, inquadrano esplicitamente la causa di Musk come una campagna integrata di molestie a beneficio di xAI: la campagna social “Scam Altman”, l’offerta-fantoccio da 97,4 miliardi del febbraio 2025, l’uso strumentale del contenzioso. Tutto, secondo OpenAI, andrebbe letto come uno strumento di competizione.

    Cosa rischia davvero ciascuno dei protagonisti

    Arrivati a questo punto, dopo aver cercato – si spera bene – di ricostruire il percorso che ha portato fino a oggi, possiamo provare a capire cosa concretamente è in gioco per ciascuno dei protagonisti.

    Per Sam Altman, il rischio è il ruolo di CEO di OpenAI

    Per Altman, il rischio diretto passa dalla richiesta di Musk di rimuoverlo da amministratore delegato di OpenAI e da direttore della Foundation, oltre alla restituzione delle sue quote.

    Se la giudice Gonzalez Rogers decidesse di prendere o meno in considerazione questa strada è una questione tutta da vedere, perché OpenAI sostiene che non è al momento una procedura prevedibile. Va specificato, peraltro, che nessun rinvio penale è stato pubblicamente riportato contro Altman. I capi di accusa di frode sono stati ritirati dallo stesso Musk venerdì scorso.

    Il rischio reputazionale, però, è molto più evidente. In fase di processo emergerà sicuramente un messaggio del 2017 in cui Altman scriveva a Musk “resto entusiasta della struttura nonprofit!”, in un momento in cui le discussioni interne avevano già imboccato la strada del for profit.

    E farà emergere il diario personale di Brockman del 2017, in cui il direttore tecnico ammetteva che “sarebbe sbagliato rubare la non-profit” a Musk. Il consiglio di OpenAI, presieduto da Bret Taylor, appare per ora solido, ma le testimonianze potrebbero giocare un certo peso all’interno del CdA.

    Per Elon Musk, il rischio è la sua credibilità

    Il rischio finanziario diretto di Musk, come abbiamo già visto, è teoricamente pari a zero, perché qualunque tipo di risarcimento finirebbe alla Foundation e non a lui.

    Ma i contro-ricorsi di OpenAI per la seconda fase chiedono danni compensativi non quantificati e un’ingiunzione che impedisca ulteriori interferenze. E c’è un punto, soprattutto, su cui OpenAI ha intenzione di insistere. Ed è quello delle email del 2017 e del 2018 in cui Musk contemplava una fusione con Tesla, e l’incorporazione segreta della società del Delaware del settembre 2017. Si tratta, secondo OpenAI, di email che contraddicono direttamente la narrazione che lui stesso porta in tribunale. La sua credibilità è quindi davvero a rischio.

    Va aggiunto che Musk ha altri fronti aperti contemporaneamente. La causa SEC sulla mancata comunicazione delle quote in Twitter è in attesa di processo dopo il rigetto della richiesta di archiviazione del 3 febbraio scorso.

    E nel caso Pampena, una giuria ha già stabilito il 20 marzo 2026 che Musk fece dichiarazioni false agli azionisti di Twitter, con danni potenzialmente fino a 2,6 miliardi di dollari ancora pendenti. Una sconfitta in tribunale a Oakland, anche solo davanti ad una giuria consultiva, andrebbe a sommarsi a un quadro già complicato.

    Per OpenAI, il rischio è strutturale e tocca la quotazione in borsa

    La minaccia più grande per OpenAI come organizzazione è la richiesta di annullare la conversione del 28 ottobre 2025. Significherebbe smontare l’intera architettura societaria che oggi vale più di 850 miliardi di dollari.

    La salita, lo abbiamo detto, è ripida per via della benedizione dei due procuratori generali, ma non è impossibile. E in mezzo c’è un altro elemento concreto, di cui si parla poco: OpenAI ha esplicitamente segnalato la causa Musk come fattore di rischio nella documentazione distribuita agli investitori in vista della quotazione in borsa attesa per il quarto trimestre 2026.

    Sull’altro versante, OpenAI sta effettivamente guadagnando terreno anche nel governo federale. Il contratto del Pentagono da 200 milioni di dollari, assegnato a giugno 2025, vale fino a luglio 2026. E il 27 febbraio scorso, l’amministrazione Trump ha messo al bando Anthropic a livello federale, dopo che la rivale aveva rifiutato casi d’uso legati ad armi autonome e sorveglianza di massa, e ha annunciato un nuovo accordo con OpenAI. Un quadro che, sul piano commerciale, va in direzione opposta a quella che Musk vorrebbe.

    In gioco è anche il futuro della IA

    La sentenza che il giudice Gonzalez Rogers emetterà verso la metà maggio non risolverà solo il duello tra Musk e Altman. Ma stabilirà un precedente sul fatto che entità fondate come non-profit possano poi convertirsi in società di lucro onorando, almeno formalmente, l’originario vincolo benefico.

    Quello stesso modello regge oggi anche Anthropic, che è nata fin dall’origine come società a scopo di lucro ed è oggi valutata intorno ai 350 miliardi di dollari. E sarebbe il modello a cui si guarderanno tutti i laboratori di intelligenza artificiale che dovessero seguire la stessa strada. Una vittoria di Musk congelerebbe l’architettura; una sconfitta, al contrario, validerebbe il modello e libererebbe la strada per la quotazione in borsa di OpenAI e per ristrutturazioni simili in tutta la Silicon Valley.

    E sullo sfondo c’è Stargate, il progetto infrastrutturale da 500 miliardi di dollari su quattro anni, annunciato il 21 gennaio 2025 con Trump, Altman, Larry Ellison e Masayoshi Son. Al momento in forte ritardo, ma resta la cornice politica di un progetto che dovrebbe ridisegnare l’infrastruttura americana dell’intelligenza artificiale. Un verdetto contro OpenAI complicherebbe anche questo disegno.

    Cosa osservare nelle prossime tre settimane

    La prima fase del processo, quella davanti alla giuria consultiva, dovrebbe concludersi entro metà maggio. Le venti ore a disposizione di ciascuna parte voleranno via e poi ci sono i testimoni. Musk, Altman, Brockman; e poi Satya Nadella, l’amministratore delegato di Microsoft, che testimonierà per la difesa; Ilya Sutskever, il co-fondatore che ha votato per rimuovere Altman nel 2023; Mira Murati, l’ex direttrice tecnica di OpenAI che oggi guida Thinking Machines; Helen Toner, l’altra ex consigliera che a novembre 2023 fece parte del consiglio che destituì Altman per cinque giorni; Shivon Zilis, madre di quattro dei figli di Musk.

    Tre cose, in particolare, vale la pena guardare. La prima è come Brockman gestirà al controesame il proprio diario del 2017. Quel diario, che parla della struttura nonprofit come di “una bugia”, è la prova più pesante che Musk porta in aula.

    La seconda è come verrà letto il messaggio “sei il mio eroe” che Altman mandò a Musk nel febbraio 2023, ammesso come prova ma soggetto a interpretazioni opposte.

    La terza, e forse la più importante, è se la testimonianza di Nadella confermerà o no l’allineamento tra Microsoft e OpenAI. Perché il giorno dopo il verdetto della giuria, sia esso favorevole o meno a Musk, è da quell’allineamento che dipende il futuro di OpenAI.

    Il 18 maggio, finita la prima fase, la giudice Gonzalez Rogers aprirà la seconda, ossia quella senza giuria e che sarà quella vincolante. Sarà in quel momento, e non davanti ai nove giurati, che si deciderà se OpenAI uscirà da questo processo intatta, ridimensionata o smembrata.

    Per concludere questo percorso di ricostruzione di questa vicenda del caso Musk contro Altman, sperando di essere riuscito nell’intento di rendere tutto più chiaro, non resta che seguire le varie fasi per osservare se ci saranno colpi di scena.

    Il verdetto della prima fase, come già ricordato, è atteso a metà maggio, mentre quello vincolante, qualche settimana dopo. Vedremo davvero cosa succederà.

  • Ecco perché Instagram lancia Instants dall’Italia e dalla Spagna

    Ecco perché Instagram lancia Instants dall’Italia e dalla Spagna

    Instagram lancia Instants, nuova app per foto effimere senza filtri, partendo da Italia e Spagna. È l’ennesimo tentativo di Meta di sfidare Snapchat dopo oltre dieci anni di tentativi falliti.

    Cambia il mondo, ma a distanza di 10 anni Mark Zuckerberg resta ancora in fissa con Snapchat.

    E come già visto in passato, pur di riuscire a riproporre una funzionalità sulla sua piattaforma, ecco che la copia, la integra nelle sue app principali.

    È una strategia che abbiamo imparato a conoscere in questi anni, sempre con lo stesso obiettivo sullo sfondo e, soprattutto, con lo stesso bersaglio. Ovvero, Snapchat.

    E seguendo questa stessa logica ecco che arriva Instants, la nuova app stand-alone che Instagram ha lanciato ieri, 23 aprile 2026.

    E si tratta di un test di un’app che parte da due paesi nello specifico, ossia Italia e Spagna.

    Una volta aperta, l’app si apre sulla fotocamera e permette di inviare foto che scompaiono dopo una singola visualizzazione, promettendo una condivisione senza ritocchi.

    Promette quasi esattamente quello che già promette Snapchat dal 2011.

    Ma a guardar bene, è una modalità che ricorda molto anche BeReal, non so se la ricordate ancora.

    Ecco perché Instagram lancia Instants dall'Italia e dalla Spagna
    Ecco perché Instagram lancia Instants dall’Italia e dalla Spagna

    Instants, condivisione effimera senza filtri

    L’app Instants promette di condividere momenti reali senza alcun tipo di modifica. Niente filtri, niente ritocchi, una foto che la persona a cui la inviate può vederla una sola volta prima che poi sparisca.

    L’immagine, infatti, resta disponibile per 24 ore, poi sparisce definitivamente. L’idea, almeno nelle intenzioni, è quella di spingere una condivisione più grezza, meno strutturata, più vicina alla conversazione quotidiana che al post costruito per il feed.

    Nulla di originale, sia chiaro, lo si ricordava anche prima.

    Il funzionamento è costruito per impedire quasi ogni forma di editing. Una foto si scatta con un solo tocco, non è possibile caricare immagini dalla galleria del telefono, si può usare esclusivamente la fotocamera interna dell’app.

    L’unica modifica permessa è l’aggiunta di testo sopra l’immagine. Tutto il resto è precluso. La condivisione, poi, avviene con i propri follower o con la lista “Amici più Stretti” e le liste sono sincronizzate tra le due app, quindi non va ricostruita da zero la propria cerchia.

    Meta ha accompagnato il lancio con una dichiarazione: «Per dare alle persone modi a bassa pressione per connettersi con gli amici, stiamo testando un’app chiamata Instants per condividere foto e video casuali nel momento. Stiamo esplorando più versioni di Instants per vedere cosa piace, e ascolteremo la nostra comunità

    Il linguaggio insomma è quello del test aperto, non del lancio definitivo.

    Tanto per essere più precisi, Instants non nasce dal nulla, ma è la versione rinominata e resa autonoma di Shots, la funzione che Meta aveva provato dentro Instagram nel 2025.

    Shots aveva le stesse caratteristiche di Instants, quindi nessun filtro, una sola visualizzazione e poi l’immagine spariva. Funzionava, ma funzionava dentro un’app che ormai è percepita come vetrina e non come spazio di conversazione privata. E quindi, adesso, il tentativo è quello di estrarla dal contesto in cui era nata e darle una vita propria.

    Perché il test di Instants parte dall’Italia e dalla Spagna

    Il fatto che l’esperimento cominci in Italia e in Spagna non è casuale. Si tratta di due mercati europei di dimensione intermedia, con un uso molto intenso dei social media e con un pubblico giovane relativamente attivo su piattaforme di condivisione visual.

    Sono mercati, possiamo dirlo, abbastanza reattivi per offrire dati significativi su test come questi, ma non così centrali da rendere un fallimento irreparabile sul piano reputazionale.

    C’è da aggiungere poi che Snapchat, in Italia e in Spagna, non ha mai davvero sfondato. La sua penetrazione in questi paesi è storicamente inferiore rispetto agli Stati Uniti o al Regno Unito, dove invece è radicato soprattutto tra il pubblico adolescente.

    Partire da questi due paesi significa, in pratica, provare il prodotto su un terreno dove il concorrente principale è più debole e dove i più giovani tendono a usare Instagram e WhatsApp come strumenti primari di conversazione privata e visual.

    Va detto, poi, che l’Italia e la Spagna condividono anche una caratteristica demografica e culturale che Meta conosce bene: un uso molto diffuso di Instagram come infrastruttura di messaggistica informale, ben oltre la funzione originaria di vetrina. In questo senso, Instants si innesta su un’abitudine già consolidata, provando a strutturarla con un’app dedicata.

    L’identità agganciata a Instagram e il nodo dei più giovani

    Instants eredita il grafo sociale di Instagram, ovvero la rete dei contatti che abbiamo già costruito sull’app madre. Da un lato, questo aiuta il lancio, perché non richiede all’utente di ricostruire la propria cerchia di amici da zero, come ricordavamo prima.

    Dall’altro, però, si porta dietro proprio quello che i più giovani cercano di evitare quando usano Snapchat, ossia mescolare la conversazione privata e l’identità pubblica.

    Snapchat ha avuto successo, in fondo, anche per questa ragione. È stato percepito come uno spazio separato, dove la propria identità non era il profilo costruito, ma un luogo più leggero in cui parlare con pochi amici selezionati.

    Instants, invece, entra in scena con il profilo Instagram già addosso. E questo, per molti adolescenti, potrebbe rivelarsi un problema più che una soluzione.

    Ecco perché Instagram lancia Instants dall'Italia e dalla Spagna
    Ecco perché Instagram lancia Instants dall’Italia e dalla Spagna

    La vecchia ossessione di Zuckerberg contro Evan Spiegel

    Per capire perché Meta insista, dopo oltre dieci anni, su questo stesso terreno, bisogna tornare indietro al 2013.

    In quell’anno, come riportato dal Wall Street Journal, Mark Zuckerberg offrì tre miliardi di dollari per comprare Snapchat. Evan Spiegel, l’allora giovane CEO dell’azienda, rifiutò. Spiegel ha raccontato in seguito che Zuckerberg, di fronte al no, sembrò prendere la cosa sul piano personale.

    Da quel momento, Meta ha provato sistematicamente a erodere il territorio di Snap con una serie di cloni e varianti. È arrivato Poke, app stand-alone lanciata sempre nel 2013 e chiusa diciassette mesi dopo. È arrivato Slingshot, provato nel 2014 e spento dopo soli sei mesi. Sono arrivati i Quick Updates di Facebook nel 2016, pensati per spingere la condivisione rapida. Nessuno di questi esperimenti ha mai davvero funzionato.

    L’unica eccezione, come ricorderete, sono state le Stories di Instagram, lanciate nel 2016 con una formula di scadenza a ventiquattro ore che ricalcava in modo piuttosto evidente il formato di Snapchat. Quelle hanno funzionato, eccome.

    E hanno finito per rallentare la crescita di Snap per anni, diventando una parte centrale dell’esperienza di Instagram. Ma il punto è proprio questo, le Stories su Instagram hanno funzionato perché integrate nell’app principale, non perché lanciate come prodotto separato.

    Perché Meta rilancia proprio adesso

    Ma perché Meta sceglie di muoversi di nuovo in questo modo, e soprattutto, perché lo sceglie proprio adesso?

    La risposta più plausibile ha a che fare con lo stato di salute dell’avversario. Snap, la società madre di Snapchat, sta attraversando una fase decisamente difficile. La crescita della piattaforma si è fermata e in alcuni mercati è addirittura arretrata. A inizio aprile di quest’anno, Snap ha annunciato il licenziamento del 16% della sua forza lavoro e il CFO si è dimesso.

    In un quadro del genere, Meta vede un’opportunità.

    Se Snap è costretta a ridurre gli investimenti in promozione e a concentrare le risorse sul lancio dei suoi occhiali in realtà aumentata, ci sono mercati in cui la competizione si fa meno aggressiva. E in quei mercati, una nuova app che replica le stesse funzioni con dietro la potenza di fuoco di Meta potrebbe trovare uno spazio che altrimenti non avrebbe avuto.

    Italia e Spagna, da questo punto di vista, sono anche un campo di prova ideale, perché Snap è storicamente meno presente.

    Criticabile, ovviamente, ma va vista anche come una mossa di pressione competitiva. Meta non deve vincere dappertutto. In realtà, alla società di Zuckerberg basta rubare quote in quei paesi in cui Snap non è ancora radicato, o in quelli in cui sta perdendo terreno, per indebolire ulteriormente un concorrente già in difficoltà.

    Un tempismo che arriva forse troppo tardi

    Altra considerazione, restando sul tempismo, va fatta.

    L’onda della condivisione non filtrata, autentica, a bassa pressione, ha avuto il suo momento di grande popolarità qualche anno fa con BeReal, evocata prima. L’app francese che a un certo punto sembrava destinata a ridefinire il modo in cui i più giovani usano i social. Oggi, quella popolarità si è nettamente ridimensionata e BeReal non è più l’app che prometteva di diventare.

    Il punto è che Instants si inserisce in uno spazio che non è più in crescita come lo era due o tre anni fa. E qui entra in gioco un secondo problema, ancora più sostanziale: molti utenti, per la condivisione rapida e informale, usano già le Stories di Instagram.

    Sono utenti che hanno cioè uno strumento integrato nell’app principale che copre buona parte del bisogno a cui Instants risponde. Perché mai dovrebbero scaricare e gestire un’altra app?

    In teoria, Instants promette qualcosa di diverso dalle Stories, cioè la condivisione uno-a-uno o a piccoli gruppi senza pubblicazione sul feed pubblico.

    In pratica, però, per quella funzione esistono già i messaggi diretti di Instagram, WhatsApp, Messenger. Lo stesso bisogno è coperto, magari in modo meno elegante, da strumenti che l’utente ha già installati e aperti decine di volte al giorno.

    La storia dei cloni Meta e cosa ci dice davvero

    Se guardiamo la sequenza degli esperimenti Meta in chiave anti-Snapchat, il dato più interessante non sono i singoli tentativi, ma la continuità. Zuckerberg non ha mai smesso.

    Per oltre un decennio, la sua azienda ha dedicato risorse, tempo e ingegneri a un obiettivo che dal punto di vista industriale è marginale, perché Snap non è mai stato un concorrente diretto di Facebook o di Instagram. Lo è solo parzialmente, e solo su un segmento specifico di pubblico, quello più giovane.

    Eppure la persistenza è lì, visibile.

    Per Meta non si tratta solo di difendere il proprio mercato, ma di erodere quello degli altri fino a renderlo non più difendibile. Una cosa è costruire un prodotto migliore, un’altra è costruire tanti prodotti simili nella speranza che almeno uno attecchisca. Sono due strategie diverse, e quella che vediamo applicata qui è la seconda.

    Resta da vedere se Instants avrà un destino diverso dai suoi predecessori. La storia, in questo caso, suggerisce di no.

    Le app stand-alone di Meta pensate per sfidare Snapchat hanno quasi sempre fallito, e quando hanno avuto successo è stato perché integrate in un prodotto già esistente. Instants ripete esattamente lo schema che finora non ha pagato.

    La partita vera si gioca sugli occhiali connessi e IA

    Mentre Meta lancia l’ennesimo clone di Snapchat, il terreno vero dello scontro si è spostato altrove.

    Snap sta puntando tutto sui suoi occhiali in realtà aumentata, in arrivo nel 2026. Meta, dal canto suo, sta investendo pesantemente sull’intelligenza artificiale e su nuove infrastrutture, con il ventottesimo data center statunitense appena avviato.

    Le foto effimere, in questo scenario, sono quasi un campo di battaglia residuale.

    E allora la domanda è se valga davvero la pena, per Meta, insistere su un prodotto che probabilmente non cambierà gli equilibri di mercato. La risposta, forse, ha meno a che fare con la logica industriale e più con una dinamica che Meta ha costruito nel tempo. Quando un concorrente si indebolisce, allora ecco che si colpisce. Anche con un’app che, probabilmente, non verrà ricordata più tra qualche anno.

    In buona sostanza, un’azienda che controlla le principali app di messaggistica e social media del pianeta può permettersi di lanciare un prodotto derivativo dopo l’altro, finché uno non funziona. Ecco, chi non ha quelle dimensioni, semplicemente, non può.

    E questo è un aspetto del mercato digitale su cui, prima o poi, toccherà tornare. Il fatto che il primo banco di prova sia l’Italia ci riguarda da vicino, e ci offre una buona occasione per osservare la vicenda direttamente.

    Staremo a vedere, come sempre.

  • X tra le nuove Timeline Personalizzate e la chiusura delle Communities

    X tra le nuove Timeline Personalizzate e la chiusura delle Communities

    X lancia le Timeline Personalizzate, una nuova scheda della Home che si aggiunge a “Seguiti” e “Per Te”. La funzione è disponibile in accesso anticipato per gli abbonati Premium su iOS ed è alimentata da Grok. E arriva la chiusura, dal 6 maggio, di X Communities.

    X ha annunciato alcune novità e lo fa presentandole come se fossero conquiste dell’utente, come restituzione di maggiore controllo e come un atto di personalizzazione finalmente possibile.

    Gli annunci sono arrivati direttamente da Nikita Bier, responsabile di prodotto della piattaforma, con un tono entusiasta. Ma ciò che cambia, nel concreto, è qualcosa di più sottile di quanto possa apparire.

    Partiamo con la prima e importante novità. Le Timeline Personalizzate sono una nuova scheda che si aggiungerà a “Seguiti” e “Per Te” nella Home di X. L’utente potrà fissare un argomento specifico, scegliendolo tra oltre 75 categorie disponibili, e ottenere un feed dedicato a quel tema.

    Arte, finanza, sport, tecnologia, criptovalute, una volta scelto, la piattaforma genera un flusso di contenuti attorno a un singolo soggetto, calibrato sulle abitudini di interazione di ciascun utente.

    Funziona meglio, spiega Bier, su argomenti con cui l’utente è già solito interagire. Il limite tecnico è fissato a dieci argomenti selezionabili contemporaneamente sulla scheda Home, tra topic e liste.

    E qui arriviamo al punto interessante, perché quello che X sta costruendo non è semplicemente un filtro tematico, ma qualcosa di più.

    X tra le nuove Timeline Personalizzate e la chiusura delle Communities

    Grok al centro di tutto, ancora una volta

    Come già raccontato, analizzando come cambia l’algoritmo di X con Grok nel 2026, a gennaio di quest’anno la piattaforma aveva reso pubblico su GitHub il codice sorgente del nuovo algoritmo, scritto in Rust e Python, con Grok come cuore pulsante di tutto il sistema di raccomandazione.

    Quello era già un cambiamento radicale rispetto all’architettura precedente: non più regole manuali fisse, ma un modello di deep learning che analizza oltre 100 milioni di contenuti al giorno e li abbina agli interessi degli utenti in tempo reale.

    Le Timeline Personalizzate, in questo contesto, si inseriscono nella stessa logica, ma aggiungono un elemento nuovo. E cioè la dichiarazione esplicita dell’utente.

    Quindi, non è più solo Grok a dedurre cosa ti interessa dal tuo comportamento passato, ora è l’utente a dire a Grok cosa vuole vedere nella propria timeline. Grok legge ogni post pubblicato sulla piattaforma, lo classifica per argomento e costruisce il feed in base a quella selezione, combinandola con i segnali di personalizzazione già in uso.

    Un portavoce di X ha precisato che il sistema non si basa su parole chiave o hashtag, ma sulla comprensione semantica del contenuto da parte del modello.

    In teoria, è un passo verso la trasparenza e il controllo, nella pratica, rimane un sistema in cui l’intelligenza artificiale decide cosa effettivamente rientra in quell’argomento, come lo interpreta, quanto peso dare ai contenuti di utenti che non segui rispetto a quelli che segui. La lista dei 75 argomenti è fissa e l’utente sceglie dentro un catalogo predefinito.

    Va detto che anche sul fronte della novità in sé, il concetto non è del tutto inedito.

    Già nel 2019 Twitter aveva sperimentato timeline tematiche scorrevoli affiancate al feed principale. Ma Bier, ignorando volutamente il passato, presenta le Timeline Personalizzate come se fossero “uno dei cambiamenti più grandi” nella storia recente della piattaforma. Ma l’idea di feed paralleli governati per argomento è qualcosa su cui Twitter aveva già ragionato anni fa, senza allora affidarsi a un’intelligenza artificiale proprietaria per la selezione.

    Bier e il compito di riportare gli utenti a fidarsi di X

    Forse non tutti sanno che Nikita Bier è stato il fondatore di Gas e TBH, due app social costruite attorno a meccanismi di positività e connessione tra adolescenti, entrambe diventate virali in breve tempo. Gas, in particolare, aveva raggiunto il primo posto negli store americani prima di essere acquisita da Discord. Il suo approccio al prodotto è sempre stato centrato sul coinvolgimento emotivo, sulla rilevanza immediata, sulla capacità di dare all’utente la sensazione di contare.

    Poi, Bier è entrato in X a fine giugno 2025, dopo anni in cui aveva chiesto pubblicamente a Musk di assumerlo. Il suo primo aggiornamento pubblico, ad agosto 2025, parlava di download raddoppiati da quando aveva preso la guida del prodotto e di una timeline “sul punto di fare un salto di qualità”. Quello che stiamo vedendo oggi, con le Timeline Personalizzate, è probabilmente il risultato più visibile di quell’impegno.

    Ma Bier non è arrivato a X in un momento qualsiasi. È arrivato nel mezzo di una trasformazione profonda della piattaforma: l’algoritmo affidato interamente a Grok, la fusione con xAI, la moltiplicazione dei casi di deepfake sessualizzati generati proprio da Grok, le indagini europee, la multa da 120 milioni di euro per violazioni del DSA. In questo contesto, il suo compito non è solo migliorare il prodotto, è anche far tornare gli utenti a fidarsi della piattaforma. Impresa davvero molto complicata.

    Da “Per Te” alle Timeline Personalizzate

    Per capire dove siamo arrivati, vale la pena ripercorrere brevemente la sequenza.

    A ottobre 2025 Musk aveva annunciato che entro fine novembre tutte le euristiche manuali sarebbero state eliminate, lasciando Grok come unico responsabile delle raccomandazioni.

    A gennaio 2026, il codice era pubblico su GitHub e l’algoritmo era già completamente AI-driven.

    A febbraio 2026, X aveva introdotto i Filtri per Argomento per il feed “Per Te”: una prima versione, più semplice, che permetteva agli utenti iOS negli Stati Uniti e in Canada di selezionare macrocategorie come Politica, Sport, Crypto, AI, per filtrare temporaneamente il feed. Un meccanismo che si azzerava dopo 20 minuti.

    Oggi le Timeline Personalizzate sono qualcosa di diverso e di più strutturato. Non filtrano il feed esistente, ma creano una scheda dedicata, permanente, che affianca le due già presenti. L’utente la troverà lì, ogni volta che apre l’app. E la logica che la governa non è un semplice tag tematico, ma la comprensione del contenuto da parte di Grok, incrociata con lo storico delle interazioni dell’utente.

    Non siamo più di fronte a un filtro temporaneo, ma a una architettura del feed che si diversifica in modo permanente. Ognuno, in teoria, con la propria X.

    X Communities chiude il 6 maggio

    Di fianco all’annuncio del lancio delle Timeline Personalizzate, c’è anche quello che annuncia la chiusura definitiva di X Communities, fissata per il 6 maggio prossimo, motivandola con un “uso in calo”.

    Appena due anni fa, nel marzo 2024, X stessa riportava che il tempo speso nelle Communities era cresciuto del 600% su base annua, con 650.000 post pubblicati ogni giorno al loro interno. L’allora CEO Linda Yaccarino aveva fatto di Communities una delle leve centrali della strategia di engagement della piattaforma.

    Oggi, con Yaccarino fuori dai giochi ormai da tempo e con Bier a guidare il prodotto, quella stessa funzione viene dismessa come se fosse una cosa da eliminare, infatti.

    Le Communities erano uno spazio orizzontale, in cui i contenuti erano in mano agli utenti. Erano gli stessi utenti a creare gruppi tematici, a moderarli, a decidere chi poteva partecipare e cosa si poteva condividere.

    Le Timeline Personalizzate prendono lo stesso bisogno, quello di organizzare le conversazioni per argomento, e lo ribaltano completamente: l’utente sceglie il tema, ma la cura del contenuto la fa Grok. Adesso è l’intelligenza artificiale proprietaria che legge, classifica e seleziona.

    È anche questa una manifestazione concreta di quello che intendo quando parlo di algoritmo del proprietario. Il potere di decidere quali contenuti rientrano in un argomento, quali vengono amplificati e quali restano marginali, si sposta dagli utenti al proprietario della piattaforma, attraverso la sua IA.

    La personalizzazione del contenuto come strategia

    Con il termine “algoritmo del proprietario” le piattaforme social non costruiscono i loro sistemi di raccomandazione per seguire gli interessi degli utenti, ma per servire gli interessi strategici del proprietario della piattaforma.

    L’algoritmo del proprietario decide chi viene amplificato, quali contenuti sono più rafforzati, quali argomenti dominano la conversazione.

    Le Timeline Personalizzate non cambiano questa logica di fondo, ma la rendono più sofisticata.

    Da una parte, offrono all’utente qualcosa di reale, vale a dire la possibilità di costruire un feed tematico senza dover curarsi di seguire account specifici.

    Dall’altra, concentrano ulteriormente il potere di classificazione del contenuto nelle mani di Grok, che è un modello sviluppato da xAI, la società di Musk, che gestisce l’algoritmo dell’intera piattaforma.

    È quindi lecito chiedersi, funzionerà davvero? E chi decide cosa rientra nell’argomento che hai scelto?

    Va poi considerato che in ogni Timeline Personalizzata, la seconda posizione del feed è riservata a un annuncio pubblicitario. Non ad un post organico, non un contenuto selezionato da Grok sulla base del topic, ma un contenuto promosso da un inserzionista.

    Le Timeline Personalizzate, detto senza giri di parole, non sono solo una funzione di personalizzazione, sono anche un nuovo spazio pubblicitario. E arrivano in una fase in cui il business pubblicitario di X, secondo diverse stime, continua a faticare rispetto al periodo pre-acquisizione.

    Immagine che mostra come si presentano le Timeline Personalizzate

    La personalizzazione come argomento di vendita

    Al momento del lancio, le Timeline Personalizzate sono disponibili in accesso anticipato per gli abbonati Premium su iOS. Vi hanno accesso tutti i livelli di abbonamento Premium. Android arriverà presto, ha detto Bier nel suo annuncio, senza indicare una data.

    Non è stato precisato quando la funzione sarà disponibile per gli utenti non abbonati, e non è detto che lo diventi, almeno non con le stesse caratteristiche. Il modello di X, ormai consolidato, è quello di usare le funzionalità avanzate come leva di conversione verso gli abbonamenti.

    Va detto che il lancio si inserisce in una fase in cui X sta cercando di tornare attrattiva per gli inserzionisti e di aumentare il tempo di permanenza degli utenti. Bier ha parlato di mesi di lavoro su questa funzione. I download della piattaforma sono, secondo le sue stesse parole, raddoppiati da quando ha preso la guida del prodotto.

    Le Timeline Personalizzate, in questo contesto, rappresentano un argomento di vendita, non uno strumento pensato prima di tutto per l’esperienza dell’utente. E il fatto che la seconda posizione di ogni feed sia occupata da una pubblicità rende questa lettura difficile da ignorare.

    Parallelamente, ricordiamo che nelle ultime settimane X ha rilasciato anche un aggiornamento di Grok come editor fotografico, con strumenti di sfocatura dei volti e modifiche tramite comandi testuali, pensato anche per rispondere alle critiche sui deepfake sessualizzati che avevano travolto la piattaforma a inizio 2026.

    E a gennaio erano arrivati gli Smart Cashtags, che integrano dati in tempo reale su azioni e criptovalute direttamente nei post. Il quadro che emerge è quello di una piattaforma che sta costruendo, funzione dopo funzione, un ecosistema sempre più chiuso e autosufficiente, dove tutto passa per Grok.

    Ecco, questo era una considerazione che andava fatta alla luce di queste novità che disegnano sempre più un maniera chiara quale sia il volto vero di X. Vale a dire un allontanamento sempre più marcato di ciò che rappresentava Twitter e un avvicinamento sempre più evidente di cosa Musk intendeva realizzare quando parlava di “everything app”.

    E quindi X che diventa una app dove gli utenti possano fare davvero la qualsiasi cosa, e presto anche acquisti e transazioni finanziarie. Ma sempre tutto nelle mani di Grok, l’IA di casa xAI che assume sempre più un ruolo di primo piano all’interno di questa mega app.

    Gli utenti quindi avranno sempre più la consapevolezza di entrare in un contesto sempre più chiuso, sempre più autosufficiente. Un luogo dove sarà sempre più complicato smontare le idee del proprietario della piattaforma.

  • L’Intelligenza Artificiale e il mercato del lavoro in Italia nel 2026

    L’Intelligenza Artificiale e il mercato del lavoro in Italia nel 2026

    Il tema IA e Lavoro è sempre al centro dell’attenzione. I dati del rapporto realizzato da AnitecAssinform ci aiutano a capire come il lavoro si sta trasformando in Italia nell’era della IA.

    L’intelligenza artificiale è ormai a tutti gli effetti il motore che sta ridisegnando, con una velocità impressionante, il perimetro del mercato del lavoro, anche quello italiano.

    Come avevo raccontato analizzando la velocità con cui l’IA generativa ha conquistato il mondo in tre anni, molto più in fretta di Internet, ci troviamo davanti a una tecnologia che non aspetta i tempi della burocrazia o dell’adeguamento culturale.

    I dati presentati ieri, 21 aprile 2026, a Roma, durante il lancio del rapporto “L’IA nel mercato del lavoro italiano” confermano che siamo in una fase di accelerazione senza precedenti. Lo studio, realizzato da Anitec-Assinform (l’Associazione di Confindustria che raggruppa le imprese ICT) in collaborazione con il Politecnico di Torino, ci offre la fotografia più aggiornata di un Paese che sta cercando di gestire e governare una transizione che possiamo definire epocale.

    Il mercato dell’IA in Italia vale 1,24 miliardi di euro

    Il mercato italiano dell’IA vale già 1,24 miliardi di euro, con una crescita del 33% in un solo anno. Ma il dato che fa riflettere non è tanto il valore economico, quanto la pervasività della stessa IA. La ricerca mette in evidenza che la quota di imprese che utilizzano almeno una soluzione di IA è passata dall’8% al 16,4% in soli dodici mesi.

    L’adozione è quindi raddoppiata mentre noi stavamo ancora discutendo se l’IA fosse una minaccia o un’opportunità.

    Se l’adozione raggiungesse il 78%, l’incremento di produttività genererebbe 312 miliardi di euro di valore aggiunto, circa il 18,2% del PIL italiano.

    Eppure, c’è un elemento che caratterizza questa trasformazione ed è il divario che esiste tra le aziende sulla base delle loro dimensioni.

    Se le grandi imprese guidano la carica con tassi di adozione che sfiorano il 50%, le PMI, cuore pulsante dell’economia italiana, restano ancora ai margini. Non si tratta solo di budget da allocare alla IA, è un problema di visione.

    Infatti, solo il 36,7% delle piccole e medie imprese indica la mancanza di competenze interne come il vero ostacolo. In sostanza, è come dire che queste aziende hanno le chiavi di una macchina potentissima ma non sanno “ancora” come guidarla.

    L'Intelligenza Artificiale e il mercato del lavoro in Italia nel 2026
    L’Intelligenza Artificiale e il mercato del lavoro in Italia nel 2026

    Il mito della sostituzione: il tempo “liberato” e il rischio junior

    Spesso si cede alla narrazione sensazionalistica dell’IA che “ruba” il lavoro. Ma come avevo scritto spiegando che l’intelligenza artificiale non ruba il lavoro ma lo ridisegna, il vero impatto è molto più sottile e riguarda la struttura stessa delle professioni.

    Il rapporto evidenzia che, a pieno regime, l’IA potrebbe liberare in Italia ben 5,7 miliardi di ore lavorative all’anno. Non è tempo tolto alle persone, è tempo che l’algoritmo “restituisce” per attività a maggior valore aggiunto.

    Tuttavia, c’è un segnale che non possiamo ignorare e che lo studio definisce con chiarezza ed è l’impatto sui giovani. Nelle professioni più esposte all’IA, l’assunzione di profili entry-level sta rallentando sensibilmente.

    Le aziende non licenziano chi è già dentro, perché l’esperienza senior serve a governare l’algoritmo, ma chiudono le porte d’ingresso. È un rischio strutturale che rischia di spezzare la catena della trasmissione del sapere aziendale.

    In Italia, questo rischio riguarda potenzialmente 4,75 milioni di lavoratori, circa un terzo di quelli esposti, concentrati soprattutto in ruoli routinari nei settori bancario, amministrativo e dei trasporti. È qui che l’esposizione si trasforma in vulnerabilità se non interviene una strategia di reskilling immediata.

    La geografia di una trasformazione cognitiva

    Un altro aspetto fondamentale che emerge dalla ricerca è la natura dell’IA italiana. Non parliamo di robotica fisica – che interessa solo il 6% delle imprese – ma di un’IA “cognitiva” e linguistica. Il 70% delle aziende la utilizza per il text mining e l’analisi dei dati.

    Questa evoluzione sta disegnando una nuova mappa del Paese:

    • Il Nord-ovest traina l’adozione con punte del 19%, ma il Mezzogiorno riserva una sorpresa: qui si concentra la maggior quota di lavoratori con competenze “complementari”, figure che l’IA non sostituisce ma potenzia.
    • Milano e Roma sono diventate le calamite del settore, con annunci di lavoro legati all’IA cresciuti del 246%, creando una pressione senza precedenti sul mercato del recruitment dove il 60% delle imprese dichiara di non riuscire a trovare gli specialisti necessari.

    Tra i settori, l’ICT guida la classifica (oltre 50%), seguito da spettacolo, editoria e telecomunicazioni (35-40%)

    L’IA e la sfida della formazione

    C’è un elemento che però rischia di far fallire l’intera transizione ed è il paradosso della consapevolezza.

    Oltre il 50% degli italiani esprime preoccupazione per l’IA, eppure circa il 60% ammette di non avere competenze digitali adeguate. Siamo spaventati da ciò che non conosciamo e che non sappiamo usare.

    Lo studio propone un’agenda di 23 raccomandazioni, tra cui la sperimentazione di un “conto personale di formazione per l’IA”. L’idea è quella di rendere la formazione un diritto alla portata di tutti, uno “zaino” che segua il lavoratore lungo tutta la carriera.

    Perché il punto non è più chiederci se l’IA cambierà il nostro modo di lavorare – i dati dicono che lo ha già fatto – ma quanto saremo capaci di cambiare noi per restare al passo.

    In questa corsa verso un mercato che supererà i 2,5 miliardi entro il 2028, la vera domanda che dobbiamo porci è un’altra: siamo pronti a trasformare la nostra atavica resistenza al cambiamento in un vantaggio competitivo, investendo sulle persone prima ancora che sugli algoritmi?

    Staremo a vedere se questa volta la formazione diventerà davvero l’infrastruttura strategica del Paese o se resterà l’ennesima occasione sprecata per governare l’IA.

  • Da Tim Cook a John Ternus, Apple alla sfida della IA

    Da Tim Cook a John Ternus, Apple alla sfida della IA

    Tim Cook lascia la guida di Apple dopo quindici anni. Dal 1° settembre 2026 il nuovo CEO sarà John Ternus, responsabile dell’ingegneria hardware e da venticinque anni in azienda. Un passaggio di consegne che segna la fine di un’era e apre una nuova stagione per il colosso di Cupertino.

    La notizia è che Tim Cook lascia la carica di CEO il 1° settembre 2026, dopo quindici anni alla guida del colosso di Cupertino. Al suo posto arriva John Ternus, attuale senior vice president of Hardware Engineering, che diventerà l’ottavo CEO nella storia di Apple. Cook assumerà il ruolo di executive chairman.

    Tim Cook assume la carica di CEO di Apple dopo le dimissioni di Steve Jobs del 24 agosto 2011, poco meno di due mesi prima della sua scomparsa avvenuta il 5 ottobre del 2011.

    Sin da subito era chiaro in quel momento che non sarebbe stato facile per nessuno assumere la guida di un’azienda che era assolutamente in simbiosi con il suo condottiero. Un’impresa ardua che Cook decide si assumere, con coraggio.

    È entrato nella cattedrale del design tecnologico, celebrata in tutto il mondo, in punta di piedi, sempre con grande rispetto e ha cercato di portare il suo stile, quasi all’opposto del suo ingombrante predecessore.

    Nel corso dei 15 anni alla guida del colosso di Cupertino, Tim Cook ha trasformato questo approccio in un sistema, portando l’azienda da una capitalizzazione di circa 350 miliardi di dollari a oltre 4.000 miliardi, diventando uno dei CEO più longevi e di maggior successo nella storia della tecnologia.

    Dal 1° settembre 2026, dunque, Tim Cook diventerà executive chairman del consiglio di amministrazione di Apple.

    Non si tratta di una semplice rotazione manageriale, ma segna la fine di un’era e, insieme, dell’apertura di un’altra. Per capire cosa cambia, bisogna capire chi è stato Cook e chi è Ternus.

    da Tik Cook a John Ternus sfida IA franz russo LK
    Da Tim Cook a John Ternus, Apple alla sfida della IA

    Tim Cook e la sua rivoluzione silenziosa

    Cook nasce il 1° novembre 1960 a Mobile, in Alabama, e cresce a Robertsdale, una cittadina del Sud degli Stati Uniti in cui non ci sono colossi tecnologici né modelli da seguire.

    Si laurea in ingegneria industriale all’Università di Auburn nel 1982 e poi aggiunge un MBA alla Duke University nel 1988. Lavora dodici anni in IBM, arrivando a dirigere l’area distribuzione per il Nord America. Poi Intelligent Electronics, poi Compaq.

    Quando nel 1998 Steve Jobs lo chiama ad Apple, Cook ha già costruito una reputazione solida come curatore di catene di approvvigionamento. Non è un visionario nel senso che l’industria tecnologica associa a quel termine. È qualcosa di diverso: un grande manager che sa far funzionare le cose, da dietro le quinte però.

    Per Cook, tenere merce ferma in magazzino era uno spreco. Lo disse esplicitamente, con quella capacità pragmatica tipica dei grandi manager che curano i cicli produttivi.

    Portò il ciclo di rotazione delle scorte da mesi a giorni. Una rivoluzione silenziosa, lontana dai riflettori, che non genera titoli ma genera profitti. E in quegli anni, Jobs capisce che Cook è la persona che può far funzionare la macchina, mentre lui pensa ai prodotti.

    Quando Jobs muore, sei settimane esatte dopo aver ceduto formalmente la carica di CEO a Cook, molti si chiedono se Apple sopravviverà senza il suo fondatore. La risposta è scritta nei quindici anni successivi, sotto forma di numeri difficili che oggi sono difficili da contestare.

    Tim Cook e John Ternus
    Tim Cook e John Ternus

    Tim Cook e i numeri che nessuno si aspettava

    I dati del periodo Cook raccontano una storia che, ripetuta, rischia di sembrare banale per la sua grandiosità, ma che in realtà non ha precedenti nella storia del colosso di Cupertino.

    Il fatturato di Apple è passato da 110 miliardi di dollari nel 2011 a 416 miliardi nel 2025, un incremento di quasi quattro volte.

    I profitti sono quadruplicati, da 25 miliardi a 112 miliardi. La capitalizzazione di mercato è cresciuta di oltre dieci volte, da 350 miliardi a oltre 4.000 miliardi, rendendo Apple la terza azienda più grande al mondo per valore di borsa.

    Ma la vera eredità di Cook è un sistema. Due scommesse strategiche che, nell’era dei dell’intelligenza artificiale, appaiono più azzeccate di quanto sembrassero al momento.

    La prima è il silicio proprietario. Nel 2020, Apple ha annunciato l’abbandono dei chip Intel in favore dei propri chip della serie M, sviluppati internamente. Una mossa controcorrente che ha dato ad Apple un vantaggio tecnico enorme in termini di prestazioni e consumi energetici, e che si è rivelata quasi perfetta per l’era dell’intelligenza artificiale: i chip M sono ideali per l’elaborazione locale dei modelli AI, il cosiddetto “edge computing”, che Apple ha ribattezzato Apple Intelligence.

    La seconda è i Servizi. Cook ha trasformato l’App Store, iCloud, Apple Music, Apple TV+, Apple Pay e Apple Arcade in un ecosistema che nel 2025 ha generato 106 miliardi di dollari di ricavi, con un margine lordo di circa il 75%, più del doppio rispetto ai margini dell’hardware.

    In buona sostanza, ha costruito una macchina da soldi che gira indipendentemente dall’uscita del prossimo iPhone.

    Tim Cook e i valori come strategia

    C’è poi un aspetto del profilo di Cook che viene spesso trattato come secondario, ma che invece è risultato centrale. Ed è il suo modo di affrontare le grandi questioni sociali e politiche.

    Cook è stato il primo e unico CEO di una società Fortune 500 a dichiarare pubblicamente la sua omosessualità, nel 2014. Ha fatto della privacy degli utenti un pilastro della strategia Apple, in un’epoca in cui i rivali come Google e Meta costruivano i propri modelli di business sulla raccolta dei dati personali.

    Successivamente, ha assunto Lisa Jackson, ex direttrice dell’EPA, l’agenzia americana per la protezione ambientale, per guidare gli impegni di Apple sul clima. Non si è disdegnato di posizione sui diritti civili, sull’immigrazione, sull’uguaglianza.

    Questo però non ha impedito a Cook di navigare acque politicamente difficili con una certa disinvoltura diplomatica. E qui arriviamo al capitolo più controverso dei suoi ultimi anni.

    tim cook inaugurazione secondo mandato trump
    Tim Cook all’inaugurazione del secondo mandato di Trump

    Tim Cook, Trump e il prezzo della sopravvivenza

    La relazione tra Cook e Donald Trump è uno di quei casi in cui la realpolitik e l’immagine pubblica di un CEO importante entrano in collisione in maniera evidenza.

    Durante il primo mandato di Trump, tra il 2017 e il 2021, Cook aveva sviluppato una strategia precisa per gestire il presidente. Niente lobbisti, niente intermediari, niente comunicati ufficiali, ma telefonate dirette, cene riservate, affrontando un argomento per volta.

    Nel 2018, quando Trump introdusse i primi dazi pesanti sulle importazioni dalla Cina, Cook si sedette al tavolo ne momento giusto e ottenne quello che cercava. Ossia esenzioni mirate su iPhone, Apple Watch e componenti Mac. In cambio, promise investimenti e stabilimenti negli Stati Uniti. Gli stabilimenti, va detto, rimasero in gran parte sulla carta mentre le esenzioni furono effettive.

    Con il secondo mandato, però, il copione si è fatto più complicato. Cook ha partecipato alla cerimonia di insediamento di Trump nel gennaio 2025, effettuando la donazione personale di un milione di dollari al fondo per l’inaugurazione presidenziale.

    È la Casa Bianca nell’agosto 2025 portando in dono una teca di vetro su base d’oro a 24 carati costruita con materiali americani, annunciando al contempo nuovi investimenti da 100 miliardi di dollari negli Stati Uniti, per un impegno totale di 600 miliardi. Ha presenziato a una proiezione privata di un documentario su Melania Trump.

    Il tutto mentre i dazi stavano comunque costando ad Apple cifre enormi: solo nell’ultimo trimestre del 2025, Apple ha dichiarato costi aggiuntivi per 1,1 miliardi di dollari legati alle tariffe commerciali. E mentre Trump, in un viaggio a Riyadh, si lamentava pubblicamente dicendo di “avere un piccolo problema con Tim Cook”, in particolare per i piani di Apple di spostare parte della produzione dall’India anziché negli Stati Uniti.

    Cook, di fronte alle critiche, ha adottato una linea difensiva quanto mai calibrata: “Quello che faccio è rapportarmi sulle normative, non sulla politica”. Una distinzione sottile che si è dimostrata difficile da sostenere alla luce dei comportamenti concreti.

    Il giudizio complessivo su questa fase di Cook, possiamo dirlo, è emerso molto diviso.

    In questa ultima fase Cook non ha fatto altro che seguire le politiche di Trump, mettendo da parte la sua visione che era stata chiara nel primo mandato del presidente Usa. Un cambio di passo che ha finito per gettare ben più di qualche ombra sulla sua storia.

    John Ternus, l’uomo dei prodotti

    Ora arriviamo al protagonista del futuro.

    John Ternus, CEO di Apple
    John Ternus, CEO di Apple

    John Ternus nasce in California attorno al 1975, cresce con la passione per il nuoto e per l’ingegneria, e studia ingegneria meccanica all’Università della Pennsylvania, dove gareggia nella squadra universitaria di nuoto. La sua tesi di laurea è già rivelatrice del suo carattere. Infatti, progetta un braccio robotico per l’alimentazione controllabile da persone con tetraplegia attraverso movimenti della testa. È un ingegnere che pensa ai problemi reali delle persone. Arriverà a laurearsi nel 1997.

    Dopo quattro anni a Virtual Research Systems, dove progetta visori per la realtà virtuale, entra in Apple nel 2001, giusto nel momento in cui Steve Jobs sta ricostruendo l’azienda dopo quasi un decennio di declino.

    Entra nel team di product design e da lì non se ne andrà più. Nel 2013 diventa responsabile dell’ingegneria hardware, nel 2020 assume la responsabilità anche dell’iPhone, e nel 2021 viene promosso a senior vice president, il grado più alto del management operativo, diventando il membro più giovane del team esecutivo di Apple. Bloomberg lo descrive come “carismatico e molto apprezzato” internamente.

    Nel corso di quasi venticinque anni in Apple, Ternus ha avuto le mani su praticamente tutto ciò che l’azienda ha prodotto: iPad, AirPods, Apple Watch, Mac, iPhone. È lui a guidare la transizione al silicio proprietario con i chip M ed è sempre lui a seguire lo sviluppo dell’Apple Vision Pro, il visore per la realtà mista che, diciamolo, ha faticato a trovare un mercato dopo il lancio del 2024.

    Ternus ha poi spinto Apple verso materiali più sostenibili e verso prodotti più riparabili, una battaglia culturale non banale dentro un’azienda storicamente orientata a prodotti sigillati e non modificabili.

    John Ternus e le sfide che lo aspettano

    Ternus, 51 anni, arriva alla guida di Apple quasi alla stessa età in cui Cook aveva rilevato il ruolo da Jobs. È una coincidenza notata da molti, ma le condizioni sono diverse, e le sfide anche.

    La sfida più grande che lo attende è ovviamente l’intelligenza artificiale.

    Apple è, stranamente, in ritardo rispetto ai concorrenti su questo fronte. Siri è rimasta indietro mentre ChatGPT e Gemini di Google ridefinivano le aspettative degli utenti. A dicembre 2025, Apple ha cambiato la leadership del suo team AI, sostituendo il precedente responsabile con un veterano di Google.

    L’azienda ha annunciato che lancerà una versione aggiornata di Siri basata sul modello Gemini di Google.

    Il fatto che il nuovo CEO venga dall’ingegneria hardware, e non dai servizi o dall’AI, è un segnale che in molti leggono come la scelta di puntare sull’integrazione tra hardware e intelligenza artificiale, l’”edge AI”, come tratto distintivo rispetto ai concorrenti.

    C’è poi la questione dei dazi e della catena di approvvigionamento. La produzione Apple è ancora concentrata per oltre il 90% in Asia, principalmente in Cina attraverso Foxconn. Spostare quella produzione negli Stati Uniti, come Trump continua a chiedere, sarebbe economicamente devastante per il colosso di Cupertino.

    Secondo le stime di Bank of America, produrre un iPhone in America costerebbe così tanto da far superare al prezzo base i 2.000 dollari. Ternus si troverà quindi a gestire questa tensione strutturale, probabilmente con Cook a fare da scudo diplomatico nel ruolo di executive chairman.

    E poi c’è il dossier Jony Ive. Il leggendario designer che ha dato all’iPhone la sua identità estetica ha lasciato Apple nel 2019, ed è poi passato a OpenAI. Da allora, l’azienda ha continuato a lanciare prodotti eccellenti dal punto di vista ingegneristico, ma la visione estetica radicale che aveva caratterizzato l’era Jobs-Ive si è fatta meno definita. Ternus è un ingegnere, non un designer, sarà interessante osservare se saprà costruire attorno a sé il team creativo che serve proprio in questa fase.

    L’eredità Apple che passa di mano

    La transizione che Apple ha annunciato il 20 aprile 2026 rappresenta un passaggio tra due filosofie incarnate da due persone diverse.

    Cook ha guidato Apple con la logica del sistema, curando la catena di approvvigionamento, margini, ecosistema, diplomazia. È riuscito a costruire la macchina più profittevole della storia industriale moderna.

    Ternus arriva con la logica del prodotto, e quindi hardware, materiali, ingegneria, integrazione. È una scelta precisa nel segno di Apple ripartendo dai prodotti ridisegnandoli nell’era della IA.

    Cook come executive chairman gestirà i rapporti con i governi e le istituzioni, il che in questo momento storico significa, soprattutto, gestire il rapporto con l’amministrazione Trump e i suoi dazi.

    È un compito che libera Ternus dalle pressioni più politiche e gli permette, almeno in teoria, di concentrarsi sui prodotti.

    Resta da vedere se questa divisione dei ruoli funzionerà nella pratica, e se Ternus riuscirà a fare ciò che Cook ha fatto. E cioè ereditare un’azienda costruita attorno alla personalità di un fondatore leggendario e trasformarla in qualcosa di ancora più grande. Cook ci è riuscito, in parte.

    Adesso tutti attendono Ternus per vedere cosa sarà in gradi di fare.

  • L’IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet

    L’IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet

    L’intelligenza artificiale sta cambiando il mondo più in fretta di qualsiasi tecnologia prima. Il rapporto annuale dell’AI Index 2026 di Stanford HAI fotografa lo stato di adozione, investimenti, capacità dei modelli, impatto sul lavoro e costo ambientale. Ne emerge una situazione complesso.

    C’è una frase con cui Stanford HAI ha aperto la comunicazione del suo rapporto 2026 che vale la pena riportare, perché contiene già la chiave di lettura di tutto il resto: “Se state seguendo le notizie sull’IA, probabilmente avete il capogiro. L’IA è una corsa all’oro. L’IA è una bolla. L’IA vi sta rubando il lavoro. L’IA non sa ancora leggere un orologio analogico.”

    E il rapporto, nelle sue 400 pagine, prova a rispondere a tutte queste domande insieme, con dati verificati.

    È il nono anno consecutivo che lo Stanford HAI, istituto di ricerca sull’intelligenza artificiale fondato all’interno dell’università californiana, pubblica questo documento. Ed è probabilmente, al momento, la fonte più autorevole e indipendente che esista su questo tema, perché non è prodotta da un laboratorio con un interesse diretto nei risultati. Per questo assume una notevole importanza.

    L'IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet
    L’IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet

    IA, una velocità di adozione mai vista prima

    Partiamo dal dato più impressionante, quello che ci permette di mettere in prospettiva tutto il resto del rapporto

    Secondo l’AI Index 2026, l’IA generativa ha raggiunto il 53% di adozione globale in soli tre anni dal suo lancio di massa. Per capire cosa significa, basta un confronto: il personal computer ha impiegato molto più tempo per raggiungere una penetrazione analoga nella popolazione mondiale. Internet anche. Gli smartphone, che pure avevano trasformato la vita quotidiana di miliardi di persone, ci hanno messo circa un decennio.

    Il personal computer ha impiegato circa 16 anni per raggiungere il 50% di adozione nei paesi industrializzati, internet circa 7 anni.

    L’IA generativa ci è arrivata in tre anni, e lo ha fatto quasi gratis. La maggior parte degli strumenti che la gente usa ogni giorno, va detto, è accessibile in forma gratuita o quasi gratuita.

    Ma, va detto, l’adozione non è uniforme e non segue le logiche che ci si potrebbe aspettare.

    Singapore guida la classifica con il 61%, gli Emirati Arabi si collocano secondi al 54%. Gli Stati Uniti, con tutti i loro investimenti e con tutti i modelli che producono, si trovano “solo” al 24° posto con il 28,3%.

    Questo ci suggeriscie che non è detto che chi costruisce la tecnologia sia chi la adotta più in fretta. Spesso chi parte con meno vincoli strutturali si muove con più agilità.

    Velocità adozione Intelligenza Artificiale Generativa - The 2026 AI Report | Stanford HAI

    IA e la crescita degli investimenti, l’assenza dell’UE

    Gli investimenti globali in intelligenza artificiale nel 2025 hanno raggiunto i 581,7 miliardi di dollari, più che raddoppiando rispetto all’anno precedente. Gli investimenti privati sono cresciuti del 127,5%, arrivando a 344,7 miliardi, e le sole aziende di IA generativa hanno assorbito quasi la metà di quel totale.

    Ma quello che è più interessante è la distribuzione geografica di questi investimenti.

    Gli Stati Uniti guidano con 285,9 miliardi di dollari di investimenti privati, una cifra 23 volte superiore a quella della Cina, che si ferma a 12,4 miliardi. Anche qui, però, il rapporto invita alla cautela: i fondi governativi cinesi, che non compaiono nelle statistiche degli investimenti privati, avrebbero immesso nell’IA circa 184 miliardi di dollari solo tra il 2000 e il 2023. Il confronto diretto, quindi, rischia di essere fuorviante.

    E l’Europa? Qui i numeri sono sensibilmente inferiori.

    Tra il 2013 e il 2024, il capitolo dedicato alla governance e alle politiche pubbliche cita gli investimenti statali in IA dei principali paesi: il Regno Unito con 1,6 miliardi di dollari, la Germania con 505 milioni, la Francia con 320 milioni. L’Italia non compare.

    Quello che colpisce non è solo la modestia delle cifre europee rispetto agli Stati Uniti, ma è la frammentazione con cui ci si muove su questo terreno. Ogni paese va per conto suo, con strategie nazionali che si sovrappongono, senza coordinarsi in modo efficace.

    L’UE ha una voce autorevole sulla regolamentazione, ha prodotto l’AI Act, gode di un livello di fiducia più elevato rispetto agli USA e alla Cina nella capacità di governare il fenomeno. Ma sul fronte degli investimenti e della produzione di modelli, l’Europa rimane largamente assente.

    IA e i modelli europei che non ci sono

    Ed è qui che arriviamo al punto più dolente per chi guarda il fenomeno dall’Europa.

    Tra i modelli più rilevanti del 2025, quelli che il rapporto identifica come “rilevanti”notable” per le loro capacità, gli Stati Uniti ne hanno rilasciati 50, la Cina 30. L’Europa non compare.

    Si tratta di modelli di frontiera, quelli che spostano le capacità verso l’alto e che definiscono lo stato dell’arte. E in quella classifica, il continente europeo semplicemente non esiste come attore.

    Più del 90% di tutti i modelli rilevanti è prodotto da aziende private, e tra quelle aziende non ce n’è nessuna con sede in Europa che riesca a competere con OpenAI, Anthropic, Google, xAI o DeepSeek.

    Mistral, l’unica azienda europea che produce modelli di frontiera, non compare nella lista dei modelli più significativi dell’anno secondo la classificazione Epoch AI utilizzata dal rapporto Stanford.

    Modelli di IA generativa rilevanti - Yhe 2026 AI Report | Stanford HAI

    Cosa sa fare l’IA, e cosa non sa ancora fare

    Il rapporto offre su questo punto una lettura molto più sfumata di quanto i comunicati stampa dei vari laboratori lascino intendere.

    Stanford definisce la situazione attuale con una formula: “jagged frontier”, frontiera frastagliata.

    I modelli di punta battono i professionisti umani su domande di scienze a livello di dottorato, vincono medaglie d’oro alle olimpiadi internazionali di matematica, risolvono problemi di coding su SWE-bench con prestazioni che in un solo anno sono passate dal 60% a quasi il 100% del livello umano.

    Ma, nonostante tutto, lo stesso modello che vince quella medaglia d’oro riesce a leggere correttamente un orologio analogico solo il 50,1% delle volte.

    Una contraddizione che in realtà ci dice molto sula natura stessa di questi sistemi. E quindi eccellono in domini ben definiti, su compiti che assomigliano a quelli su cui sono stati addestrati, e faticano su altri che sembrano banali per un bambino di dieci anni.

    Questo non significa che siano inutili, anzi. Significa che chi li usa deve sapere dove funzionano meglio e dove no. E significa che i benchmark di marketing, quelli che le aziende usano per annunciare prestazioni record, spesso misurano cose molto lontane da ciò che conta davvero nel lavoro e nella vita reale.

    C’è un altro elemento che il rapporto segnala. Secondo il Foundation Model Transparency Index, l’indice che misura il grado di apertura dei laboratori sui propri sistemi, il punteggio medio è sceso da 58 a 40 nell’arco di un anno.

    Google, Anthropic e OpenAI hanno smesso di comunicare le dimensioni dei dataset e la durata degli addestramenti per i loro ultimi modelli. In buona sostanza: i modelli più capaci sono anche quelli che rivelano di meno su come funzionano.

    IA e il lavoro, chi perde e chi guadagna

    Il rapporto dedica ampio spazio all’impatto dell’IA sul lavoro, e anche qui la lettura è meno lineare di quanto la narrazione diffusa suggerisca.

    Da una parte, i guadagni in termini di produttività documentati sono reali: 14-15% nell’assistenza clienti, 26% nello sviluppo software, fino al 73% nei team di marketing.

    Dall’altra, quei guadagni non sono distribuiti in modo uniforme. Gli sviluppatori statunitensi tra i 22 e i 25 anni hanno visto la propria occupazione calare di quasi il 20% in un anno, mentre i colleghi più senior ha fatto registrare il dato opposto. Il discorso è sempre lo stesso: l’IA sostituisce l’ingresso, non l’esperienza di lavoro. E un terzo delle organizzazioni intervistate dichiara di aspettarsi riduzioni del personale nei prossimi dodici mesi.

    In aggiunta a questo, il 73% degli esperti di IA è ottimista sull’impatto della tecnologia sul lavoro. Ma solo il 23% delle persone in generale condivide questa visione.

    Questa frattura tra chi costruisce il futuro e chi ne subisce in qualche modo le conseguenze non è un problema di comunicazione, è solo un problema di fiducia.

    IA e lavoro - The 2026 AI Report | Stanford HAI

    IA e il costo che nessuno vuole calcolare

    C’è infine un capitolo del rapporto su cui mi soffermo, perché è quello che rischia di passare in secondo piano rispetto alle notizie sulle prestazioni e sugli investimenti. A dire il vero, è uno dei temi più trascurati in questa fase, anche se è quello forse più importanti. Perché riguarda davvero tutti.

    L’impronta ambientale di questa evoluzione tecnologica trainata dalla IA non è più un incidente di percorso, ma una costante strutturale.

    Addestrare Grok 4, il modello di xAI, ha generato un’emissione stimata di 72.816 tonnellate di CO2 equivalente, pari alle emissioni di 17.000 automobili che circolano per un intero anno.

    L’addestramento di GPT-4 è stimato a 5.184 tonnellate di CO2 equivalente, quello di Llama 3.1 405B di Meta a 8.930 tonnellate.

    IA e costo ambientale - The 2026 AI Report | Stanfor HAI

    La capacità installata dei data center dedicati all’IA ha raggiunto i 29,6 gigawatt, all’incirca la stessa quantità di energia necessaria per alimentare l’intero stato di New York al picco della domanda.

    E il solo consumo d’acqua per il raffreddamento dei server legato all’inferenza di GPT-4o potrebbe superare il fabbisogno idrico annuo di 12 milioni di persone.

    Per dare un riferimento ancora più concreto e diretto: la domanda energetica cumulativa di tutti i sistemi di IA nel mondo è oggi paragonabile al consumo elettrico nazionale di Svizzera o Austria.

    Questi numeri crescono insieme ai modelli. E il rapporto di Stanford osserva che i miglioramenti nell’efficienza hardware non hanno tenuto il passo con la scala delle nuove distribuzioni.

    In buona sostanza: stiamo diventando più bravi a costruire modelli più potenti molto più in fretta di quanto stiamo diventando bravi a farlo in modo sostenibile.

    Resta da vedere come il dibattito pubblico e politico saprà reggere il confronto con questa velocità.

    Per adesso, il rapporto di Stanford ci dice che la tecnologia sta correndo mentre le istituzioni camminano. E il divario tra le due andature è, in questo momento, il problema più grande di tutti da affrontare.


  • Caso Booking, perché proteggere il perimetro non basta più

    Caso Booking, perché proteggere il perimetro non basta più

    Il data breach di Booking ha esposto i dati di milioni di utenti, subito usati per truffe di phishing mirate. I dati di pagamento sono esclusi, ma il caso dimostra che la sicurezza perimetrale da sola non basta più.

    Il furto dei dati di Booking.com ha fatto molto discutere e ovviamente molto preoccupare. Come sempre accade in questi casi.

    Viviamo in un’era dove ormai non basta dire di essere protetti semplicemente adottando un software, bisogna cambiare approccio e mentalità. E questo caso, che tocca tutti, ce lo ricorda ancora una volta.

    Va specificato, del caso specifico di Booking.com non si conoscono tutti i dettagli. L’azienda ha confermato ufficialmente l’incidente il 13 aprile 2026, dopo aver rilevato anomalie nei propri sistemi. Alcune segnalazioni di utenti indicavano attività sospette già nei mesi precedenti (con casi isolati riportati a settembre 2025), suggerendo una possibile esposizione prolungata o attacchi mirati sequenziali.

    L’azienda non ha fornito dettagli, ma dati emersi da alcune indagini giornalistiche parlano di server esposto collegato a operazioni simili con dati di milioni di utenti. Non ci sono altri numeri su questo caso, su cui le indagini sono ancora in corso.

    In ogni caso, nomi, email, indirizzi, numeri di telefono, dettagli delle prenotazioni. Tutto leggibile, tutto utilizzabile senza alcuna decodifica. I dati di pagamento risultano esclusi dalla violazione, ma tutto il resto era esposto e conservato in chiaro. Booking.com ha confermato l’accaduto, aggiornato i PIN delle prenotazioni attive e avvisato i clienti con procedura standard.

    Nel frattempo, però, alcuni utenti avevano già ricevuto messaggi di phishing via WhatsApp contenenti i dettagli reali delle loro prenotazioni. Non messaggi generici, ma comunicazioni costruite con il nome della struttura, la data del soggiorno, il numero di telefono corretto. I dati sottratti sono stati usati nell’arco di ore per costruire truffe mirate.

    Per dare un’idea, Booking.com è una delle più grandi piattaforme di viaggio al mondo, con oltre 100 milioni di utenti attivi sull’app mobile, più di 500 milioni di visite mensili al sito e oltre 1,1 miliardi di pernottamenti prenotati nel 2024. Il fatturato annuo nel 2024 è stato di 23,7 miliardi di dollari, secondo Business of Apps.

    Caso Booking, perché proteggere il perimetro non basta più
    Caso Booking, perché proteggere il perimetro non basta più

    Il perimetro come illusione di sicurezza

    C’è un errore ricorrente nel modo in cui leggiamo queste vicende. Si guarda alla violazione come a un evento circoscritto: qualcuno è entrato, ha preso qualcosa, e quindi gestiamo le conseguenze.

    Ma quando i dati rubati sono in chiaro, l’incidente non ha una data di chiusura. Un nome associato a un indirizzo email, a un numero di telefono, a una prenotazione specifica diventa un profilo. Un profilo diventa un vettore di phishing. Un vettore di phishing, nelle mani giuste, diventa una campagna di frode che può durare mesi.

    I dati di Booking.com non spariscono dall’oggi al domani. Circolano, vengono rivenduti, vengono combinati con altri dataset. Ogni destinatario di quel messaggio WhatsApp che ci ha creduto ha già subito un danno che va ben oltre la prenotazione. E questo accade perché il sistema di sicurezza ha protetto i confini, non il contenuto.

    Valerio Pastore, fondatore di CyberGrant, lo spiega in modo efficace commentando proprio questo caso: la domanda giusta non è come impedire l’accesso, ma cosa succede se l’accesso avviene comunque.

    Se i dati sono crittografati nativamente, se seguono pattern di accesso non standard, se il dato stesso risulta illeggibile a chi non è autorizzato, allora la breccia diventa irrilevante. L’attaccante entra, ma non trova nulla di utile.

    La crittografia come presupposto, non come opzione

    Nessuna piattaforma che gestisce i dati di milioni di persone può garantire che nessuno entrerà mai nei suoi sistemi. Non dipende dal budget, dalla competenza del team o dalla tecnologia adottata. È la natura stessa delle infrastrutture connesse, e chi lavora nella sicurezza informatica lo sa da anni.

    Quando una violazione avviene – e prima o poi avviene – ciò che determina la gravità delle conseguenze è lo stato in cui si trovano i dati al momento dell’accesso.

    Se sono in chiaro, leggibili, immediatamente utilizzabili, il danno si propaga in ore. È quello che è successo con Booking.com: le informazioni sottratte sono diventate truffe di phishing personalizzate prima ancora che l’azienda completasse le notifiche ai clienti.

    La crittografia dei dati a riposo, come sottolinea Pastore, non è un componente opzionale da inserire in una roadmap futura o da valutare in funzione del budget disponibile.

    Nel 2026, per qualsiasi organizzazione che tratta dati personali su scala, è il presupposto minimo di responsabilità. Proteggere il perimetro serve a ridurre le probabilità di un accesso non autorizzato. Cifrare i dati all’origine serve a rendere quell’accesso inutile anche quando il perimetro non tiene.

    Fino al prossimo data breach…

    La differenza tra gestire un rischio e togliere valore a ciò che un attaccante riesce a rubare è tutta qui.

    Un dato cifrato che esce da un sistema non produce messaggi WhatsApp con i dettagli delle prenotazioni. Non alimenta campagne di phishing personalizzate. Non crea quel cortocircuito tra furto e danno che abbiamo visto in questo caso.

    Resta da vedere se il caso Booking.com spingerà altre piattaforme a ripensare l’architettura dei propri sistemi, o se continueremo a trattare la cifratura nativa come un lusso invece che come un requisito. La risposta, come sempre, la daranno – purtroppo – i prossimi data breach.

  • Apple e la minaccia di rimuovere l’app Grok di xAI

    Apple e la minaccia di rimuovere l’app Grok di xAI

    Una lettera di Apple, inviata a tre senatori Usa, ha rivelato che più volte gli aggiornamenti dell’app Grok di xAI furono respinti, arrivando a minacciare la rimozione dall’App Store.

    Certamente ricorderete quando tra la fine di dicembre 2025 e gennaio di quest’anno esplose lo scandalo Grok, l’app di xAI. Parliamo sempre del raggio di azione di Elon Musk. Ricorderete che quell’app permetteva a tutti, attraverso un testo condiviso su X, quindi in pubblico, di modificare immagini. Una funzionalità che ha finito per generare un fenomeno di deepfake a sfondo sessuale a livello globale.

    Ebbene, a distanza di tre mesi se ne torna a parlare perché NBC, in via esclusiva, in relazione alla lettera che tre senatori Usa avevano indirizzato a Apple e Google, chiedendo di rimuovere Grok dai rispettivi app market, ha avuto modo di visualizzare cosa Apple aveva risposto ai senatori.

    In pratica, il 9 gennaio 2026, i senatori Ron Wyden, Ben Ray Luján ed Edward Markey avevano scritto a Tim Cook e Sundar Pichai chiedendo la rimozione immediata delle app X e Grok dagli store.

    I senatori accusavano Grok di generare immagini sessuali non consensuali di donne e bambini, e Musk di aver incoraggiato il fenomeno reagendo con emoji di risate. La scadenza era fissata al 23 gennaio per una risposta scritta.

    E in effetti, senza che nessuno ne sapesse nulla, e si è scoperto grazie alla NBC, Cupertino aveva risposto.

    Il passaggio chiave della lettera recita: «Apple ha esaminato le successive modifiche degli sviluppatori e ha determinato che X aveva sostanzialmente risolto le proprie violazioni, ma l’app Grok rimaneva non conforme. Di conseguenza, abbiamo respinto la modifiche di Grok e notificato allo sviluppatore che sarebbero state necessarie ulteriori modifiche per rimediare alla violazione, oppure l’app avrebbe potuto essere rimossa dall’App Store.».

    In buona sostanza, Apple aveva bocciato i primi tentativi di xAI di sistemare il problema, giudicandoli però insufficienti. Solo dopo ulteriori modifiche ha approvato la versione aggiornata, definendola «sostanzialmente migliorata». Ma la minaccia di rimozione era stata formalizzata.

    Apple e la minaccia di rimuovere l'app Grok di xAI
    Apple e la minaccia di rimuovere l’app Grok di xAI

    Come si arrivò a quel punto

    Per chi ha seguito questa vicenda su InTime Blog, il contesto è abbastanza chiaro.

    Come ricordato in apertura, tra il 25 dicembre 2025 e l’8 gennaio 2026, Grok ha generato circa 4,6 milioni di immagini, di cui circa 3 milioni sessualizzate e circa 23.000 raffiguranti minori.

    Come avevo analizzato nell’articolo sulle migliaia di immagini di nudo generate da Grok, un’inchiesta di Bloomberg aveva quantificato il fenomeno: 6.700 immagini sessualizzate all’ora, 84 volte più dei principali siti di deepfake messi insieme.

    Ricorderete il post di Musk del 31 dicembre 2025, un’immagine di sé stesso in bikini generata da Grok, che aveva causato un’impennata del 1.400% nella generazione di contenuti simili.

    Come sottolineato più volte, in questa vicenda scatenata dalla funzionalità libera permettendo a chiunque di modificare immagini, le vittime non avevano strumenti per difendersi: donne che segnalavano immagini sessualizzate delle proprie foto a X non ricevevano risposta, o ricevevano notifiche che «non vi erano violazioni delle regole».

    X ha poi limitato la generazione di immagini agli abbonati paganti. Ma come avevo scritto nell’analisi sulla spunta blu che non rende sicura la generazione di immagini, spostare la funzionalità dietro un paywall non è una misura di sicurezza.

    Lo dimostrava il fatto che l’utente che aveva chiesto a Grok di manipolare l’immagine della donna uccisa a Minneapolis era un abbonato verificato. E come avevo ricordato nell’articolo sui numeri degli abbonamenti di X, la limitazione agli abbonati ha finito per monetizzare lo scandalo stesso.

    Lo scandalo Grok si è esteso ovunque

    Il 26 gennaio l’Unione Europea aveva aperto un’indagine formale DSA contro X per le immagini generate da Grok, con sanzioni potenziali fino al 6% del fatturato globale.

    Il DPC irlandese ha avviato un’indagine GDPR, con potenziali sanzioni fino al 4% del fatturato. Il Regno Unito ha varato una nuova legge con pene detentive fino a due anni per chi genera deepfake intimi non consensuali.

    E poi c’è la Francia. Il 3 febbraio la procura di Parigi, insieme a Europol, ha perquisito gli uffici parigini di X. Musk e l’ex CEO Linda Yaccarino sono stati convocati per un’audizione fissata per il 20 aprile, vale a dire tra pochi giorni.

    Negli Stati Uniti, il TAKE IT DOWN Act, firmato nel maggio 2025, entrerà in vigore a maggio 2026 rendendo reato federale la pubblicazione di immagini intime non consensuali generate da IA.

    Il DEFIANCE Act, approvato dal Senato il 13 gennaio citando esplicitamente lo scandalo Grok, consente alle vittime di citare in giudizio i creatori per danni fino a 150.000 dollari. E sono già in corso almeno tre cause legali contro xAI.


    Cosa dicono il TAKE IT DOWN Act e il DEFIANCE Act

    Il TAKE IT DOWN Act, firmato il 19 maggio 2025, è la prima legge federale Usa a criminalizzare la diffusione di immagini intime non consensuali, siano esse reali o generate dall’IA. La norma impone alle piattaforme l’obbligo di rimuovere tali contenuti entro 48 ore dalla segnalazione, prevedendo sanzioni penali e multe per chi pubblica o minaccia di diffondere tali immagini.

    Complementare a questo è il DEFIANCE Act, approvato dal Senato nel gennaio 2026, che colma un vuoto fondamentale: permette alle vittime di citare in giudizio civile i creatori di deepfake sessualizzati, richiedendo danni economici significativi.

    Per quanto riguarda l’operatività:

    • Il TAKE IT DOWN Act è tecnicamente in vigore dal giorno della firma, ma le piattaforme hanno tempo fino al 19 maggio 2026 per implementare procedure di segnalazione chiare e visibili.
    • Il DEFIANCE Act, dopo il via libera del Senato di metà gennaio 2026, deve ora completare l’iter alla Camera per diventare pienamente esecutivo.

    Due norme Usa che permetteranno di passare da una fase di “far west” digitale a una in cui la responsabilità civile e penale inizia a pesare anche nel mondo dei falsi artificiali.


    La generazione di immagini con sessualizzare con Grok continua

    Un secondo report di NBC documenta che Grok continua a generare immagini sessualizzate non consensuali, seppur in volumi ridotti.

    Gli utenti hanno sviluppato tecniche di aggiramento: chiedono a Grok di «abbinare la posa» di una foto di celebrità a una figura stilizzata in posizione suggestiva, o di «scambiare gli abiti» tra due foto. I video animati rappresentano una nuova frontiera di abuso.

    La risposta di Musk è stata la solita, ossia quella di provare a minimizzare e ad attaccare. In risposta ai provvedimenti del governo Uk, ha definito il governo di Starmer «fascista», ha sfidato pubblicamente gli utenti a «provare a violare la moderazione di Grok» ricevendo immediatamente risposte con contenuti nudi, e la risposta ufficiale di xAI ai giornalisti è stata «Legacy Media Lies».

    Il paradosso di questa vicenda è che la stessa reazione di Musk ha finito per amplificare la crisi, invece di placarla.

    Cosa potrebbe succedere adesso

    La rivelazione della lettera di Apple dimostra che i gatekeeper degli store hanno utilizzato la leva della rimozione come strumento di pressione, anche se non l’hanno esercitata fino in fondo.

    Apple ha anche rimosso 28 app «nudify» dal proprio store dopo che il Tech Transparency Project ne aveva identificate 47 disponibili su iOS, complessivamente scaricate 705 milioni di volte.

    Ma il vero banco, dicevamo, di prova sarà nelle prossime settimane.

    La scelta di Musk di posizionare Grok come un’intelligenza artificiale «spicy», con meno restrizioni, si scontra ora con un ecosistema normativo globale che non concede più sconti.

    L’integrazione di un generatore di immagini IA con misure di controllo minime all’interno di una piattaforma social da centinaia di milioni di utenti ha creato un rischio enorme. Conosciuto del resto.

    Un rischio tale per cui nessun intervento tardivo di moderazione può pienamente correggere.

    Ed è questo il punto in cui ci troviamo oggi. La lettera di risposta di Apple ci dice che il rischio c’è ed è conosciuto anche ai grandi gatekeeper. E le possibilità che la prossima volta si possa scrivere un esito diverso non è del tutto remota.

    Intanto, staremo a vedere cosa emergerà dall’audizione di Musk e della Yaccarino a Parigi.

  • Dopo 10 anni, Zuckerberg insiste a clonare se stesso

    Dopo 10 anni, Zuckerberg insiste a clonare se stesso

    Meta sta sviluppando un clone IA di Zuckerberg per interagire con i dipendenti. È l’ultimo capitolo di un’ossessione decennale per gli alter ego digitali, dalla realtà virtuale del 2016 al metaverso, fino alla superintelligenza.

    Partiamo da questa scena. Barcellona, febbraio 2016, quindi 10 anni fa al Mobile World Congress. Mark Zuckerberg fa il suo ingresso spettacolare in una sala gremita di giornalisti, mentre nessuno di loro lo nota. Sono tutti girati dalla parte opposta, immersi in visori per la realtà virtuale, intenti a osservare una scena che si svolge altrove, in un mondo simulato.

    Lui passa alla loro destra con un’espressione soddisfatta, quasi trionfante. Un’immagine che diventerà virale e storica allo stesso tempo e, a guardarla bene, fa ancora oggi un certo effetto.

    Quella scena oggi quasi surreale dava l’idea di quello che sarebbe stata la realtà virtuale social secondo Zuckerberg: un networking di persone riprodotto in un mondo non reale, totalmente ricostruito, simulato. Una realtà non reale attraverso la quale provare instaurare relazioni tra persone.

    Sono passati dieci anni esatti da allora e in questi giorni Zuckerberg ci riprova, con strumenti diversi certo, ma sempre con lo stesso identico pallino. Ossia quello di creare alter ego digitali che possano essere presenti ovunque senza esserci fisicamente.

    Secondo quanto riportato dal Financial Times, Meta sta sviluppando un clone IA fotorealistico del suo CEO, addestrato sui suoi modi di fare, sul suo tono e sulle sue dichiarazioni pubbliche, con l’obiettivo di farlo interagire con i dipendenti quando Zuckerberg non può o non vuole farlo di persona. Il CEO stesso starebbe supervisionando il progetto, dedicandoci dalle cinque alle dieci ore a settimana di quello che ormai si chiama vibe coding (sviluppo software con l’assistenza della IA).

    Dopo 10 anni, Zuckerberg insiste a clonare se stesso
    Dopo 10 anni, Zuckerberg insiste a clonare se stesso

    Un nuovo tentativo di cloni digitali dopo 10 anni

    Per capire cosa sta succedendo oggi ritorniamo a quel febbraio 2016.

    Due anni prima Facebook aveva acquisito Oculus VR per 2 miliardi di dollari, e Zuckerberg non aveva mai fatto mistero che quello fosse il segnale di un futuro nella realtà virtuale. Al Mobile World Congress di Barcellona 2016, quel futuro sembrava essere arrivato.

    Con la realtà virtuale le opportunità di connessione tra amici sarebbero state molte di più, al punto da vivere insieme, quindi virtualmente, esperienze che si svolgono in parti del mondo diverse. Era il pallino di Zuckerberg, e dopo aver lanciato il più grande social network, voleva passare alla storia anche come il pioniere della realtà virtuale in salsa social.

    Cinque anni dopo, nell’ottobre 2021, quel pallino diventa addirittura strategia aziendale. Facebook Inc. cambia nome e diventa Meta. L’accoglienza del nuovo nome fu tutt’altro che entusiasmante. A molti sembrò un’operazione di maquillage per distrarre l’opinione pubblica dai Facebook Papers e dalle rivelazioni di Frances Haugen.

    Ma si trattava anche di una mossa strategica con investimenti da 10 miliardi di dollari e l’assunzione di 10.000 persone in Europa. Tutto con l’obiettivo di costruire il metaverso.

    Il metaverso era la versione aggiornata della stessa visione: mondi virtuali dove le persone avrebbero potuto incontrarsi, lavorare, socializzare attraverso avatar digitali. Il concetto di alter ego era al centro di tutto. Horizon Worlds, il mondo virtuale che Zuckerberg aveva immaginato per un miliardo di persone, avrebbe dovuto essere il luogo dove tutto questo si sarebbe materializzato.

    Il metaverso, la promessa non mantenuta

    Ma le cose non sono andate come previsto.

    Reality Labs, la divisione dedicata al metaverso, ha accumulato oltre 70 miliardi di dollari di perdite operative dal 2021. Bloomberg ha riportato che Meta ha tagliato la spesa per il metaverso fino al 30%. E il colpo più simbolico è arrivato poche settimane fa: Horizon Worlds verrà rimosso dalla VR il prossimo 15 giugno 2026, sopravvivendo solo come esperienza mobile.

    Era il progetto per cui Facebook aveva cambiato nome in Meta.

    L’arrivo dell’intelligenza artificiale generativa ha cambiato tutto. Adesso si parla di Muse Spark e i Superintelligence Labs,

    In buona sostanza, Meta ha liquidato il metaverso, sacrificato i propri scienziati di punta, e dirottati centinaia di miliardi di dollari verso l’IA. Con l’addio di Yann LeCun e la rimozione di Chris dalla supervisione dell’IA, il ventottenne Alexandr Wang è diventato il primo Chief AI Officer nella storia dell’azienda.

    Ma restiamo concentrati sul tema. Dopo tutto questo, il pallino di Zuckerberg non è cambiato. È cambiata solo la tecnologia con cui cerca di realizzarla, ma la sua idea nel corso di questi anni è rimasta intatta.

    Mark Zuckerberg al MWC 2016
    Mark Zuckerberg al MWC 2016

    Dal metaverso al clone IA

    Nel 2016 la visione era la realtà virtuale social: essere presenti in un altro luogo senza esserci fisicamente. Nel 2021 è diventato metaverso: vivere in mondi virtuali attraverso avatar. Nel 2026 è la superintelligenza personale: avere un compagno IA che ci conosce profondamente e può agire al posto nostro.

    Il clone IA di Zuckerberg si inserisce perfettamente in questa progressione. Non è un’idea nuova, è la stessa idea di sempre realizzata con strumenti diversi. L’obiettivo resta quello di creare versioni digitali di persone reali che possano interagire al posto loro.

    Va detto, Meta ci ha già provato. Nel 2023 l’azienda aveva annunciato che avrebbe pagato milioni di dollari a celebrity come Snoop Dogg per trasformarle in chatbot. Il progetto è stato un fallimento e i chatbot hanno finito per fare dichiarazioni imbarazzanti per conto dei loro equivalenti in carne e ossa.

    Nel 2024 è arrivato AI Studio, che permette ai creator di Instagram di costruire versioni IA di se stessi per interagire con i fan via DM. Anche questo progetto ha avuto i suoi problemi, al punto che Meta ha dovuto bloccare l’accesso ai teenager dopo le critiche sulla salute mentale dei minori.

    Ora Zuckerberg sta applicando la stessa logica, partendo da se stesso.

    Il clone IA sarà addestrato non solo sui suoi modi di fare e sul suo tono, ma anche sul suo pensiero recente riguardo alle strategie aziendali. L’idea, secondo il Financial Times, è che i dipendenti possano sentirsi più connessi al fondatore attraverso le interazioni con il suo avatar digitale.

    La trasformazione del CEO nel corsi di questi 10 anni

    Nel 2016, quando Zuckerberg immaginava la realtà virtuale social, il ruolo del CEO di una grande azienda tecnologica era sostanzialmente quello di guida interna. Certo, le figure come lui erano già personaggi pubblici, ma la loro funzione principale restava quella di dirigere l’azienda, non di rappresentarla costantemente verso l’esterno.

    Dieci anni dopo, quel ruolo è cambiato radicalmente. I CEO delle grandi piattaforme di oggi sono diventati figure mediatiche a tutti gli effetti, produttori di contenuti che incarnano la visione aziendale.

    Lo vediamo con Sam Altman di OpenAI, che costruisce la propria immagine pubblica attraverso podcast, interviste, post sui social.

    E lo vediamo con lo stesso Zuckerberg, che negli ultimi anni ha curato attentamente la propria trasformazione da nerd impacciato a imprenditore sportivo e appassioandosi alle arti marziali miste.

    Il CEO non è più solo chi prende le decisioni. È una figura oggi che comunica la narrazione, che costruisce il brand, che incarna l’identità dell’azienda agli occhi del pubblico, degli investitori, delle istituzioni.

    E adesso Zuckerberg vuole clonare proprio quella figura.

    Cosa significa davvero clonare il CEO

    Se il ruolo del CEO moderno include la costruzione di una narrazione, la comunicazione di una visione, l’incarnazione di valori aziendali, cosa succede quando quella figura viene replicata artificialmente?

    Un avatar IA addestrato sulle dichiarazioni pubbliche e sul pensiero strategico di Zuckerberg può rispondere a domande, offrire feedback, partecipare a riunioni. Ma potrebbe incarnare una visione? Potrebbe trasmettere fiducia? Potrebbe davvero prendere decisioni che comportano responsabilità?

    Il Financial Times riporta che esiste anche un progetto separato, un CEO agent progettato per aiutare Zuckerberg a recuperare informazioni e svolgere compiti al suo posto.

    Si tratta di due progetti distinti ma complementari: uno clona la presenza, l’altro automatizza le funzioni.

    C’è poi la questione della governance. Se l’avatar IA di Zuckerberg dà un feedback a un dipendente, chi è responsabile di quel feedback? Se prende una posizione su una questione strategica, quella posizione riflette davvero il pensiero del CEO o si parla di approssimazione della IA? E se il clone dice qualcosa di sbagliato, come è già successo con i chatbot delle celebrity, chi ne risponde?

    Certo che sono tutte questioni che saranno risolte, ove mai questo progetto prenderà davvero piede, ma sono comunque domande da porsi in questo frangente.

    Dieci anni dopo, la stessa domanda

    Ma la realtà virtuale social affascina o inquieta?

    Dieci anni dopo, la domanda è la stessa ma la tecnologia, e il mondo, è cambiata.

    Non si tratta più di mondi virtuali dove incontrarsi come avatar, oggi si parla di creare copie di persone reali, che possano agire, parlare, decidere al loro posto. E se il primo esperimento è il CEO di una delle aziende più potenti del mondo, il passo successivo potrebbe essere davvero chiunque.

    Il Financial Times riporta che se l’esperimento con Zuckerberg avrà successo, Meta prevede di permettere ai creator di costruire avatar IA di se stessi, espandendo il progetto dimostrato al Meta Connect del 2024.

    Nel frattempo, tra licenziamenti e nuove strategie sulla IA, Meta sta spingendo i propri dipendenti a usare strumenti di automazione e software agentici.

    Insomma, Zuckerberg dimostra che il suo obiettivo resta quello di sempre. E per trasformarlo in realtà sarebbe disposto a cambiare anche la sua azienda. Il primo tentativo col metaverso è andato come abbiamo visto. Forse quello con la IA gli potrebbe andare bene. Forse.

  • Ecco Muse Spark, la superintelligenza di Meta

    Ecco Muse Spark, la superintelligenza di Meta

    Meta ha presentato Muse Spark, il primo modello di IA sviluppato dal nuovo Superintelligence Lab. È un modello proprietario che segna una rottura netta con la filosofia open source che aveva caratterizzato Meta fino a ieri. La domanda è se tutto questo basterà a colmare il divario con OpenAI, Anthropic e Google.

    Mark Zuckerberg ha al momento diversi problemi, ma uno in particolare ce l’ha con le promesse. Nel gennaio 2025 aveva annunciato che sarebbe stato un anno decisivo per l’intelligenza artificiale di Meta, con Llama 4 pronto a diventare il modello stato dell’arte e Meta AI destinata a raggiungere un miliardo di utenti.

    Un anno dopo, Llama 4 è soltanto un ricordo imbarazzante, il Chief AI Scientist che lo aveva costruito se n’è andato sbattendo la porta, e Zuckerberg si ritrova a presentare qualcosa di completamente diverso.

    E parliamo di Muse Spark, il primo modello sviluppato da un laboratorio che non esisteva nemmeno dodici mesi fa.

    Ma questa volta la posta in gioco è diversa. Non si tratta di un aggiornamento incrementale o di una nuova versione di un prodotto esistente.

    Muse Spark rappresenta una rottura totale con il passato di Meta. È un modello proprietario invece che open source ed è stato costruito da un team quasi interamente nuovo.

    Muse Spark rappresenta il prodotto concreto di una riorganizzazione che ha investito ogni livello dell’azienda. Centinaia di licenziamenti, l’abbandono progressivo del metaverso, investimenti da 135 miliardi di dollari nel solo 2026. E al centro di tutto, un ventottenne che fino a ieri guidava un’azienda di etichettatura dati. Ma andiamo con ordine.

    Muse Spark nasce dalle ceneri di Llama

    Per capire Muse Spark bisogna partire da quello che è successo prima.

    Nell’aprile 2025, Meta lancia Llama 4 nelle varianti Maverick e Scout, ma il rilascio è un disastro. Yann LeCun, premio Turing 2019 e Chief AI Scientist di Meta dal 2013, ammetterà poi al Financial Times che i risultati erano stati falsificati: il team aveva usato versioni ottimizzate per specifici benchmark, gonfiando artificialmente le prestazioni. Il modello di punta, Behemoth, viene rinviato più volte e infine accantonato.

    Zuckerberg, furioso, mette da parte l’intera organizzazione GenAI e inizia a reclutare personalmente un nuovo team.

    Crea un gruppo WhatsApp chiamato Recruiting Party attivo 24 ore su 24. Il risultato di quella crisi è Muse Spark, nome in codice interno Avocado, costruito da zero in nove mesi dal nuovo Meta Superintelligence Labs. Non è una versione evoluta di Llama, è un modello completamente diverso, ricostruito a partire da un nuovo stack di pre-training.

    Cosa fa Muse Spark

    Proviamo a spiegarlo in modo semplice, perché è importante capire di cosa stiamo parlando.

    Muse Spark è un modello di intelligenza artificiale multimodale, il che significa che può elaborare testo, immagini e voce contemporaneamente.

    Ha una finestra di contesto di 262.000 token, vale a dire che può tenere a mente una quantità enorme di informazioni durante una conversazione. E opera in tre modalità diverse a seconda di cosa gli viene chiesto.

    La modalità Instant serve per le domande rapide: chiedi qualcosa, ottieni una risposta immediata. La modalità Thinking attiva un ragionamento più profondo per problemi complessi. Ma la vera novità è la modalità Contemplating, che orchestra più sotto-agenti che ragionano in parallelo.

    In pratica, se chiedi a Meta AI di pianificare un viaggio in famiglia, un agente si occupa dell’itinerario, un altro confronta le destinazioni, un terzo cerca le attività adatte ai bambini. Tutto contemporaneamente.

    Tra le capacità distintive c’è il ragionamento visivo: si può fotografare uno scaffale di snack in aeroporto, ad esempio, e Muse Spark ti dice quali hanno più proteine senza che tu debba leggere le etichette.

    C’è poi una modalità shopping che integra dati comportamentali dalle piattaforme Meta. E ci sono capacità di ragionamento medico sviluppate in collaborazione con oltre mille medici, anche se su questo punto, va detto, i dubbi sulla privacy restano aperti.

    Muse Spark, una storia all’inseguimento

    I benchmark sono il modo in cui l’industria misura le capacità dei modelli di IA, e quelli di Muse Spark raccontano dei dati interessanti.

    Sull’Artificial Analysis Intelligence Index, il modello di Meta ottiene un punteggio di 52, collocandosi nella top 5 globale ma dietro a GPT-5.4 e Gemini 3.1 Pro, entrambi a 57, e leggermente sotto Claude Opus 4.6, a 53. Il salto rispetto ai modelli Llama 4 è enorme: Maverick aveva ottenuto 18, Scout appena 13.

    Dove Muse Spark eccelle davvero è nei benchmark specialistici.

    Nel ragionamento medico batte GPT-5.4 e surclassa tutti gli altri. Nella comprensione di grafici e figure supera anche i migliori modelli di OpenAI. Ma i punti deboli sono altrettanto significativi: nel ragionamento astratto il divario con Gemini è drastico, 42.5 contro 76.5. E nel coding agentico, che è diventato l’obiettivo principale di Anthropic e degli altri nella corsa all’IA, GPT-5.4 lo supera nettamente.

    C’è poi un aspetto che va sottolineato, perché riguarda la credibilità di questi numeri.

    I benchmark auto-dichiarati di Meta vanno trattati con cautela data la storia recente.

    Fortune ha notato che le verifiche indipendenti mostrano a volte discrepanze: su alcuni test, Meta dichiara risultati che i laboratori esterni non riescono a replicare. È un problema di fiducia che l’azienda dovrà risolvere.

    L’abbandono dell’open source e la svolta strategica

    La scelta closed source è il cambio di rotta più clamoroso.

    Nel luglio 2024, Zuckerberg aveva pubblicato un manifesto intitolato Open Source AI is the Path Forward, paragonando Llama a Linux e argomentando che l’IA open source rappresentava la migliore possibilità del mondo di sfruttare questa tecnologia. Appena due anni dopo, Muse Spark è completamente un modello proprietario.

    Le ragioni di questa inversione sono diverse.

    Primo, la pressione competitiva: dopo il fallimento di Llama 4, Meta non può permettersi di regalare le proprie innovazioni ai concorrenti.

    Secondo, il precedente di DeepSeek: il laboratorio cinese aveva copiato con successo l’architettura di Llama per sviluppare il proprio modello R1, dimostrando concretamente i rischi della strategia aperta.

    Terzo, la monetizzazione: Meta sta sperimentando l’accesso API a pagamento, attualmente in anteprima privata per partner selezionati.

    La strategia emergente sembra quella di un modello freemium: i modelli più potenti e recenti restano proprietari e disponibili tramite API a pagamento, mentre le versioni precedenti vengono rilasciate come open source. Meta ha dichiarato di sperare di rendere open source le future versioni del modello, ma senza fornire alcuna tempistica. Tradotto: per ora resta tutto chiuso.

    Alexandr Wang e i 14 miliardi di dollari per un ventottenne

    A guidare il Meta Superintelligence Labs c’è Alexandr Wang, nominato primo Chief AI Officer nella storia di Meta. La sua storia merita di essere raccontata perché dice molto sulla scommessa che Zuckerberg sta facendo.

    <!-- wp:heading -->
<h2 class="wp-block-heading"><strong>Meta ha presentato Muse Spark, il primo modello di IA sviluppato dal nuovo Superintelligence Lab. È un modello proprietario che segna una rottura netta con la filosofia open source che aveva caratterizzato Meta fino a ieri. La domanda è se tutto questo basterà a colmare il divario con OpenAI, Anthropic e Google.</strong></h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Mark Zuckerberg ha al momento diversi problemi, ma uno in particolare ce l'ha con le promesse. Nel gennaio 2025 aveva annunciato che sarebbe stato un anno decisivo per l'intelligenza artificiale di Meta, con Llama 4 pronto a diventare il modello stato dell'arte e Meta AI destinata a raggiungere un miliardo di utenti. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Un anno dopo, <a href="https://www.franzrusso.it/?s=Llama" target="_blank" rel="noreferrer noopener">Llama</a> 4 è soltanto un ricordo imbarazzante, il Chief AI Scientist che lo aveva costruito se n'è andato sbattendo la porta, e Zuckerberg si ritrova a presentare qualcosa di completamente diverso.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>E <a href="https://about.fb.com/news/2026/04/introducing-muse-spark-meta-superintelligence-labs/">parliamo di Muse Spark, il primo modello sviluppato da un laboratorio che non esisteva nemmeno dodici mesi fa</a>.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Ma questa volta la posta in gioco è diversa. Non si tratta di un aggiornamento incrementale o di una nuova versione di un prodotto esistente. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark rappresenta una rottura totale con il passato di Meta. È un modello proprietario invece che open source ed è stato costruito da un team quasi interamente nuovo.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark rappresenta il prodotto concreto di una riorganizzazione che ha investito ogni livello dell'azienda. Centinaia di licenziamenti, l'abbandono progressivo del metaverso, investimenti da 135 miliardi di dollari nel solo 2026. E al centro di tutto, un ventottenne che fino a ieri guidava un'azienda di etichettatura dati. Ma andiamo con ordine.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading">Muse Spark nasce dalle ceneri di Llama</h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Per capire Muse Spark bisogna partire da quello che è successo prima. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nell'aprile 2025, Meta lancia Llama 4 nelle varianti Maverick e Scout, ma il rilascio è un disastro. <a href="https://www.franzrusso.it/intelligenza-artificiale/yann-lecun-laurea-ad-honorem-universita-siena/" target="_blank" rel="noreferrer noopener">Yann LeCun</a>, premio Turing 2019 e Chief AI Scientist di Meta dal 2013, ammetterà poi al Financial Times che i risultati erano stati falsificati: il team aveva usato versioni ottimizzate per specifici benchmark, gonfiando artificialmente le prestazioni. Il modello di punta, Behemoth, viene rinviato più volte e infine accantonato. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Zuckerberg, furioso, mette da parte l'intera organizzazione GenAI e inizia a reclutare personalmente un nuovo team. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Crea un gruppo WhatsApp chiamato Recruiting Party attivo 24 ore su 24. <strong>Il risultato di quella crisi è Muse Spark, nome in codice interno Avocado, costruito da zero in nove mesi dal nuovo Meta Superintelligence Labs</strong>. Non è una versione evoluta di Llama, è un modello completamente diverso, ricostruito a partire da un nuovo stack di pre-training.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading"><strong>Cosa fa Muse Spark </strong></h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Proviamo a spiegarlo in modo semplice, perché è importante capire di cosa stiamo parlando. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>Muse Spark è un modello di intelligenza artificiale multimodale, il che significa che può elaborare testo, immagini e voce contemporaneamente</strong>. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Ha una finestra di contesto di 262.000 token, vale a dire che può tenere a mente una quantità enorme di informazioni durante una conversazione. E opera in tre modalità diverse a seconda di cosa gli viene chiesto.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>La modalità Instant serve per le domande rapide: chiedi qualcosa, ottieni una risposta immediata. La modalità Thinking attiva un ragionamento più profondo per problemi complessi. Ma la vera novità è la modalità Contemplating, che orchestra più sotto-agenti che ragionano in parallelo. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>In pratica, se chiedi a Meta AI di pianificare un viaggio in famiglia, un agente si occupa dell'itinerario, un altro confronta le destinazioni, un terzo cerca le attività adatte ai bambini. Tutto contemporaneamente.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Tra le capacità distintive c'è il ragionamento visivo: si può fotografare uno scaffale di snack in aeroporto, ad esempio, e Muse Spark ti dice quali hanno più proteine senza che tu debba leggere le etichette. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>C'è poi una modalità shopping che integra dati comportamentali dalle piattaforme Meta. E ci sono capacità di ragionamento medico sviluppate in collaborazione con oltre mille medici, anche se su questo punto, va detto, i dubbi sulla privacy restano aperti.</p>
<!-- /wp:paragraph -->

<!-- wp:heading {"level":3} -->
<h3 class="wp-block-heading"><strong>Muse Spark, una storia all'inseguimento</strong></h3>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>I benchmark sono il modo in cui l'industria misura le capacità dei modelli di IA, e quelli di Muse Spark raccontano dei dati interessanti. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Sull'<a href="https://artificialanalysis.ai/evaluations/artificial-analysis-intelligence-index">Artificial Analysis Intelligence Index</a>, il modello di Meta ottiene un punteggio di 52, <strong>collocandosi nella top 5 globale ma dietro a GPT-5.4 e Gemini 3.1 Pro</strong>, entrambi a 57, e leggermente sotto Claude Opus 4.6, a 53. Il salto rispetto ai modelli Llama 4 è enorme: Maverick aveva ottenuto 18, Scout appena 13.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Dove Muse Spark eccelle davvero è nei benchmark specialistici. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nel ragionamento medico batte GPT-5.4 e surclassa tutti gli altri. Nella comprensione di grafici e figure supera anche i migliori modelli di OpenAI. Ma i punti deboli sono altrettanto significativi: nel ragionamento astratto il divario con Gemini è drastico, 42.5 contro 76.5. E nel coding agentico, che è diventato l'obiettivo principale di Anthropic e degli altri nella corsa all'IA, GPT-5.4 lo supera nettamente.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>C'è poi un aspetto che va sottolineato, perché riguarda la credibilità di questi numeri. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I benchmark auto-dichiarati di Meta vanno trattati con cautela data la storia recente. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Fortune ha notato che le verifiche indipendenti mostrano a volte discrepanze: su alcuni test, Meta dichiara risultati che i laboratori esterni non riescono a replicare. È un problema di fiducia che l'azienda dovrà risolvere.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading">L'abbandono dell'open source e la svolta strategica</h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>La scelta closed source è il cambio di rotta più clamoroso. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nel luglio 2024, Zuckerberg aveva pubblicato un manifesto intitolato Open Source AI is the Path Forward, paragonando Llama a Linux e argomentando che l'IA open source rappresentava la migliore possibilità del mondo di sfruttare questa tecnologia. Appena due anni dopo, Muse Spark è completamente un modello proprietario.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Le ragioni di questa inversione sono diverse. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Primo, la pressione competitiva: dopo il fallimento di Llama 4, Meta non può permettersi di regalare le proprie innovazioni ai concorrenti. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Secondo, il precedente di DeepSeek: il laboratorio cinese aveva copiato con successo l'architettura di Llama per sviluppare il proprio modello R1, dimostrando concretamente i rischi della strategia aperta. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Terzo, la monetizzazione: Meta sta sperimentando l'accesso API a pagamento, attualmente in anteprima privata per partner selezionati.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>La strategia emergente sembra quella di un modello freemium: i modelli più potenti e recenti restano proprietari e disponibili tramite API a pagamento, mentre le versioni precedenti vengono rilasciate come open source. Meta ha dichiarato di sperare di rendere open source le future versioni del modello, ma senza fornire alcuna tempistica. Tradotto: per ora resta tutto chiuso.</p>
<!-- /wp:paragraph -->

<!-- wp:heading {"level":3} -->
<h3 class="wp-block-heading"><strong>Alexandr Wang e i 14 miliardi di dollari per un ventottenne</strong></h3>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>A guidare il Meta Superintelligence Labs c'è Alexandr Wang, nominato primo Chief AI Officer nella storia di Meta. La sua storia merita di essere raccontata perché ci dice molto sulla scommessa che Zuckerberg sta facendo. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nato nel 1997 a Los Alamos, figlio di fisici cinesi immigrati che lavoravano al laboratorio nazionale, Wang aveva fondato Scale AI a 19 anni abbandonando il MIT. A 24 anni era il più giovane miliardario self-made al mondo.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Meta ha investito 14,3 miliardi di dollari per una quota del 49% in Scale AI, raddoppiandone la valutazione. Come parte dell'accordo, Wang ha lasciato la carica di CEO per guidare il nuovo laboratorio. Zuckerberg lo ha descritto come il fondatore più impressionante della sua generazione. Ma c'è chi solleva dubbi: Wang viene da un'azienda di etichettatura dati, non dalla ricerca fondamentale sull'IA. E il suo arrivo ha provocato la partenza di Yann LeCun, che al Financial Times ha dichiarato di non essere disposto a sottostare all'autorità di un giovane e inesperto manager.</p>
<!-- /wp:paragraph -->

<!-- wp:heading {"level":3} -->
<h3 class="wp-block-heading"><strong>I licenziamenti e l'abbandono del metaverso</strong></h3>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>La nascita del Superintelligence Labs è solo un tassello di una riorganizzazione che ha investito ogni livello di Meta. L'elenco delle perdite è impressionante. Yann LeCun se n'è andato e ha fondato un proprio laboratorio raccogliendo oltre un miliardo di dollari. Chris Cox, Chief Product Officer e veterano ventennale, è stato rimosso dalla supervisione dell'IA dopo il fiasco di Llama 4. Undici dei quattordici ricercatori originali che avevano costruito il primo modello Llama nel 2023 hanno lasciato l'azienda.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I licenziamenti hanno colpito a ondate: circa 600 posizioni eliminate dal laboratorio nell'ottobre 2025, circa 1.500 dipendenti da Reality Labs nel gennaio 2026 con la chiusura degli studi di gioco VR, e diverse centinaia in più nel marzo 2026. Come avevo raccontato qui su InTime Blog analizzando l'acquisizione di Moltbook, Meta sta ridisegnando completamente la propria struttura organizzativa attorno all'intelligenza artificiale.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Il ridimensionamento del metaverso è altrettanto drastico. Reality Labs ha accumulato oltre 70 miliardi di dollari di perdite operative dal 2021. Bloomberg ha riportato che Meta sta tagliando la spesa per il metaverso fino al 30%. Il colpo più simbolico: Horizon Worlds, il mondo virtuale che Zuckerberg aveva immaginato per un miliardo di persone, verrà rimosso dalla VR il 15 giugno 2026, sopravvivendo solo come esperienza mobile. Era il progetto per cui Facebook aveva cambiato nome in Meta. Ora è un residuo.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading">Zuckerberg e la superintelligenza personale per tutti</h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Nel luglio 2025, Zuckerberg ha pubblicato un lungo post intitolato Personal Superintelligence for Everyone, in cui delineava la sua visione. Vale la pena di soffermarsi su cosa intende, perché è diverso da quello che propongono i concorrenti. La superintelligenza personale di Meta non è un sistema centralizzato che automatizza tutto il lavoro umano. È un compagno personale che ci conosce profondamente, comprende i nostri obiettivi, e può aiutarci a raggiungerli.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Come avevo scritto nell'articolo sulla strategia di Meta verso la superintelligenza, questa visione ha un vantaggio strutturale che nessun concorrente può replicare: 3,58 miliardi di utenti giornalieri sulle piattaforme Meta. Se Muse Spark funziona, quella distribuzione potrebbe trasformarlo nel modello di IA più utilizzato al mondo quasi per inerzia. È la stessa logica che ha guidato l'acquisizione di Moltbook, il social network per agenti AI: Meta sta costruendo l'infrastruttura dove l'intelligenza artificiale vive, lavora e interagisce.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Ma nella conference call sugli utili del gennaio 2026, il tono di Zuckerberg è cambiato sensibilmente. Ha ammesso che le risposte a molte domande degli investitori sarebbero state insoddisfacenti, perché l'azienda è in un periodo di ricostruzione. Sui primi modelli ha detto che sarebbero stati buoni, ma soprattutto avrebbero mostrato la traiettoria rapida su cui Meta si trova. È un'ammissione implicita che le promesse del 2025 erano premature.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>Lo scenario competitivo e la frattura Altman-Amodei</strong></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark arriva in un panorama competitivo incandescente. Il giorno prima del lancio, Anthropic ha svelato Claude Mythos Preview, descritto come il modello di IA più potente mai sviluppato dall'azienda, talmente pericoloso da non poter essere rilasciato al pubblico per le minacce alla sicurezza informatica. È disponibile solo per dodici partner selezionati, tra cui AWS, Apple, Google e Microsoft. Come avevo analizzato qui su InTime Blog raccontando la frattura tra Altman e Amodei, la rivalità tra i due è ormai una guerra aperta.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>All'India AI Impact Summit del febbraio 2026, il primo ministro Modi ha invitato i leader dell'IA a tenersi per mano per una foto simbolica di unità: Altman e Amodei hanno ostentatamente rifiutato, alzando i pugni chiusi. Al Super Bowl 2026, Anthropic ha trasmesso quattro spot che deridevano i piani di OpenAI; Altman ha risposto definendo Anthropic disonesta e autoritaria. In questo scontro, Zuckerberg potrebbe inserirsi per provare a uscirne vincitore. C'è poi il rapporto con Elon Musk, che ha seguito una traiettoria inversa: dalla sfida alla gabbia del 2023 a un disgelo tattico. Come avevo scritto nell'articolo sulla possibile alleanza tra Zuckerberg e Musk, documenti giudiziari desecretati nel marzo 2026 hanno rivelato contatti diretti tra i due. Zuckerberg aveva offerto supporto per DOGE, Musk aveva chiesto se fosse interessato a un'offerta congiunta per OpenAI. Zuckerberg ha ascoltato ma ha rifiutato di partecipare. La convergenza resta tattica, non strategica, ma il nemico comune in OpenAI potrebbe cambiare le cose.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>I 600 miliardi di dollari e la scommessa esistenziale</strong></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I numeri degli investimenti sono impressionanti anche per gli standard della Silicon Valley. Meta prevede di spendere fino a 135 miliardi di dollari nel 2026, quasi il doppio dei 72 miliardi dell'anno precedente. Zuckerberg ha promesso 600 miliardi in nuovi data center entro il 2028. È una scommessa esistenziale: se la superintelligenza arriva e Meta non è pronta, l'azienda rischia di diventare irrilevante. Se investe tutto e la superintelligenza non arriva, o arriva in forme diverse da quelle previste, ha bruciato centinaia di miliardi. Come avevo analizzato nell'articolo sui risultati record di Meta nel 2025, il razionale di Zuckerberg è elegante nella sua semplicità: se la superintelligenza arriva presto, Meta sarà pronta per un cambio di paradigma generazionale. Se arriva tardi, Meta avrà capacità di calcolo in eccesso che può usare per accelerare il proprio core business pubblicitario. Nel peggiore dei casi, rallenta la costruzione di infrastruttura e cresce lentamente dentro quello che ha già costruito. È lo stesso ragionamento che Jeff Bezos usò per Amazon Web Services.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>Una trasformazione senza precedenti</strong></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark non è semplicemente un nuovo modello di intelligenza artificiale. È la manifestazione fisica di una trasformazione aziendale che ha pochi precedenti nella storia della tecnologia. Meta ha liquidato il metaverso, sacrificato i propri scienziati di punta, abbandonato la propria filosofia open source, investito decine di miliardi in un ventottenne, e promesso 600 miliardi di dollari per costruire qualcosa che, per sua stessa ammissione, è ancora alla portata ma non raggiunto.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I rischi sono proporzionali all'ambizione. I benchmark auto-dichiarati richiedono verifica indipendente. La partenza di LeCun priva Meta di credibilità scientifica. La scelta closed source aliena la comunità degli sviluppatori che aveva costruito un ecosistema attorno a Llama. E il modello Watermelon, il vero test della capacità del Superintelligence Labs di competere stabilmente alla frontiera, è ancora in fase di sviluppo.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nel frattempo, Anthropic ha dimostrato con Mythos capacità che pongono domande esistenziali sulla sicurezza, Google domina su più benchmark, e OpenAI prepara un'IPO da mille miliardi. La corsa alla superintelligenza è appena iniziata. E Meta ha deciso che il prezzo per non partecipare è più alto di qualsiasi investimento immaginabile. Staremo a vedere se questa scommessa si rivelerà la più lungimirante o la più costosa della storia della Silicon Valley.</p>
<!-- /wp:paragraph -->
    Nella foto: Alexandr Wang

    Nato nel 1997 a Los Alamos, figlio di fisici cinesi immigrati che lavoravano al laboratorio nazionale, Wang aveva fondato Scale AI a 19 anni abbandonando il MIT. A 24 anni era il più giovane miliardario self-made al mondo.

    Meta ha investito 14,3 miliardi di dollari per una quota del 49% in Scale AI, raddoppiandone la valutazione. Come parte dell’accordo, Wang ha lasciato la carica di CEO per guidare il nuovo laboratorio. Zuckerberg lo ha descritto come il fondatore più impressionante della sua generazione. Ma c’è chi solleva dubbi: Wang viene da un’azienda di etichettatura dati, non dalla ricerca fondamentale sull’IA.

    E il suo arrivo ha provocato la partenza di Yann LeCun, che al Financial Times ha dichiarato di non essere disposto a sottostare all’autorità di un giovane e inesperto manager.

    I licenziamenti e l’abbandono del metaverso

    La nascita del Superintelligence Labs è solo un tassello di una riorganizzazione che ha investito ogni livello di Meta. L’elenco delle perdite è impressionante.

    Yann LeCun se n’è andato e ha fondato un proprio laboratorio raccogliendo oltre un miliardo di dollari.

    Chris Cox, Chief Product Officer e veterano ventennale, è stato rimosso dalla supervisione dell’IA dopo il fiasco di Llama 4. Undici dei quattordici ricercatori originali che avevano costruito il primo modello Llama nel 2023 hanno lasciato l’azienda.

    I licenziamenti hanno riguardato circa 600 posizioni del laboratorio, nell’ottobre 2025; circa 1.500 dipendenti da Reality Labs nel gennaio 2026 con la chiusura degli studi di gioco VR, e diverse centinaia in più nel marzo 2026.

    Come avevo raccontato qui su InTime Blog analizzando l’acquisizione di Moltbook, Meta sta ridisegnando completamente la propria struttura organizzativa attorno all’intelligenza artificiale.

    Il ridimensionamento del metaverso è stato altrettanto drastico.

    Reality Labs ha accumulato oltre 70 miliardi di dollari di perdite operative dal 2021. Bloomberg ha riportato che Meta stava tagliando la spesa per il metaverso fino al 30%.

    La ristrutturazione ha colpito anche Horizon Worlds, il mondo virtuale che Zuckerberg aveva immaginato per un miliardo di persone. Verrà rimosso dalla VR il 15 giugno 2026, sopravvivendo solo come esperienza mobile.

    Era il progetto per cui Facebook aveva cambiato nome in Meta.

    Zuckerberg e la superintelligenza personale per tutti

    Nel luglio 2025, Zuckerberg ha pubblicato un lungo post intitolato Personal Superintelligence for Everyone, in cui delineava la sua visione.

    Vale la pena di soffermarsi su cosa intende, perché è diverso da quello che propongono i concorrenti.

    La superintelligenza personale di Meta non è un sistema centralizzato che automatizza tutto il lavoro umano. Si tratta di un compagno personale che ci conosce profondamente, comprende i nostri obiettivi, e può aiutarci a raggiungerli.

    Come avevo scritto sulla strategia di Meta verso la superintelligenza, questa visione ha un vantaggio strutturale che nessun concorrente può ancora raggiungere. E cioè 3,58 miliardi di utenti giornalieri sulle piattaforme Meta.

    Se Muse Spark funziona, quella distribuzione potrebbe trasformarlo nel modello di IA più utilizzato al mondo quasi per inerzia.

    È la stessa logica che ha guidato l’acquisizione di Moltbook, il social network per agenti AI: Meta sta costruendo l’infrastruttura dove l’intelligenza artificiale vive, lavora e interagisce.

    Lo scenario competitivo e la frattura Altman-Amodei

    Muse Spark arriva in un panorama competitivo incandescente.

    Il giorno prima del lancio, Anthropic ha svelato Claude Mythos Preview, descritto come il modello di IA più potente mai sviluppato dall’azienda, talmente pericoloso da non poter essere rilasciato al pubblico per le minacce alla sicurezza informatica.

    È disponibile solo per dodici partner selezionati, tra cui AWS, Apple, Google e Microsoft. Come avevo analizzato qui su InTime Blog raccontando la frattura tra Altman e Amodei, la rivalità tra i due è ormai una guerra aperta.

    C’è poi il rapporto con Elon Musk, che ha seguito una traiettoria inversa: dalla sfida alla gabbia del 2023 a un disgelo tattico.

    Come avevo scritto nell’articolo sulla possibile alleanza tra Zuckerberg e Musk, documenti giudiziari desecretati nel marzo 2026 hanno rivelato contatti diretti tra i due.

    Insomma, non si tratta solo del lancio di un nuovo modello di IA, come ormai ci stiamo abituando ad assistere praticamente ogni giorno.

    Dietro c’è una strategia che val la pena di essere indagata per capire il perché di certe mosse, per avere chiaro anche il contesto in cui ci si muove.

    E anche di comprendere come lo schema delle alleanze si muove e agisce di conesguenza.