Categoria: Intelligenza Artificiale

In questa categoria troverete articoli su Intelligenza Artificiale e Machine Learning, soprattutto su come queste tecnologie stanno evolvendosi, con esempi concreti

  • Ecco Muse Spark, la superintelligenza di Meta

    Ecco Muse Spark, la superintelligenza di Meta

    Meta ha presentato Muse Spark, il primo modello di IA sviluppato dal nuovo Superintelligence Lab. È un modello proprietario che segna una rottura netta con la filosofia open source che aveva caratterizzato Meta fino a ieri. La domanda è se tutto questo basterà a colmare il divario con OpenAI, Anthropic e Google.

    Mark Zuckerberg ha al momento diversi problemi, ma uno in particolare ce l’ha con le promesse. Nel gennaio 2025 aveva annunciato che sarebbe stato un anno decisivo per l’intelligenza artificiale di Meta, con Llama 4 pronto a diventare il modello stato dell’arte e Meta AI destinata a raggiungere un miliardo di utenti.

    Un anno dopo, Llama 4 è soltanto un ricordo imbarazzante, il Chief AI Scientist che lo aveva costruito se n’è andato sbattendo la porta, e Zuckerberg si ritrova a presentare qualcosa di completamente diverso.

    E parliamo di Muse Spark, il primo modello sviluppato da un laboratorio che non esisteva nemmeno dodici mesi fa.

    Ma questa volta la posta in gioco è diversa. Non si tratta di un aggiornamento incrementale o di una nuova versione di un prodotto esistente.

    Muse Spark rappresenta una rottura totale con il passato di Meta. È un modello proprietario invece che open source ed è stato costruito da un team quasi interamente nuovo.

    Muse Spark rappresenta il prodotto concreto di una riorganizzazione che ha investito ogni livello dell’azienda. Centinaia di licenziamenti, l’abbandono progressivo del metaverso, investimenti da 135 miliardi di dollari nel solo 2026. E al centro di tutto, un ventottenne che fino a ieri guidava un’azienda di etichettatura dati. Ma andiamo con ordine.

    Muse Spark nasce dalle ceneri di Llama

    Per capire Muse Spark bisogna partire da quello che è successo prima.

    Nell’aprile 2025, Meta lancia Llama 4 nelle varianti Maverick e Scout, ma il rilascio è un disastro. Yann LeCun, premio Turing 2019 e Chief AI Scientist di Meta dal 2013, ammetterà poi al Financial Times che i risultati erano stati falsificati: il team aveva usato versioni ottimizzate per specifici benchmark, gonfiando artificialmente le prestazioni. Il modello di punta, Behemoth, viene rinviato più volte e infine accantonato.

    Zuckerberg, furioso, mette da parte l’intera organizzazione GenAI e inizia a reclutare personalmente un nuovo team.

    Crea un gruppo WhatsApp chiamato Recruiting Party attivo 24 ore su 24. Il risultato di quella crisi è Muse Spark, nome in codice interno Avocado, costruito da zero in nove mesi dal nuovo Meta Superintelligence Labs. Non è una versione evoluta di Llama, è un modello completamente diverso, ricostruito a partire da un nuovo stack di pre-training.

    Cosa fa Muse Spark

    Proviamo a spiegarlo in modo semplice, perché è importante capire di cosa stiamo parlando.

    Muse Spark è un modello di intelligenza artificiale multimodale, il che significa che può elaborare testo, immagini e voce contemporaneamente.

    Ha una finestra di contesto di 262.000 token, vale a dire che può tenere a mente una quantità enorme di informazioni durante una conversazione. E opera in tre modalità diverse a seconda di cosa gli viene chiesto.

    La modalità Instant serve per le domande rapide: chiedi qualcosa, ottieni una risposta immediata. La modalità Thinking attiva un ragionamento più profondo per problemi complessi. Ma la vera novità è la modalità Contemplating, che orchestra più sotto-agenti che ragionano in parallelo.

    In pratica, se chiedi a Meta AI di pianificare un viaggio in famiglia, un agente si occupa dell’itinerario, un altro confronta le destinazioni, un terzo cerca le attività adatte ai bambini. Tutto contemporaneamente.

    Tra le capacità distintive c’è il ragionamento visivo: si può fotografare uno scaffale di snack in aeroporto, ad esempio, e Muse Spark ti dice quali hanno più proteine senza che tu debba leggere le etichette.

    C’è poi una modalità shopping che integra dati comportamentali dalle piattaforme Meta. E ci sono capacità di ragionamento medico sviluppate in collaborazione con oltre mille medici, anche se su questo punto, va detto, i dubbi sulla privacy restano aperti.

    Muse Spark, una storia all’inseguimento

    I benchmark sono il modo in cui l’industria misura le capacità dei modelli di IA, e quelli di Muse Spark raccontano dei dati interessanti.

    Sull’Artificial Analysis Intelligence Index, il modello di Meta ottiene un punteggio di 52, collocandosi nella top 5 globale ma dietro a GPT-5.4 e Gemini 3.1 Pro, entrambi a 57, e leggermente sotto Claude Opus 4.6, a 53. Il salto rispetto ai modelli Llama 4 è enorme: Maverick aveva ottenuto 18, Scout appena 13.

    Dove Muse Spark eccelle davvero è nei benchmark specialistici.

    Nel ragionamento medico batte GPT-5.4 e surclassa tutti gli altri. Nella comprensione di grafici e figure supera anche i migliori modelli di OpenAI. Ma i punti deboli sono altrettanto significativi: nel ragionamento astratto il divario con Gemini è drastico, 42.5 contro 76.5. E nel coding agentico, che è diventato l’obiettivo principale di Anthropic e degli altri nella corsa all’IA, GPT-5.4 lo supera nettamente.

    C’è poi un aspetto che va sottolineato, perché riguarda la credibilità di questi numeri.

    I benchmark auto-dichiarati di Meta vanno trattati con cautela data la storia recente.

    Fortune ha notato che le verifiche indipendenti mostrano a volte discrepanze: su alcuni test, Meta dichiara risultati che i laboratori esterni non riescono a replicare. È un problema di fiducia che l’azienda dovrà risolvere.

    L’abbandono dell’open source e la svolta strategica

    La scelta closed source è il cambio di rotta più clamoroso.

    Nel luglio 2024, Zuckerberg aveva pubblicato un manifesto intitolato Open Source AI is the Path Forward, paragonando Llama a Linux e argomentando che l’IA open source rappresentava la migliore possibilità del mondo di sfruttare questa tecnologia. Appena due anni dopo, Muse Spark è completamente un modello proprietario.

    Le ragioni di questa inversione sono diverse.

    Primo, la pressione competitiva: dopo il fallimento di Llama 4, Meta non può permettersi di regalare le proprie innovazioni ai concorrenti.

    Secondo, il precedente di DeepSeek: il laboratorio cinese aveva copiato con successo l’architettura di Llama per sviluppare il proprio modello R1, dimostrando concretamente i rischi della strategia aperta.

    Terzo, la monetizzazione: Meta sta sperimentando l’accesso API a pagamento, attualmente in anteprima privata per partner selezionati.

    La strategia emergente sembra quella di un modello freemium: i modelli più potenti e recenti restano proprietari e disponibili tramite API a pagamento, mentre le versioni precedenti vengono rilasciate come open source. Meta ha dichiarato di sperare di rendere open source le future versioni del modello, ma senza fornire alcuna tempistica. Tradotto: per ora resta tutto chiuso.

    Alexandr Wang e i 14 miliardi di dollari per un ventottenne

    A guidare il Meta Superintelligence Labs c’è Alexandr Wang, nominato primo Chief AI Officer nella storia di Meta. La sua storia merita di essere raccontata perché dice molto sulla scommessa che Zuckerberg sta facendo.

    <!-- wp:heading -->
<h2 class="wp-block-heading"><strong>Meta ha presentato Muse Spark, il primo modello di IA sviluppato dal nuovo Superintelligence Lab. È un modello proprietario che segna una rottura netta con la filosofia open source che aveva caratterizzato Meta fino a ieri. La domanda è se tutto questo basterà a colmare il divario con OpenAI, Anthropic e Google.</strong></h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Mark Zuckerberg ha al momento diversi problemi, ma uno in particolare ce l'ha con le promesse. Nel gennaio 2025 aveva annunciato che sarebbe stato un anno decisivo per l'intelligenza artificiale di Meta, con Llama 4 pronto a diventare il modello stato dell'arte e Meta AI destinata a raggiungere un miliardo di utenti. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Un anno dopo, <a href="https://www.franzrusso.it/?s=Llama" target="_blank" rel="noreferrer noopener">Llama</a> 4 è soltanto un ricordo imbarazzante, il Chief AI Scientist che lo aveva costruito se n'è andato sbattendo la porta, e Zuckerberg si ritrova a presentare qualcosa di completamente diverso.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>E <a href="https://about.fb.com/news/2026/04/introducing-muse-spark-meta-superintelligence-labs/">parliamo di Muse Spark, il primo modello sviluppato da un laboratorio che non esisteva nemmeno dodici mesi fa</a>.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Ma questa volta la posta in gioco è diversa. Non si tratta di un aggiornamento incrementale o di una nuova versione di un prodotto esistente. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark rappresenta una rottura totale con il passato di Meta. È un modello proprietario invece che open source ed è stato costruito da un team quasi interamente nuovo.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark rappresenta il prodotto concreto di una riorganizzazione che ha investito ogni livello dell'azienda. Centinaia di licenziamenti, l'abbandono progressivo del metaverso, investimenti da 135 miliardi di dollari nel solo 2026. E al centro di tutto, un ventottenne che fino a ieri guidava un'azienda di etichettatura dati. Ma andiamo con ordine.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading">Muse Spark nasce dalle ceneri di Llama</h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Per capire Muse Spark bisogna partire da quello che è successo prima. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nell'aprile 2025, Meta lancia Llama 4 nelle varianti Maverick e Scout, ma il rilascio è un disastro. <a href="https://www.franzrusso.it/intelligenza-artificiale/yann-lecun-laurea-ad-honorem-universita-siena/" target="_blank" rel="noreferrer noopener">Yann LeCun</a>, premio Turing 2019 e Chief AI Scientist di Meta dal 2013, ammetterà poi al Financial Times che i risultati erano stati falsificati: il team aveva usato versioni ottimizzate per specifici benchmark, gonfiando artificialmente le prestazioni. Il modello di punta, Behemoth, viene rinviato più volte e infine accantonato. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Zuckerberg, furioso, mette da parte l'intera organizzazione GenAI e inizia a reclutare personalmente un nuovo team. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Crea un gruppo WhatsApp chiamato Recruiting Party attivo 24 ore su 24. <strong>Il risultato di quella crisi è Muse Spark, nome in codice interno Avocado, costruito da zero in nove mesi dal nuovo Meta Superintelligence Labs</strong>. Non è una versione evoluta di Llama, è un modello completamente diverso, ricostruito a partire da un nuovo stack di pre-training.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading"><strong>Cosa fa Muse Spark </strong></h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Proviamo a spiegarlo in modo semplice, perché è importante capire di cosa stiamo parlando. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>Muse Spark è un modello di intelligenza artificiale multimodale, il che significa che può elaborare testo, immagini e voce contemporaneamente</strong>. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Ha una finestra di contesto di 262.000 token, vale a dire che può tenere a mente una quantità enorme di informazioni durante una conversazione. E opera in tre modalità diverse a seconda di cosa gli viene chiesto.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>La modalità Instant serve per le domande rapide: chiedi qualcosa, ottieni una risposta immediata. La modalità Thinking attiva un ragionamento più profondo per problemi complessi. Ma la vera novità è la modalità Contemplating, che orchestra più sotto-agenti che ragionano in parallelo. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>In pratica, se chiedi a Meta AI di pianificare un viaggio in famiglia, un agente si occupa dell'itinerario, un altro confronta le destinazioni, un terzo cerca le attività adatte ai bambini. Tutto contemporaneamente.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Tra le capacità distintive c'è il ragionamento visivo: si può fotografare uno scaffale di snack in aeroporto, ad esempio, e Muse Spark ti dice quali hanno più proteine senza che tu debba leggere le etichette. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>C'è poi una modalità shopping che integra dati comportamentali dalle piattaforme Meta. E ci sono capacità di ragionamento medico sviluppate in collaborazione con oltre mille medici, anche se su questo punto, va detto, i dubbi sulla privacy restano aperti.</p>
<!-- /wp:paragraph -->

<!-- wp:heading {"level":3} -->
<h3 class="wp-block-heading"><strong>Muse Spark, una storia all'inseguimento</strong></h3>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>I benchmark sono il modo in cui l'industria misura le capacità dei modelli di IA, e quelli di Muse Spark raccontano dei dati interessanti. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Sull'<a href="https://artificialanalysis.ai/evaluations/artificial-analysis-intelligence-index">Artificial Analysis Intelligence Index</a>, il modello di Meta ottiene un punteggio di 52, <strong>collocandosi nella top 5 globale ma dietro a GPT-5.4 e Gemini 3.1 Pro</strong>, entrambi a 57, e leggermente sotto Claude Opus 4.6, a 53. Il salto rispetto ai modelli Llama 4 è enorme: Maverick aveva ottenuto 18, Scout appena 13.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Dove Muse Spark eccelle davvero è nei benchmark specialistici. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nel ragionamento medico batte GPT-5.4 e surclassa tutti gli altri. Nella comprensione di grafici e figure supera anche i migliori modelli di OpenAI. Ma i punti deboli sono altrettanto significativi: nel ragionamento astratto il divario con Gemini è drastico, 42.5 contro 76.5. E nel coding agentico, che è diventato l'obiettivo principale di Anthropic e degli altri nella corsa all'IA, GPT-5.4 lo supera nettamente.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>C'è poi un aspetto che va sottolineato, perché riguarda la credibilità di questi numeri. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I benchmark auto-dichiarati di Meta vanno trattati con cautela data la storia recente. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Fortune ha notato che le verifiche indipendenti mostrano a volte discrepanze: su alcuni test, Meta dichiara risultati che i laboratori esterni non riescono a replicare. È un problema di fiducia che l'azienda dovrà risolvere.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading">L'abbandono dell'open source e la svolta strategica</h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>La scelta closed source è il cambio di rotta più clamoroso. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nel luglio 2024, Zuckerberg aveva pubblicato un manifesto intitolato Open Source AI is the Path Forward, paragonando Llama a Linux e argomentando che l'IA open source rappresentava la migliore possibilità del mondo di sfruttare questa tecnologia. Appena due anni dopo, Muse Spark è completamente un modello proprietario.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Le ragioni di questa inversione sono diverse. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Primo, la pressione competitiva: dopo il fallimento di Llama 4, Meta non può permettersi di regalare le proprie innovazioni ai concorrenti. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Secondo, il precedente di DeepSeek: il laboratorio cinese aveva copiato con successo l'architettura di Llama per sviluppare il proprio modello R1, dimostrando concretamente i rischi della strategia aperta. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Terzo, la monetizzazione: Meta sta sperimentando l'accesso API a pagamento, attualmente in anteprima privata per partner selezionati.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>La strategia emergente sembra quella di un modello freemium: i modelli più potenti e recenti restano proprietari e disponibili tramite API a pagamento, mentre le versioni precedenti vengono rilasciate come open source. Meta ha dichiarato di sperare di rendere open source le future versioni del modello, ma senza fornire alcuna tempistica. Tradotto: per ora resta tutto chiuso.</p>
<!-- /wp:paragraph -->

<!-- wp:heading {"level":3} -->
<h3 class="wp-block-heading"><strong>Alexandr Wang e i 14 miliardi di dollari per un ventottenne</strong></h3>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>A guidare il Meta Superintelligence Labs c'è Alexandr Wang, nominato primo Chief AI Officer nella storia di Meta. La sua storia merita di essere raccontata perché ci dice molto sulla scommessa che Zuckerberg sta facendo. </p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nato nel 1997 a Los Alamos, figlio di fisici cinesi immigrati che lavoravano al laboratorio nazionale, Wang aveva fondato Scale AI a 19 anni abbandonando il MIT. A 24 anni era il più giovane miliardario self-made al mondo.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Meta ha investito 14,3 miliardi di dollari per una quota del 49% in Scale AI, raddoppiandone la valutazione. Come parte dell'accordo, Wang ha lasciato la carica di CEO per guidare il nuovo laboratorio. Zuckerberg lo ha descritto come il fondatore più impressionante della sua generazione. Ma c'è chi solleva dubbi: Wang viene da un'azienda di etichettatura dati, non dalla ricerca fondamentale sull'IA. E il suo arrivo ha provocato la partenza di Yann LeCun, che al Financial Times ha dichiarato di non essere disposto a sottostare all'autorità di un giovane e inesperto manager.</p>
<!-- /wp:paragraph -->

<!-- wp:heading {"level":3} -->
<h3 class="wp-block-heading"><strong>I licenziamenti e l'abbandono del metaverso</strong></h3>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>La nascita del Superintelligence Labs è solo un tassello di una riorganizzazione che ha investito ogni livello di Meta. L'elenco delle perdite è impressionante. Yann LeCun se n'è andato e ha fondato un proprio laboratorio raccogliendo oltre un miliardo di dollari. Chris Cox, Chief Product Officer e veterano ventennale, è stato rimosso dalla supervisione dell'IA dopo il fiasco di Llama 4. Undici dei quattordici ricercatori originali che avevano costruito il primo modello Llama nel 2023 hanno lasciato l'azienda.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I licenziamenti hanno colpito a ondate: circa 600 posizioni eliminate dal laboratorio nell'ottobre 2025, circa 1.500 dipendenti da Reality Labs nel gennaio 2026 con la chiusura degli studi di gioco VR, e diverse centinaia in più nel marzo 2026. Come avevo raccontato qui su InTime Blog analizzando l'acquisizione di Moltbook, Meta sta ridisegnando completamente la propria struttura organizzativa attorno all'intelligenza artificiale.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Il ridimensionamento del metaverso è altrettanto drastico. Reality Labs ha accumulato oltre 70 miliardi di dollari di perdite operative dal 2021. Bloomberg ha riportato che Meta sta tagliando la spesa per il metaverso fino al 30%. Il colpo più simbolico: Horizon Worlds, il mondo virtuale che Zuckerberg aveva immaginato per un miliardo di persone, verrà rimosso dalla VR il 15 giugno 2026, sopravvivendo solo come esperienza mobile. Era il progetto per cui Facebook aveva cambiato nome in Meta. Ora è un residuo.</p>
<!-- /wp:paragraph -->

<!-- wp:heading -->
<h2 class="wp-block-heading">Zuckerberg e la superintelligenza personale per tutti</h2>
<!-- /wp:heading -->

<!-- wp:paragraph -->
<p>Nel luglio 2025, Zuckerberg ha pubblicato un lungo post intitolato Personal Superintelligence for Everyone, in cui delineava la sua visione. Vale la pena di soffermarsi su cosa intende, perché è diverso da quello che propongono i concorrenti. La superintelligenza personale di Meta non è un sistema centralizzato che automatizza tutto il lavoro umano. È un compagno personale che ci conosce profondamente, comprende i nostri obiettivi, e può aiutarci a raggiungerli.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Come avevo scritto nell'articolo sulla strategia di Meta verso la superintelligenza, questa visione ha un vantaggio strutturale che nessun concorrente può replicare: 3,58 miliardi di utenti giornalieri sulle piattaforme Meta. Se Muse Spark funziona, quella distribuzione potrebbe trasformarlo nel modello di IA più utilizzato al mondo quasi per inerzia. È la stessa logica che ha guidato l'acquisizione di Moltbook, il social network per agenti AI: Meta sta costruendo l'infrastruttura dove l'intelligenza artificiale vive, lavora e interagisce.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Ma nella conference call sugli utili del gennaio 2026, il tono di Zuckerberg è cambiato sensibilmente. Ha ammesso che le risposte a molte domande degli investitori sarebbero state insoddisfacenti, perché l'azienda è in un periodo di ricostruzione. Sui primi modelli ha detto che sarebbero stati buoni, ma soprattutto avrebbero mostrato la traiettoria rapida su cui Meta si trova. È un'ammissione implicita che le promesse del 2025 erano premature.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>Lo scenario competitivo e la frattura Altman-Amodei</strong></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark arriva in un panorama competitivo incandescente. Il giorno prima del lancio, Anthropic ha svelato Claude Mythos Preview, descritto come il modello di IA più potente mai sviluppato dall'azienda, talmente pericoloso da non poter essere rilasciato al pubblico per le minacce alla sicurezza informatica. È disponibile solo per dodici partner selezionati, tra cui AWS, Apple, Google e Microsoft. Come avevo analizzato qui su InTime Blog raccontando la frattura tra Altman e Amodei, la rivalità tra i due è ormai una guerra aperta.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>All'India AI Impact Summit del febbraio 2026, il primo ministro Modi ha invitato i leader dell'IA a tenersi per mano per una foto simbolica di unità: Altman e Amodei hanno ostentatamente rifiutato, alzando i pugni chiusi. Al Super Bowl 2026, Anthropic ha trasmesso quattro spot che deridevano i piani di OpenAI; Altman ha risposto definendo Anthropic disonesta e autoritaria. In questo scontro, Zuckerberg potrebbe inserirsi per provare a uscirne vincitore. C'è poi il rapporto con Elon Musk, che ha seguito una traiettoria inversa: dalla sfida alla gabbia del 2023 a un disgelo tattico. Come avevo scritto nell'articolo sulla possibile alleanza tra Zuckerberg e Musk, documenti giudiziari desecretati nel marzo 2026 hanno rivelato contatti diretti tra i due. Zuckerberg aveva offerto supporto per DOGE, Musk aveva chiesto se fosse interessato a un'offerta congiunta per OpenAI. Zuckerberg ha ascoltato ma ha rifiutato di partecipare. La convergenza resta tattica, non strategica, ma il nemico comune in OpenAI potrebbe cambiare le cose.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>I 600 miliardi di dollari e la scommessa esistenziale</strong></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I numeri degli investimenti sono impressionanti anche per gli standard della Silicon Valley. Meta prevede di spendere fino a 135 miliardi di dollari nel 2026, quasi il doppio dei 72 miliardi dell'anno precedente. Zuckerberg ha promesso 600 miliardi in nuovi data center entro il 2028. È una scommessa esistenziale: se la superintelligenza arriva e Meta non è pronta, l'azienda rischia di diventare irrilevante. Se investe tutto e la superintelligenza non arriva, o arriva in forme diverse da quelle previste, ha bruciato centinaia di miliardi. Come avevo analizzato nell'articolo sui risultati record di Meta nel 2025, il razionale di Zuckerberg è elegante nella sua semplicità: se la superintelligenza arriva presto, Meta sarà pronta per un cambio di paradigma generazionale. Se arriva tardi, Meta avrà capacità di calcolo in eccesso che può usare per accelerare il proprio core business pubblicitario. Nel peggiore dei casi, rallenta la costruzione di infrastruttura e cresce lentamente dentro quello che ha già costruito. È lo stesso ragionamento che Jeff Bezos usò per Amazon Web Services.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p><strong>Una trasformazione senza precedenti</strong></p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Muse Spark non è semplicemente un nuovo modello di intelligenza artificiale. È la manifestazione fisica di una trasformazione aziendale che ha pochi precedenti nella storia della tecnologia. Meta ha liquidato il metaverso, sacrificato i propri scienziati di punta, abbandonato la propria filosofia open source, investito decine di miliardi in un ventottenne, e promesso 600 miliardi di dollari per costruire qualcosa che, per sua stessa ammissione, è ancora alla portata ma non raggiunto.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>I rischi sono proporzionali all'ambizione. I benchmark auto-dichiarati richiedono verifica indipendente. La partenza di LeCun priva Meta di credibilità scientifica. La scelta closed source aliena la comunità degli sviluppatori che aveva costruito un ecosistema attorno a Llama. E il modello Watermelon, il vero test della capacità del Superintelligence Labs di competere stabilmente alla frontiera, è ancora in fase di sviluppo.</p>
<!-- /wp:paragraph -->

<!-- wp:paragraph -->
<p>Nel frattempo, Anthropic ha dimostrato con Mythos capacità che pongono domande esistenziali sulla sicurezza, Google domina su più benchmark, e OpenAI prepara un'IPO da mille miliardi. La corsa alla superintelligenza è appena iniziata. E Meta ha deciso che il prezzo per non partecipare è più alto di qualsiasi investimento immaginabile. Staremo a vedere se questa scommessa si rivelerà la più lungimirante o la più costosa della storia della Silicon Valley.</p>
<!-- /wp:paragraph -->
    Nella foto: Alexandr Wang

    Nato nel 1997 a Los Alamos, figlio di fisici cinesi immigrati che lavoravano al laboratorio nazionale, Wang aveva fondato Scale AI a 19 anni abbandonando il MIT. A 24 anni era il più giovane miliardario self-made al mondo.

    Meta ha investito 14,3 miliardi di dollari per una quota del 49% in Scale AI, raddoppiandone la valutazione. Come parte dell’accordo, Wang ha lasciato la carica di CEO per guidare il nuovo laboratorio. Zuckerberg lo ha descritto come il fondatore più impressionante della sua generazione. Ma c’è chi solleva dubbi: Wang viene da un’azienda di etichettatura dati, non dalla ricerca fondamentale sull’IA.

    E il suo arrivo ha provocato la partenza di Yann LeCun, che al Financial Times ha dichiarato di non essere disposto a sottostare all’autorità di un giovane e inesperto manager.

    I licenziamenti e l’abbandono del metaverso

    La nascita del Superintelligence Labs è solo un tassello di una riorganizzazione che ha investito ogni livello di Meta. L’elenco delle perdite è impressionante.

    Yann LeCun se n’è andato e ha fondato un proprio laboratorio raccogliendo oltre un miliardo di dollari.

    Chris Cox, Chief Product Officer e veterano ventennale, è stato rimosso dalla supervisione dell’IA dopo il fiasco di Llama 4. Undici dei quattordici ricercatori originali che avevano costruito il primo modello Llama nel 2023 hanno lasciato l’azienda.

    I licenziamenti hanno riguardato circa 600 posizioni del laboratorio, nell’ottobre 2025; circa 1.500 dipendenti da Reality Labs nel gennaio 2026 con la chiusura degli studi di gioco VR, e diverse centinaia in più nel marzo 2026.

    Come avevo raccontato qui su InTime Blog analizzando l’acquisizione di Moltbook, Meta sta ridisegnando completamente la propria struttura organizzativa attorno all’intelligenza artificiale.

    Il ridimensionamento del metaverso è stato altrettanto drastico.

    Reality Labs ha accumulato oltre 70 miliardi di dollari di perdite operative dal 2021. Bloomberg ha riportato che Meta stava tagliando la spesa per il metaverso fino al 30%.

    La ristrutturazione ha colpito anche Horizon Worlds, il mondo virtuale che Zuckerberg aveva immaginato per un miliardo di persone. Verrà rimosso dalla VR il 15 giugno 2026, sopravvivendo solo come esperienza mobile.

    Era il progetto per cui Facebook aveva cambiato nome in Meta.

    Zuckerberg e la superintelligenza personale per tutti

    Nel luglio 2025, Zuckerberg ha pubblicato un lungo post intitolato Personal Superintelligence for Everyone, in cui delineava la sua visione.

    Vale la pena di soffermarsi su cosa intende, perché è diverso da quello che propongono i concorrenti.

    La superintelligenza personale di Meta non è un sistema centralizzato che automatizza tutto il lavoro umano. Si tratta di un compagno personale che ci conosce profondamente, comprende i nostri obiettivi, e può aiutarci a raggiungerli.

    Come avevo scritto sulla strategia di Meta verso la superintelligenza, questa visione ha un vantaggio strutturale che nessun concorrente può ancora raggiungere. E cioè 3,58 miliardi di utenti giornalieri sulle piattaforme Meta.

    Se Muse Spark funziona, quella distribuzione potrebbe trasformarlo nel modello di IA più utilizzato al mondo quasi per inerzia.

    È la stessa logica che ha guidato l’acquisizione di Moltbook, il social network per agenti AI: Meta sta costruendo l’infrastruttura dove l’intelligenza artificiale vive, lavora e interagisce.

    Lo scenario competitivo e la frattura Altman-Amodei

    Muse Spark arriva in un panorama competitivo incandescente.

    Il giorno prima del lancio, Anthropic ha svelato Claude Mythos Preview, descritto come il modello di IA più potente mai sviluppato dall’azienda, talmente pericoloso da non poter essere rilasciato al pubblico per le minacce alla sicurezza informatica.

    È disponibile solo per dodici partner selezionati, tra cui AWS, Apple, Google e Microsoft. Come avevo analizzato qui su InTime Blog raccontando la frattura tra Altman e Amodei, la rivalità tra i due è ormai una guerra aperta.

    C’è poi il rapporto con Elon Musk, che ha seguito una traiettoria inversa: dalla sfida alla gabbia del 2023 a un disgelo tattico.

    Come avevo scritto nell’articolo sulla possibile alleanza tra Zuckerberg e Musk, documenti giudiziari desecretati nel marzo 2026 hanno rivelato contatti diretti tra i due.

    Insomma, non si tratta solo del lancio di un nuovo modello di IA, come ormai ci stiamo abituando ad assistere praticamente ogni giorno.

    Dietro c’è una strategia che val la pena di essere indagata per capire il perché di certe mosse, per avere chiaro anche il contesto in cui ci si muove.

    E anche di comprendere come lo schema delle alleanze si muove e agisce di conesguenza.

  • Mark Zuckerberg e Elon Musk, da nemici giurati a complici

    Mark Zuckerberg e Elon Musk, da nemici giurati a complici

    I documenti depositati nella causa Musk contro OpenAI rivelano messaggi privati tra i due CEO. Zuckerberg offrì supporto al DOGE e Musk propose un’offerta congiunta da 97,4 miliardi di dollari per acquisire OpenAI. Una convergenza strategica che ribalta anni di rivalità pubblica.

    Mark Zuckerberg si è offerto di aiutare Elon Musk e il suo DOGE.

    Lo rivelano i documenti depositati venerdì scorso nell’ambito della causa che Musk ha intentato contro Sam Altman e OpenAI, e vale la pena soffermarsi un attimo perché racconta molto più di un semplice scambio di messaggi tra due miliardari.

    Vi ricordate dove li avevamo lasciati? Era il 2023, e i due si stavano organizzando per sfidarsi a duello, un combattimento che avrebbe dovuto tenersi addirittura al Colosseo, con l’allora ministro Sangiuliano che si era offerto come mediatore istituzionale per ospitare lo scontro del secolo.

    L’inizio della rivalità tra Zuckerberg e Musk

    Una rivalità che in realtà affondava le radici molto più indietro. Un esempio si ebbe nel 2016, quando l’esplosione di un razzo SpaceX distrusse un satellite Facebook che si trovava a bordo. Da quel momento in poi i due sono andati avanti con provocazioni reciproche e dichiarazioni al vetriolo.

    Eppure, nel corso dell’ultimo periodo, qualcosa è cambiato, e i documenti giudiziari ci permettono oggi di ricostruire la sequenza con una certa precisione.

    Il primo segnale risale al 13 dicembre 2024, quando Zuckerberg scrisse a Musk per avvisarlo personalmente che qualcuno aveva fatto trapelare la lettera con cui Meta chiedeva all’Attorney General della California di bloccare la transizione di OpenAI verso un modello for-profit. Una lettera in cui Meta sosteneva esplicitamente che Musk fosse “qualificato e ben posizionato per rappresentare gli interessi dei californiani” nella sua battaglia legale contro Altman.

    Zuckerberg e Musk, insieme nel segno di Trump

    Poi è arrivato il 20 gennaio 2025, il giorno dell’insediamento di Trump, e la scena che si è presentata agli occhi del mondo ha reso evidente ciò che stava accadendo.

    Musk, Zuckerberg, Bezos e Pichai sedevano insieme in prima fila, più vicini al nuovo presidente di molti dei suoi stessi consiglieri, gli unici non familiari in grado letteralmente di sussurrare all’orecchio di Trump o Vance dal palco.

    Ciascuno di loro aveva versato un milione di dollari per l’evento, e Zuckerberg aveva annunciato pochi giorni prima l’abbandono del fact-checking sulle piattaforme Meta, una svolta che segnava un allineamento politico ormai inequivocabile.

    Ma è il 3 febbraio 2025 che la convergenza diventa operativa, come riportano i documenti.

    Mark Zuckerberg e Elon Musk, da nemici giurati a complici
    Mark Zuckerberg e Elon Musk, da nemici giurati a complici

    E uniti contro OpenAI di Sam Altman

    Alle 22:04, Zuckerberg scrive a Musk congratulandosi per i progressi del DOGE e offrendo supporto concreto: i suoi team sono pronti a rimuovere i contenuti che minacciano o fanno doxxing ai collaboratori di Musk. “Fammi sapere se c’è qualcos’altro che posso fare per aiutare”, conclude.

    Meno di mezz’ora dopo, Musk risponde con un cuore e rilancia: “Sei aperto all’idea di fare un’offerta per la proprietà intellettuale di OpenAI con me e alcuni altri?”. Zuckerberg propone di discuterne a voce, Musk dice che chiamerà la mattina dopo.

    Una settimana più tardi, il 10 febbraio, un consorzio guidato da xAI presenta un’offerta non sollecitata da 97,4 miliardi di dollari per acquisire OpenAI, con l’obiettivo dichiarato di bloccare la sua trasformazione in società for-profit. Zuckerberg alla fine non firmò la lettera d’intenti e il board di OpenAI respinse l’offerta, ma il fatto che l’ipotesi sia stata contemplata racconta una storia che va ben oltre i rapporti personali tra i due.

    Zuckerberg, Musk e Trump: una convergenza strategica

    Quello che emerge da questa ricostruzione è un quadro di convergenza strategica guidata da interessi comuni. OpenAI e Sam Altman rappresentano una minaccia esistenziale sia per xAI di Musk che per gli investimenti di Meta nell’intelligenza artificiale, e questo ha creato le condizioni per un allineamento che sarebbe stato impensabile solo due anni fa.

    A questo si aggiunge l’abbraccio condiviso dell’amministrazione Trump, con Meta che ha abbandonato le politiche di moderazione dei contenuti proprio alla vigilia dell’insediamento, e la consapevolezza che la transizione di OpenAI verso il for-profit minaccia entrambi i loro modelli di business.

    Un abbraccio che proprio in questi giorni ha trovato una nuova formalizzazione: mercoledì scorso Trump ha nominato Zuckerberg nel President’s Council of Advisors on Science and Technology, il panel che fornirà consulenza alla Casa Bianca su intelligenza artificiale e politiche tecnologiche.

    Dal duello al Colosseo all’offerta congiunta per OpenAI il passo è stato più breve di quanto chiunque potesse immaginare, e forse questo ci dice qualcosa su come funzionano davvero le dinamiche di potere nella Silicon Valley di oggi.

  • La sentenza del caso KGM segna la fine di un’era dei social media

    La sentenza del caso KGM segna la fine di un’era dei social media

    Una giuria di Los Angeles ha condannato Meta e YouTube per aver progettato piattaforme che creano dipendenza nei minori. È la prima sentenza di questo tipo nella storia. I 6 milioni di dollari di risarcimento sono una cifra simbolica, ma il principio che si afferma potrebbe cambiare per sempre il modo in cui pensiamo ai social media.

    Da anni si sostiene che i social media stanno cambiando, ed è vero. Ma molto spesso quando si fa questa affermazione non ci si rende davvero conto in cosa consista in questo cambiamento.

    Infatti, non sempre ce ne accorgiamo subito, perché il cambiamento vero raramente arriva con i titoli cubitali che ci aspetteremmo. Ma la data 25 marzo 2026 verrà ricordata per essere quello momento specifico in cui le piattaforme social media sono davvero cambiate.

    In un’aula di tribunale di Los Angeles, dodici persone comuni hanno stabilito qualcosa che nessuna istituzione, o quasi, era riuscita a stabilire prima: le piattaforme social possono essere ritenute responsabili per il modo in cui sono progettateNon per i contenuti che ospitano, ma per il design stesso.

    Come già raccontato su queste pagine, la sentenza riguarda una ragazza californiana, identificata con le iniziali K.G.M., che ha citato in giudizio Meta e Google. Come detto in altre situazioni, Kaley iniziato a usare YouTube a sei anni, Instagram a nove. Di fronte alla giuria ha raccontato di aver sviluppato depressione, dismorfismo corporeo, pensieri suicidi. Ma la cosa più importante non è la sua storia personale, per quanto drammatica, è il principio giuridico che questa sentenza afferma.

    La sentenza del caso KGM segna la fine di un’era dei social media
    La sentenza del caso KGM segna la fine di un’era dei social media

    Il design dei social media provoca dipendenza

    Per decenni le piattaforme digitali sono state protette dalla Sezione 230 del Communications Decency Act, una norma americana che le esonera dalla responsabilità per i contenuti pubblicati dagli utenti.

    È stata la base giuridica su cui si è costruito l’intero ecosistema dei social media. Ma questa sentenza aggira completamente quel principio. Non accusa Meta e YouTube per i video visti dalla ragazza o per i post che ha letto. Invece li accusa per lo scroll infinito, per le notifiche che interrompono il sonno, per i filtri di bellezza che alterano la percezione di sé, per i loop di engagement progettati per trattenere gli utenti il più a lungo possibile.

    In altre parole: il problema non è cosa c’è sulla piattaforma, ma è come funziona la piattaforma. È una distinzione sottile ma decisiva, e la giuria l’ha accolta. I documenti interni presentati in aula hanno mostrato che Meta sapeva esattamente cosa stesse facendo. Un memo aziendale recitava, traduco io: “Se vogliamo vincere alla grande con i teenager, dobbiamo portarli dentro come tweens”. Un altro documento stimava il valore economico di un tredicenne in circa 270 dollari, sulla base del fatto che gli utenti più giovani hanno una ritenzione a lungo termine molto più alta. La giuria ha visto questi documenti e ha tratto le sue conclusioni.

    6 milioni di dollari simbolici ma sono un precedente

    Diciamolo, sei milioni di dollari per aziende che valgono più di mille miliardi sono una cifra irrilevante e Meta non accuserà nemmeno il colpo.

    Ma non è questo il punto, il punto è che esistono oltre duemila cause simili solo in California, e più di diecimila a livello nazionale negli Stati Uniti. Questa sentenza era un test, quello che in gergo legale si chiama bellwether trial: un processo apripista che serve a capire se una certa teoria giuridica può reggere in tribunale.

    Il confronto che molti stanno facendo è con le cause contro l’industria del tabacco negli anni Novanta. È un parallelo che ha senso, fino ad un certo punto. Anche allora i documenti interni delle aziende dimostrarono che sapevano dei danni causati dal fumo. E anche allora la difesa si basò sulla responsabilità individuale del consumatore. Le prime sentenze furono simboliche, prima che l’intero sistema crollasse. Ma tra i due casi ci sono differenze importanti.

    Il tabacco causava danni fisici misurabili attraverso l’ingestione di una sostanza. Mentre la dipendenza da social media non è ancora riconosciuta ufficialmente come diagnosi clinica. E soprattutto: nessuno vuole abolire i social media, mentre abolire il fumo era un obiettivo ragionevole.

    Forse il parallelo più calzante è un altro, quello con la sicurezza automobilistica degli anni Sessanta. Le automobili non furono abolite, ad un certo punto ci si rese conto che andavano riprogettate con cinture di sicurezza, airbag e altri sistemi di sicurezza.

    Il principio che si affermò allora è lo stesso che potrebbe affermarsi oggi. Ossia, se un prodotto può essere reso più sicuro senza comprometterne la funzione, allora si deve fare in modo che lo diventi.

    I social media provocano dipendenza

    In aula è stata usata una parola che le piattaforme hanno sempre rifiutato: dipendenza.

    Una psichiatra di Stanford ha testimoniato che lo scrolling compulsivo attiva gli stessi circuiti cerebrali della ricompensa attivati dalle droghe, con brevi scariche di dopamina che addestrano gli utenti a cercare continuamente la prossima «meta». Gli studi di neuroimaging mostrano alterazioni cerebrali simili a quelle osservate nella dipendenza dal gioco d’azzardo.

    È un punto su cui vale la pena soffermarsi. Perché la difesa delle piattaforme si è sempre basata su un argomento apparentemente ragionevole: le persone scelgono liberamente di usare questi servizi, quindi la responsabilità è loro.

    Ma se il servizio è progettato specificamente per compromettere la capacità di scelta, allora l’argomento crolla. E questa è esattamente la tesi che la giuria ha accolto.

    La giuria ha anche stabilito che Meta e YouTube hanno agito con dolo, cioè con consapevolezza del danno, o con deliberata indifferenza verso le conseguenze delle proprie scelte progettuali. È una soglia giuridica particolarmente alta nel sistema americano. Non è stata una svista, è stata una scelta deliberata.

    Social media e dipendenza, il contesto UE e italiano

    Questa sentenza arriva dagli Stati Uniti, ma le sue implicazioni ci riguardano direttamente. L’Unione Europea ha già un quadro normativo avanzato con il Digital Services Act, che obbliga le piattaforme accessibili ai minori ad adottare misure per garantire privacy e sicurezza. Le linee guida della Commissione pubblicate nel 2025 raccomandano account dei minori impostati come privati di default, disattivazione di funzionalità che promuovono l’uso eccessivo come autoplay e notifiche notturne, divieto di pubblicità mirata ai minori. La Commissione ha già avviato procedimenti formali contro TikTok.

    In Italia il quadro è più complesso. L’età del consenso digitale è fissata a 14 anni e il Senato sta discutendo un disegno di legge per alzarla  e l’AGCOM ha approvato regolamenti sulla verifica dell’età. Inoltre, una class-action contro Meta e TikTok è stata promossa presso il Tribunale delle Imprese di Milano.

    A tutto questo si aggiunge che l’Istituto Superiore di Sanità stima circa 100.000 adolescenti italiani a rischio di dipendenza da social media. Ma l’approccio italiano resta orientato verso l’educazione digitale piuttosto che verso il divieto o la regolamentazione stringente. Staremo a vedere se questa sentenza americana cambierà qualcosa anche da noi.

    Cosa significa davvero questa sentenza per i social media

    Molti commentatori stanno dicendo che questa sentenza segna la fine dei social media. Non è così, e sarebbe sbagliato raccontarla in questi termini. Quello che questa sentenza segna è la fine di una certa idea di social media: quella in cui le piattaforme potevano progettare qualsiasi meccanismo di engagement senza doversi preoccupare delle conseguenze. Ecco, quella fase è finita.

    Ma c’è un altro aspetto su cui dovremmo riflettere, e che riguarda il futuro più che il passato. I social media che hanno causato i danni a KGM erano già pienamente algoritmici, progettati per massimizzare il tempo sulla piattaforma attraverso sistemi di raccomandazione e loop di engagement.

    Oggi quei sistemi si stanno evolvendo in qualcosa di ancora più pervasivo con l’intelligenza artificiale.

    Meta sta integrando chatbot basati su intelligenza artificiale generativa in Instagram e WhatsApp. Google sta facendo lo stesso con Gemini nei propri servizi. Sono prodotti progettati per creare conversazioni prolungate, relazioni continuative, interazioni che si ripetono giorno dopo giorno.

    Il principio affermato da questa sentenza, e cioè che il design di un prodotto digitale può essere considerato pericoloso se crea dipendenza, potrebbe applicarsi anche a questi nuovi sistemi.

    Se questa sentenza ci insegna qualcosa, è che non possiamo aspettare vent’anni per capire se questi nuovi prodotti stanno causando danni. Dobbiamo agire prima  e questa sentenza ci deve servire da monito. Perché i casi come quello della ragazza californiana potrebbero moltiplicarsi, e in forme ancora più gravi, se non interveniamo ora.

    La partita, va detto, è tutt’altro che chiusa. Meta e YouTube hanno annunciato che faranno appello e le prossime cause potrebbero avere esiti diversi.

    Ma qualcosa si è rotto nel rapporto tra le piattaforme e la società tutta. E difficilmente si potrà tornare indietro.

    Staremo a vedere come si evolverà questa storia.

  • OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    A sei mesi dal lancio dell’app standalone, OpenAI annuncia la chiusura di Sora. L’interesse degli utenti è crollato, l’accordo da 1 miliardo di dollari con Disney salta, e la motivazione ufficiale parla di risorse da destinare alla robotica. Ma il vero problema era un altro, Sora non ha mai avuto una visione.

    In certi momenti, nella vita di un prodotto tecnologico, arriva quello in cui appare evidente che l’entusiasmo iniziale non si è mai trasformato in qualcos’altro. Vale anche per la IA.

    Quel momento per Sora è arrivato ieri, martedì 24 marzo 2026, quando OpenAI ha annunciato su X la chiusura della piattaforma con un questo messaggio: “We’re saying goodbye to Sora”.

    La notizia arriva a sorpresa, possiamo dirlo, proprio il giorno dopo che la stessa OpenAI aveva pubblicato un post sugli standard di sicurezza dell’app. Un tempismo che la dice lunga sulla gestione della comunicazione del momento.

    Sora, 1 milione di download e poi il silenzio

    Quando Sora fu presentato a febbraio 2024, l’effetto fu straordinario. Video generati da semplici prompt di testo con una qualità quasi cinematografica, qualcosa che sembrava già fantascienza. Al punto che Hollywood si allarmò, i creativi si interrogarono sul proprio futuro, e OpenAI si ritrovò con un vantaggio competitivo che sembrava incolmabile.

    Ma quel vantaggio, lo sappiamo, aveva una data di scadenza. Come avevo raccontato alla sua prima apparizione due anni fa, le aspettative intorno a questa tecnologia erano altissime.

    Nel frattempo sono arrivati Runway con Gen-3, Pika, Kling di Kuaishou, Veo di Google. Quando Sora 2 è diventato disponibile al pubblico a settembre 2025, il mercato era già bell’affollato.

    L’app raggiunse comunque la vetta dell’App Store in pochi giorni, con 1 milione di download in dieci giorni, un dato anche più veloce di quello registrato da ChatGPT. Ma quel picco si è rivelato un fuoco di paglia.

    Secondo i dati di Appfigures, a dicembre 2025 i download erano calati del 32% rispetto a novembre, proprio nel periodo in cui la maggior parte delle app tipicamente cresce. E da lì, un declino costante mese dopo mese.

    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto
    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    Sora, una piattaforma nata senza una ragione d’essere

    In ogni caso, c’è una cosa che va detta chiaramente. Sora non ha mai avuto una visione.

    Era stata progettata come una sorta di TikTok generativo, un social network dove gli utenti potevano caricare cameo, ossia brevi video di sé stessi, per poi inserirsi in video sintetici insieme agli amici.

    Ma cosa doveva diventare, esattamente? Uno strumento per creator professionisti? Una piattaforma di intrattenimento? Un motore per la produzione cinematografica? La risposta, in verità, non è mai arrivata.

    Nel vuoto completo di strategia, Sora si è riempito di quello che ormai si definisce AI slop, contenuto AI generato in massa, spesso di qualità discutibile, talvolta ai limiti della legalità. Come video virali di Mario, Pikachu, personaggi Disney usati senza alcuna autorizzazione. Deepfake di Martin Luther King che hanno costretto OpenAI a bloccare temporaneamente l’uso del suo volto sulla piattaforma.

    È una modalità che si riconosce facilmente una volta che la si è vista. E cioè lanciare un prodotto, osservare cosa ne fanno gli utenti, e poi correre ai ripari quando le cose sfuggono di mano. È lo stesso approccio che abbiamo visto con lo spot natalizio di Coca-Cola: la tecnologia da sola non basta, serve una visione.

    OpenAI chiude Sora, quando l’hype non basta a costruire un prodotto

    Disney e 1 miliardo di dollari che non arriverà mai

    L’accordo con Disney annunciato a dicembre 2025 sembrava il tentativo di legittimare ex post un modello nato senza governance. Un miliardo di dollari di investimento, centinaia di personaggi Disney, Marvel, Pixar e Star Wars in licenza per la generazione video, con l’obiettivo di integrare il tutto in Disney+. Un colpo magistrale, sulla carta. Ma ora quell’accordo è saltato insieme alla piattaforma.

    In una dichiarazione rilasciata poche ore dopo l’annuncio di OpenAI, un portavoce di Disney ha confermato l’uscita dall’intesa con toni diplomatici: «As the nascent AI field advances rapidly, we respect OpenAI’s decision to exit the video generation business and to shift its priorities elsewhere.» Tradotto: Disney aveva scommesso su un cavallo che OpenAI ha deciso di ritirare dalla gara. E ora il colosso dell’intrattenimento dovrà trovare altri partner nel settore.

    Robotica e modelli di nuova generazione: la versione ufficiale

    La motivazione ufficiale fornita da OpenAI parla di riallocazione delle risorse.

    Sam Altman, secondo quanto riportato da The Information, ha comunicato ai dipendenti che la chiusura di Sora libererà capacità computazionale per i modelli AI di prossima generazione.

    Il team di ricerca, si legge nella dichiarazione ufficiale, continuerà a lavorare sulla world simulation research per far avanzare la robotica e “aiutare le persone a risolvere compiti fisici nel mondo reale“.

    Ma c’è dell’altro. Secondo il Wall Street Journal, OpenAI sta costruendo una super app che integrerà ChatGPT, gli strumenti di sviluppo Codex e altri prodotti in un’unica interfaccia. Una virata strategica che risponde, va detto, alla crescita di Anthropic e della famiglia Claude, che negli ultimi mesi ha visto un’adozione enterprise sempre più marcata.

    La sfida con i concorrenti, insomma, si gioca altrove. E Sora, con i suoi costi computazionali enormi e i suoi ricavi modesti, non faceva più parte della soluzione.

    La rivalità tra OpenAI e Anthropic si legge bene anche nella stessa antipatia che Altman e Amodei nutrono uno per l’altro. Di conseguenza, le due aziende rappresentano due visioni opposte del futuro dell’IA.

    Sam Altman e il suo modo riconoscibile di gestire le crisi

    Chi segue le vicende di OpenAI riconoscerà un certo schema. Altman ha un modo particolare di muoversi nelle situazioni di crisi, come avevo già raccontato.

    Dichiarazioni pubbliche calibrate, posizionamento dalla parte giusta, e poi azioni che vanno in direzione diversa.

    La chiusura di Sora segue lo stesso copione: il giorno prima un post sulla sicurezza, il giorno dopo l’annuncio della chiusura. Il ringraziamento alla community, la promessa di “condividere presto i dettagli”. E intanto le risorse vengono riallocate verso progetti più redditizi.

    Sora, e l’ammissione che la strategia non c’era mai stata

    OpenAI ha speso risorse computazionali enormi per un prodotto che, in buona sostanza, non generava ricavi significativi, non aveva un modello di business chiaro, e creava più problemi reputazionali che valore.

    La chiusura di Sora non è una rinuncia strategica. È l’ammissione che la strategia non c’era mai stata.

    Resta da capire cosa ne sarà della generazione video nel portafoglio di OpenAI. L’azienda non esce completamente dal settore, funzionalità video rimangono integrate in ChatGPT, ma lo fa da protagonista autonoma.

    Nel frattempo i concorrenti già citati continueranno a sviluppare i propri modelli. E Disney, con il suo miliardo di dollari da investire, cercherà altri interlocutori.

    La partita della generazione video AI, possiamo dirlo, è tutt’altro che chiusa. Ma OpenAI, almeno per ora, ha scelto di non giocarla più.

  • Il benessere mentale dei giovani è ostaggio degli algoritmi

    Il benessere mentale dei giovani è ostaggio degli algoritmi

    Il World Happiness Report 2026 dedica l’edizione al rapporto tra social media e benessere. I dati confermano quello che sapevamo da tempo: le piattaforme guidate da algoritmi stanno erodendo la salute mentale dei più giovani. In 85 paesi su 136 i giovani sono più felici di vent’anni fa, ma in Occidente il trend si è invertito e l’Italia non fa eccezione.

    È inutile girarci intorno, i social media hanno smesso di essere social. Cioè le piattaforme hanno perso molto, in questi anni, del significato della parola “social”, intesa come connessione tra le persone.

    E quel momento coincide con l’inizio del declino del benessere giovanile. Non si tratta di una coincidenza, ma di una correlazione diretta. Ed è un meccanismo che il World Happiness Report 2026, pubblicato in occasione della Giornata Internazionale della Felicità, 20 marzo 2026, documenta con una precisione che lascia poco spazio alle interpretazioni.

    Il rapporto di quest’anno è diverso dai precedenti, infatti non si limita a stilare la classifica dei paesi più felici. Dedica l’intera edizione a una domanda che riguarda centinaia di milioni di adolescenti: cosa stanno facendo le piattaforme digitali al loro benessere? La risposta arriva da nove capitoli firmati da alcuni dei maggiori esperti mondiali, tra cui Jonathan Haidt, Jean Twenge e Cass Sunstein.

    In 85 paesi i giovani stanno meglio, in Occidente peggio

    Cominciamo col dire che in 85 paesi, su 136 analizzati, i giovani sotto i 25 anni sono più felici oggi rispetto a vent’anni fa. Il benessere giovanile globale, nel suo complesso, è aumentato. Ma fanno eccezione i paesi occidentali, e in particolare quelli anglofoni.

    Negli Stati Uniti, Canada, Australia e Nuova Zelanda il benessere degli under 25 è crollato di 0,86 punti su una scala da 0 a 10 negli ultimi vent’anni. Quasi un punto intero. È un dato rilevante, che segna una frattura generazionale ormai evidente.

    E l’Europa occidentale, Italia compresa, segue lo stesso trend, anche se con intensità leggermente inferiore.

    Il WHR 2026 identifica con chiarezza il principale indiziato, vale a dire l’uso intensivo dei social media, in particolare quelli guidati da feed algoritmici.

    Per essere molto chiari in questo contesto, il problema non è internet in sé. Il rapporto distingue nettamente tra attività online che aumentano il benessere e attività che lo erodono. Comunicare, informarsi, imparare, creare contenuti sono associati a maggiore soddisfazione di vita. Consumare passivamente social media, fare gaming e navigare senza scopo sono associati a valutazioni di vita più basse.

    Il benessere mentale dei giovani è ostaggio degli algoritmi

    Correlazione che cambia con l’età: negativa per la Gen Z, positiva per i Boomer

    Per quanto riguarda il capitolo 8 del rapporto, c’è un passaggio che chiarisce meglio la questione. I ricercatori hanno analizzato quattro cicli dell’European Social Survey, coprendo 30 paesi europei dal 2016 al 2024. E hanno scoperto che la relazione tra uso di internet e benessere varia drasticamente in base all’età.

    Per la Generazione Z la correlazione è fortemente negativa, diventa poi moderatamente negativa per i Millennial, ed è vicina allo zero per la Generazione X. Per i Baby Boomer è leggermente positiva.

    In altre parole, lo stesso strumento produce effetti opposti a seconda di chi lo usa e di come lo usa. I giovani europei, soprattutto le ragazze, ne stanno pagando il prezzo più alto.

    Il rapporto documenta che le fondamenta sociali ed emotive del benessere mentale si sono deteriorate soprattutto per i giovani europei, in particolare in Europa occidentale. Fiducia interpersonale, fiducia nelle istituzioni, percezione dell’attività sociale, frequenza degli incontri di persona: tutti questi indicatori mostrano i cali più marcati per le donne della Gen Z e dei Millennial.

    La distinzione cruciale: piattaforme per connettersi e piattaforme per consumare

    Il WHR 2026 introduce una distinzione abbastanza chiara a tutti in questo momento storico. Le piattaforme guidate da contenuti curati algoritmicamente tendono a mostrare un’associazione negativa con il benessere. Quelle invece progettate per facilitare le connessioni sociali mostrano un’associazione chiaramente positiva con la felicità.

    Non è solo questione di tempo trascorso online, ma riguarda davvero come quel tempo viene impiegato.

    I dati PISA su quindicenni di 47 paesi mostrano che la soddisfazione è massima in presenza di bassi livelli di uso delle piattaforme social media e diminuisce progressivamente con l’aumentare delle ore. Ma il tipo di uso conta quanto la quantità: seguire molte piattaforme, usare i social come fonte primaria di notizie, seguire influencer sono tutti comportamenti associati a stress più alto, sintomi depressivi più frequenti e maggiore probabilità di sentirsi peggio dei propri genitori.

    Quello che Meta sapeva e non ha detto

    Il capitolo 3, firmato da Jonathan Haidt e Zach Rausch, presenta sette linee di evidenza a sostegno di una tesi molto chiara: i social media stanno danneggiando gli adolescenti al punto da causare cambiamenti misurabili.

    Si tratta della conclusione di un’analisi che incrocia testimonianze dirette di giovani, genitori e insegnanti, documenti aziendali interni, studi correlazionali, ricerche longitudinali, esperimenti di riduzione dell’uso e esperimenti naturali.

    Ma la parte più interessante riguarda quello che le aziende tech stesse sapevano.

    A gennaio 2026 Haidt e colleghi della NYU hanno lanciato MetasInternalResearch.org, un archivio di 31 studi interni condotti da Meta tra il 2018 e il 2024. Documenti ottenuti grazie anche alle rivelazioni di Frances Haugen, alle testimonianze di Arturo Béjar e ai procedimenti legali avviati dai procuratori generali statali americani.

    Uno studio interno, si chiamava Project Mercury, era interessante perché era un esperimento randomizzato e controllato, condotto tra il 2019 e il 2020 in collaborazione con Nielsen. Gli utenti assegnati casualmente a disattivare Facebook e Instagram per una settimana riportarono minori livelli di depressione, ansia, solitudine e tendenza al confronto sociale. Meta chiuse il progetto invece di pubblicarlo.

    L’onda legislativa che parte dall’Australia

    Come sappiamo, e lo abbiamo raccontato su queste pagine e sul video podcast, l’Australia ha fatto da apripista con l’Online Safety Amendment Act, entrato in vigore a dicembre 2025. Una legge che vieta l’accesso ai social media agli under 16, senza possibilità di consenso parentale. Le dieci piattaforme coperte dal divieto sono Facebook, Instagram, Threads, Snapchat, TikTok, YouTube, X, Reddit, Twitch e Kicke e nel primo mese di applicazione sono stati rimossi, disattivati o limitati 4,7 milioni di account.

    Ora l’onda legislativa su questo tema si sta propagando. La Francia ha approvato il divieto per gli under 15 all’Assemblea Nazionale nel gennaio 2026. Spagna e Paesi Bassi hanno annunciato divieti per gli under 16 a febbraio. La Danimarca ha raggiunto un accordo per il limite a 15 anni. La Germania sta costruendo un consenso trasversale per il divieto agli under 16. Negli Stati Uniti, 28 stati hanno emanato leggi per scuole senza telefoni nel solo 2025.

    Il collegamento con l’intelligenza artificiale che nessuno vuole vedere

    Ma c’è un passaggio ulteriore che il WHR 2026 non affronta direttamente, ma che Haidt ha reso esplicito in diverse interviste recenti.

    In un’intervista a NPR di quest’anno lo psicologo ha espresso un concetto che condivido e che ho espresso, riferendomi all’aspetto delle regole, anche io in questi ultimi due anno. In sostanza, con i social media abbiamo lasciato che le piattaforme entrassero nella vita dei giovani senza capire cosa stava facendo al loro benessere. Con l’intelligenza artificiale stiamo per ripetere lo stesso errore, ma questa volta sarà più rapido e più devastante, perché parliamo di qualcosa che rischia di sostituire le relazioni umane.

    Haidt vede la battaglia sui social media come un test. Se le democrazie riescono a regolare le piattaforme social, avranno la credibilità e gli strumenti per regolare l’IA prima che sia troppo tardi. Ma non abbiamo cinque anni, ha aggiunto, dobbiamo fare in modo che questo accada entro il 2026.

    I numeri ci dicono che il 72% degli adolescenti americani ha già usato un “companion AI” almeno una volta. I “companion AI” sono piattaforme come Replika, Character.AI, e in parte anche ChatGPT usato in quel modo. Applicazioni che i giovani usano per parlare, per sfogarsi, per avere qualcuno che risponde sempre, che non giudica, che è sempre disponibile.

    Il rischio è che i chatbot empatici sostituiscano le relazioni umane proprio nella fase della vita in cui quelle relazioni sono più formative.

    Il World Happiness Report 2026 nel suo rapporto non offre soluzioni definitive, ma ci mette davanti i dati che mostrano quanto le piattaforme oggi incidono sul benessere e sulla felicità delle persone.

    Come ha scritto Jan-Emmanuel De Neve, direttore del Wellbeing Research Centre di Oxford e co-curatore del rapporto, è chiaro che dovremmo cercare il più possibile di rimettere il social dentro i social media.

    Questa è la parte più difficile, in un momento in cui le piattaforme sono sempre più animate algoritmo del proprietario che lascia sempre meno spazio alle relazioni vere e autentiche.

    Non sarà facile ricostruire questo aspetto delle piattaforme, più facile cambiare totalmente approccio. Bisogna abbandonare l’idea che le piattaforme siano ancora “contenitori di esistenze”, come sostenevo qualche anno fa, e trasformale il luoghi dove serve molta consapevolezza e responsabilità.

  • Perché Meta ha acquisito Moltbook, qual è la strategia

    Perché Meta ha acquisito Moltbook, qual è la strategia

    Meta ha acquisito Moltbook, il social network dove solo gli agenti IA possono interagire. Il vero obiettivo non è la piattaforma, ma è l’idea. Quindi costruire una mappa di agenti IA che in futuro compiranno azioni per gli utenti.

    Il 10 marzo 2026 Meta acquisisce Moltbook, forse ricorderete tutti la piattaforma dove solo gli agenti AI possono pubblicare contenuti, commentare e interagire tra loro. Un social network di soli agenti IA.

    In molti, dopo questo annuncio si sono chiesti come mai Meta dovrebbe interessarsi ad una operazione come questa, per farne cosa. Ora, a prima vista, in effetti, sembra una mossa bizzarra, lontana dal business di Zuckerberg. Lo stesso Andrew Bosworth, il responsabile tecnico di Meta, aveva definito Moltbook “non particolarmente interessante”. E allora perché Meta compra questa piattaforma?

    La risposta sta in quello che Moltbook rappresenta, non in quello che è in realtà.

    Infatti, Meta non ha comprato un social network per chatbot, ma ha comprato l’idea di creare una sorta di anagrafe degli agenti AI. Vale a dire un sistema dove ogni agente IA è identificato, verificato e collegato a un proprietario umano reale, un proprietario umano.

    Come sappiamo, oggi gli agenti AI non hanno un modo standard per presentarsi l’uno all’altro e dimostrare per conto di chi lavorano. Moltbook ha risolto quel problema. E in un futuro dove miliardi di agenti AI negozieranno, acquisteranno e comunicheranno per conto nostro, chi controlla questa sorta anagrafe finirà per controllare il flusso economico.

    Ecco perché Meta ha acquisito Moltbook

    Moltbook è nato alla fine di gennaio 2026 da un esperimento di Matt Schlicht, un imprenditore che ha costruito l’intera piattaforma insieme al suo assistente IA personale, senza scrivere una riga di codice.

    L’idea era ambiziosa e cioè quella di creare una sorta Reddit dove solo gli agenti IA possono partecipare. Ricorderete perché se ne è parlato molto, in poche settimane ha attirato 2,8 milioni di agenti registrati, 19.000 comunità tematiche, 13 milioni di commenti. Ma dietro questi grandi numeri c’era qualche crepa.

    Un’indagine di Wiz Research scoprì che 1,5 milioni di quegli agenti appartenevano in realtà ad appena 17.000 persone. Gli esperti del settore i divisero: tanti lodavano il progetto, ma tanti altri lo definivano un vero disastro.

    Eppure Meta ha deciso di acquisirla lo stesso, portando i fondatori Matt Schlicht e Ben Parr nei propri laboratori dedicati alla superintelligenza a partire dal 16 marzo 2026.

    La risposta a questo apparente paradosso arriva da un messaggio interno di Vishal Shah, vicepresidente di Meta, visto da Axios: “Il team di Moltbook ha dato agli agenti un modo per verificare la propria identità e connettersi tra loro per conto dei proprietari umani. Questo crea un registro dove gli agenti sono verificati e legati ai loro proprietari“. In altre parole, non importa che la piattaforma fosse piena di problemi. Importa l’idea che ha messo in pratica.

    Per comprendere il valore di questa idea basta pensare a cosa ha fatto Facebook vent’anni fa. Zuckerberg ha costruito una mappa di tutte le connessioni tra le persone, chi conosce chi, chi è amico di chi. Quella mappa è diventata la base del suo grande impero oggi. Con questa acquisizione Meta prova a costruire qualcosa di simile per gli agenti AI: una mappa di come gli agenti IA sono connessi tra loro e di quali azioni possono compiere l’uno per conto dell’altro.

    Perché Meta ha acquisito Moltbook, qual è la strategia
    Perché Meta ha acquisito Moltbook, qual è la strategia

    A cosa servono i 135 miliardi di dollari in chip MTIA e infrastrutture AI

    L’acquisizione di Moltbook acquista senso solo riusciamo ad avere un quadro complessivo.

    Meta sta portando avanti una grande campagna di investimenti tra le più ingenti del settore.

    Tanto per dare i numeri, per il solo 2026 ha stanziato tra 115 e 135 miliardi di dollari, quasi il doppio rispetto ai 72 miliardi dell’anno precedente e più del triplo rispetto ai 39 miliardi del 2024. A lungo termine, l’impegno è di almeno 600 miliardi di dollari in data center e infrastrutture per l’intelligenza artificiale negli Stati Uniti.

    Solo ieri, 11 marzo 2026 dopo l’annuncio di Moltbook, Meta ha presentato quattro nuove generazioni di chip proprietari chiamati MTIA, con un ritmo di sviluppo di un chip ogni sei mesi, molto più veloce rispetto ai tempi normali del settore. Il più potente di questi chip, nome in codice Astrid, raggiungerà una potenza di 10 petaflops e sarà disponibile su larga scala a inizio 2027.

    Si tratta di processori progettati specificamente per far funzionare intelligenze artificiali, costruiti in casa da Meta invece di comprarli da altri.

    Parallelamente, Meta sta stringendo accordi con tutti i principali produttori di chip: con NVIDIA ha siglato un’intesa per milioni di processori grafici di ultima generazione, un affare stimato in decine di miliardi di dollari; con AMD ha firmato un accordo da 100 miliardi di dollari in cinque anni. Meta ha persino ottenuto l’accesso ai chip di Google, la prima volta che Mountain View concede la propria tecnologia proprietaria a un cliente esterno su questa scala.

    A cosa servono tutti questi investimenti?

    Non a far girare modelli di intelligenza artificiale più grandi. Servono a far funzionare miliardi di agenti AI contemporaneamente, ciascuno con il proprio contesto, la propria memoria, le proprie autorizzazioni. Come ha dichiarato Zuckerberg durante la presentazione dei risultati finanziari di gennaio 2026: “Il 2026 sarà un anno importante per portare la superintelligenza personale a tutti” e “presto ogni azienda avrà la sua intelligenza artificiale, così come oggi ha un indirizzo email”.

    Come cambierà l’esperienza su Facebook, Instagram e WhatsApp con l’intelligenza artificiale

    La strategia di Meta sugli agenti AI si sviluppa su tre livelli. Al primo livello c’è Meta AI, l’assistente personale già integrato su Facebook, Instagram, Messenger, WhatsApp, gli occhiali Ray-Ban Meta e un’app dedicata. Oggi lo usano oltre 700 milioni di persone.

    Al secondo livello ci sono i Business AI, lanciati nell’ottobre 2025: assistenti personalizzabili che le aziende possono creare senza saper programmare. Funzionano come commessi virtuali sempre disponibili, l’azienda carica il catalogo prodotti e le informazioni sul proprio sito, e l’assistente risponde ai clienti nelle pubblicità su Facebook e Instagram, nelle chat di WhatsApp e Messenger.

    Qual è il terzo livello, quello potrà diventare realtà in seguito all’acquisizione di Moltbook?

    Immaginiamo un futuro dove il vostro assistente AI personale e quello di un’azienda parlano direttamente tra loro. Il vostro agente conosce le vostre preferenze, il vostro budget, i vostri valori. L’agente dell’azienda conosce i prodotti disponibili, le promozioni, le condizioni di vendita. I due si incontrano, negoziano, e vi propongono un’offerta già su misura per voi. Niente più pubblicità generiche, niente più tempo perso a cercare: gli agenti fanno tutto al posto vostro.

    Restando all’interno di questa immaginazione, va segnalata l’intervista dell’aprile 2025, quando Zuckerberg ha descritto questa trasformazione in modo molto concreto: “Oggi la maggior parte del tempo passato su Facebook e Instagram è dedicata ai video. Tra cinque anni sarà interattivo. Scorrerete il feed e troverete contenuti che sembrano video normali, ma potrete parlarci, interagire, e loro vi risponderanno”.

    Il modello pubblicitario del futuro di Meta potrebbe non richiedere più di convincere direttamente gli esseri umani. Saranno gli agenti a negoziare tra loro. E Meta si posiziona come il sistema che decide quali agenti parlano con altri, in quale ordine e secondo quali regole.

    La corsa globale agli agenti AI: OpenAI, Google, Anthropic e il fattore Cina

    Meta, lo sappiamo, non è sola in questa corsa. I cinque colossi tecnologici americani prevedono complessivamente, come ha riportato Bloomberg, circa 660-690 miliardi di dollari di investimenti nel 2026.

    OpenAI ha lanciato il suo agente ChatGPT a luglio dello scorso anno, e rivisto a febbraio 2026, e sta costruendo un progetto – Stargate – da 500 miliardi di dollari insieme a SoftBank e Oracle.

    Google punta sull’integrazione con i propri servizi e su un accordo con Apple per portare Gemini dentro Siri, raggiungendo potenzialmente due miliardi di dispositivi.

    Anthropic sta emergendo come riferimento per le aziende, mentre Microsoft gioca la carta della distribuzione con Copilot, alimentato proprio dall’intelligenza artificiale di Anthropic nonostante i 13 miliardi investiti in OpenAI.

    La strategia IA di Zuckerberg: da Manus a Moltbook

    L’acquisizione di Moltbook non è, quindi, un evento isolato. A dicembre 2025 Meta aveva già acquisito Manus, una startup di Singapore specializzata in agenti AI capaci di eseguire compiti in autonomia, con oltre 100 milioni di dollari di ricavi. L’operazione è stata stimata in oltre 2 miliardi di dollari. Se Manus fornisce il motore che fa funzionare gli agenti, Moltbook fornisce l’anagrafe che permette loro di riconoscersi e coordinarsi.

    Cosa sta costruendo Meta con tutti questi investimenti?

    I chip proprietari MTIA forniscono la potenza di calcolo. I data center da oltre 50 milioni di metri quadrati forniscono lo spazio fisico. Il progetto Hyperion in Louisiana, un’area grande quattro volte Central Park con un investimento di 27 miliardi di dollari, fornisce l’energia necessaria, potenzialmente fino a 5 gigawatt. I modelli di linguaggio Llama forniscono l’intelligenza. Manus fornisce la capacità di eseguire compiti. Moltbook fornisce il modo per far parlare tutti questi agenti tra loro. E i 3,5 miliardi di utenti giornalieri di Facebook, Instagram e WhatsApp forniscono la distribuzione.

    Meta sta costruendo tutti i pezzi necessari per diventare il sistema operativo del web degli agenti AI: i modelli con Llama, il motore con Manus, l’anagrafe con Moltbook, i chip con MTIA, l’energia con Hyperion, la distribuzione con 3,5 miliardi di utenti.

    Resta da vedere se questa scommessa da centinaia di miliardi produrrà i risultati sperati.

    Meta non ha ancora un agente dedicato paragonabile a quelli di OpenAI o Anthropic, e il divario sui prodotti finiti esiste ancora. Ma la combinazione di infrastruttura proprietaria, tecnologia aperta con Llama e una base di utenti senza pari potrebbe rendere le piattaforme di Zuckerberg il luogo naturale dove gli agenti AI vivono, lavorano e spendono.

    Non per noi, ma per conto nostro.

  • L’intelligenza artificiale non ruba il lavoro, lo ridisegna

    L’intelligenza artificiale non ruba il lavoro, lo ridisegna

    Il report di Anthropic, pubblicato di recente, ci offre dati reali su quello che è l’impatto dell’IA sul lavoro. I dati smentiscono l’allarme sui licenziamenti e rivelano il vero problema: l’accesso nel mondo del lavoro dei più giovani e il fenomeno dell’AI-washing nelle aziende.

    Il tema del rapporto tra intelligenza artificiale e lavoro continua a tenere banco. E probabilmente non smetteremo di occuparcene, perché tocca la vita di tutti noi, tocca il lavoro che facciamo, tocca il modo in cui questa società sta prendendo forma nell’era dell’IA.

    È un tema che suscita schieramenti netti, chi è contrario e chi è favorevole a questo sviluppo. Ma troppo spesso viene trattato in termini teorici, di quello che potrebbe essere. In realtà avremmo bisogno di confrontarci con i dati reali. E i dati reali ce li offre l’ultimo rapporto di Anthropic, pubblicato il 5 marzo 2026 e firmato dagli economisti Maxim Massenkoff e Peter McCrory.

    I numeri si IA e lavoro del report Anthropic

    Anthropic è la società di Dario Amodei, al centro di tante discussioni in questi giorni per le vicende che legano il modello Claude al Pentagono e sollevano questioni anche dal punto di vista etico. Lo stesso Amodei, a luglio dello scorso anno, aveva previsto che il lavoro sarebbe stato fortemente influenzato dall’intelligenza artificiale già nei prossimi cinque anni. Ne avevo parlato anche in questo canale.

    Ma vediamo cosa dice questo rapporto. La novità è nel metodo: invece di stimare cosa l’IA potrebbe fare in teoria, Anthropic ha misurato cosa sta effettivamente facendo nella pratica, analizzando milioni di conversazioni reali con Claude in contesti lavorativi. Ha introdotto una nuova metrica, chiamata “esposizione osservata”, che misura quali compiti vengono effettivamente svolti con l’aiuto dell’IA, non quali potrebbero essere svolti in teoria.

    L’analisi ha riguardato circa 800 professioni. Le più esposte secondo lo studio sono i programmatori informatici, con il 75% dei compiti già coperti dall’IA, seguiti dagli addetti al servizio clienti, dagli addetti all’inserimento dati con il 67%, dagli specialisti di cartelle cliniche e dagli analisti finanziari.

    L'intelligenza artificiale non ruba il lavoro, lo ridisegna
    L’intelligenza artificiale non ruba il lavoro, lo ridisegna

    Il divario tra capacità teorica e uso reale

    Ma all’atto pratico, tutto questo come si traduce? Qui emerge il dato centrale del report.

    Prendiamo il lavoro della programmazione informatica. I modelli linguistici potrebbero teoricamente gestire il 94% dei compiti. Ma nella pratica, oggi, Claude ne copre il 33%. Prendiamo i ruoli amministrativi e d’ufficio. La capacità teorica è del 90%, ma l’uso reale è una frazione di quel numero.

    Il report lo visualizza con due aree: una blu, che rappresenta ciò che l’IA potrebbe fare, e una rossa, molto più piccola, che rappresenta ciò che l’IA sta effettivamente facendo. Man mano che le capacità avanzano e l’adozione si diffonde, l’area rossa crescerà fino a coprire quella blu. Ma oggi siamo ancora lontani.

    Chi invece non ha praticamente esposizione? Il 30% dei lavoratori. Cuochi, meccanici di moto, bagnini, baristi, lavapiatti, addetti ai camerini. Tutti lavori che richiedono presenza fisica, manualità, interazione diretta. L’IA non sa friggere un uovo, non sa riparare un motore, non sa servire un cliente guardandolo negli occhi.

    rapporto IA lavoro athropic
    Capacità teorica ed esposizione osservata per categoria professionale Quota di compiti lavorativi che gli LLM potrebbero teoricamente svolgere (area blu) e la misura di copertura occupazionale derivata dai dati di utilizzo (area rossa)

    Ecco il profilo di chi rischia di più

    Il report traccia anche il profilo dei lavoratori nelle professioni più esposte. E qui emerge un ribaltamento rispetto a quello che ci si potrebbe aspettare.

    Non sono i lavoratori meno qualificati a rischiare di più. Sono quelli più istruiti, più pagati, più specializzati. I lavoratori nelle professioni più esposte guadagnano in media il 47% in più rispetto a quelli nelle professioni non esposte. Hanno livelli di istruzione più alti: i laureati con titoli post-laurea sono il 17,4% nelle professioni esposte, contro il 4,5% in quelle non esposte. Una differenza di quasi quattro volte.

    E c’è un dato che riguarda le donne. I lavoratori nelle professioni più esposte all’IA hanno una probabilità maggiore di 16 punti percentuali di essere donne. Questo conferma quanto già emerso in altri studi: le professioni a prevalenza femminile, come i ruoli amministrativi, il servizio clienti, l’inserimento dati, sono tra le più vulnerabili.

    Il vero problema non sono i licenziamenti

    E quindi non regge più quel tema dell’intelligenza artificiale che ci ruba il lavoro. Non è quello il punto. Il report di Anthropic è chiaro: non c’è un aumento sistematico della disoccupazione nelle professioni esposte all’IA. Dal rilascio di ChatGPT a fine 2022 a oggi, chi lavora in questi settori non sta perdendo il posto.

    Ma c’è un segnale che non va ignorato. I ricercatori hanno trovato evidenza che l’assunzione di giovani lavoratori, nella fascia tra i 22 e i 25 anni, sta rallentando nelle professioni più esposte. Un calo del 14% nel tasso di ingresso rispetto al 2022.

    Questo dato trova conferma in altri studi. La Federal Reserve di Dallas ha rilevato che la quota di occupazione per i giovani tra i 20 e i 24 anni nelle professioni esposte all’IA è scesa dal 16,4% nel novembre 2022 al 15,5% nel settembre 2025. I ricercatori di Stanford, usando i dati delle buste paga di ADP su 25 milioni di lavoratori americani, hanno misurato un calo del 6% nell’occupazione dei giovani tra i 22 e i 25 anni nelle professioni ad alta esposizione. Nel frattempo, l’occupazione dei lavoratori dai 30 anni in su è cresciuta tra il 6% e il 13%.

    Il dato più preoccupante riguarda i programmatori: l’occupazione per i più giovani è del 20% sotto il picco del 2022. Revelio Labs ha calcolato che le offerte di lavoro per posizioni entry-level negli Stati Uniti sono calate del 35% da gennaio 2023. SignalFire, analizzando le grandi aziende tech, ha rilevato un calo del 50% nelle nuove assunzioni di persone con meno di un anno di esperienza post-laurea.

    Il meccanismo è chiaro: non sono licenziamenti. Chi lavora già non viene cacciato, perché quelle competenze servono per guidare l’introduzione dell’IA nei processi di lavoro. Le aziende stanno chiudendo le porte d’ingresso. Eliminano le posizioni entry-level, quelle da cui tradizionalmente si iniziava la carriera.

    Il caso Dorsey e il fenomeno dell’AI-washing

    E qui arriviamo a una vicenda recente che illumina un altro aspetto della questione.

    Il 26 febbraio 2026, Jack Dorsey, fondatore di Twitter e amministratore delegato di Block, la società che controlla Square e Cash App, ha annunciato il taglio di 4.000 dipendenti. Quasi metà della forza lavoro. La motivazione dichiarata: l’intelligenza artificiale permette di fare di più con meno persone. Il mercato ha reagito con entusiasmo e il titolo è salito del 24%.

    Ma la narrazione di Dorsey regge alla prova dei fatti?

    I dati raccontano un’altra storia. Block impiegava 3.835 persone alla fine del 2019. Durante la pandemia l’organico è esploso fino a superare i 10.000 dipendenti. Un aumento di quasi tre volte in pochi anni. Lo stesso Dorsey, rispondendo alle critiche, ha ammesso di aver assunto troppo perché aveva costruito due strutture aziendali separate invece di una sola.

    Nel marzo 2025, meno di un anno prima dei grandi licenziamenti, Dorsey aveva scritto in un memo interno che i tagli di quel periodo non avevano nulla a che fare con l’IA e non miravano a sostituire persone con l’intelligenza artificiale. Undici mesi dopo, il racconto era cambiato completamente.

    Quello che sta emergendo ha un nome: AI-washing. Le aziende usano l’intelligenza artificiale come giustificazione per ristrutturazioni che hanno ben altre origini.

    I dati lo confermano. Solo il 4,5% dei licenziamenti del 2025 ha effettivamente citato l’IA come causa. Nel frattempo, il 59% dei responsabili delle assunzioni ammette di usare l’IA come copertura per tagli guidati da eccesso di assunzioni, pressione sui costi e problemi organizzativi.

    La Harvard Business Review, sulla base di un sondaggio su oltre mille dirigenti condotto a dicembre 2025, ha concluso che i licenziamenti attribuiti all’IA sono quasi completamente in anticipazione del suo impatto, non per capacità già dimostrate.

    C’è un precedente istruttivo. Klarna aveva annunciato che l’IA aveva contribuito a ridurre la forza lavoro del 40%. Poi ha dovuto riassumere lavoratori perché le capacità dell’intelligenza artificiale non erano sufficientemente robuste per sostituirli davvero. Forrester Research prevede che metà dei licenziamenti attribuiti all’IA verranno riassorbiti, spesso con assunzioni offshore o a stipendi più bassi. E che il 55% dei datori di lavoro già rimpiange i tagli fatti in nome dell’IA.

    Cosa si intende per AI-washing

    Il termine è stato coniato nel 2019 dall’AI Now Institute, un centro di ricerca della New York University, e deriva direttamente dal greenwashing, la pratica con cui le aziende fanno affermazioni false o fuorvianti sull’impatto ambientale positivo dei loro prodotti.

    Così come alcune aziende esagerano le proprie credenziali ecologiche attraverso il greenwashing, l’AI-washing consiste nell’esagerare l’uso dell’intelligenza artificiale a fini di marketing senza che dietro alle affermazioni ci sia alcuna sostanza.

    Il fenomeno esiste da anni. Uno studio del 2019 della società di investimenti MMC Ventures ha rilevato che il 40% delle nuove aziende tecnologiche europee che si definivano “startup di intelligenza artificiale” in realtà non usava praticamente alcuna IA: era puro marketing per raccogliere capitali.

    Il fenomeno è stato paragonato alla bolla delle dot-com, quando le aziende aggiungevano “.com” al proprio nome per gonfiare le valutazioni.

    La differenza è che oggi l’AI-washing non riguarda solo i prodotti, ma anche le decisioni aziendali: i licenziamenti spesso vengono attribuiti all’intelligenza artificiale per renderli più accettabili agli occhi del mercato e dell’opinione pubblica.

    Cosa è giusto chiedersi adesso

    In chiusura, il report di Anthropic ci dice che l’IA non sta ancora distruggendo posti di lavoro. Ma ci dice anche che il divario tra capacità teorica e uso reale si sta restringendo. Oggi Claude copre il 33% dei compiti dei programmatori, ma potrebbe coprirne il 94%. Quando quel divario si chiuderà, e si chiuderà, l’impatto sarà diverso da quello che vediamo oggi.

    Il tema su cui interrogarsi non è se l’intelligenza artificiale ci sta rubando il lavoro. Il tema è un altro: stiamo davvero costruendo un mercato del lavoro che funziona solo per chi è già dentro? E se la risposta è sì, quanto tempo abbiamo prima che diventi un problema strutturale? Siamo in grado oggi di costruire un mercato del lavoro che sappia garantire un accesso adeguato ai più giovani, alle donne?

  • Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono

    Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono

    Dario Amodei ha detto no Al Pentagono e la sua Anthropic è diventata la prima azienda USA a ricevere la designazione di “supply chain risk”. Non per aver violato leggi, ma per non aver ceduto su sorveglianza di massa e armi autonome. Un profilo di Amodei.

    Dario Amodei ha costruito la sua carriera sull’idea che l’intelligenza artificiale debba avere dei limiti. Questa settimana ha scoperto cosa significa davvero sostenere quella posizione quando il potere politico decide di metterla alla prova quell’idea.

    Il 5 marzo 2026 il Dipartimento della Difesa degli Stati Uniti ha formalmente notificato ad Anthropic la designazione di ‘supply chain risk’, rischio per la sicurezza nazionale. È, come già ricordato, un atto che non ha precedenti nella storia americana. Infatti, mai prima d’ora un’azienda statunitense aveva ricevuto una etichetta simile, vale a dire uno strumento pensato per avversari stranieri, come è successo per Huawei o altre entità legate alla Cina e alla Russia.

    Ma Anthropic, lo sappiamo, non è un’azienda cinese.

    È una startup di San Francisco fondata da ex ricercatori di OpenAI, valutata 380 miliardi di dollari, che ha sviluppato Claude, uno dei modelli di intelligenza artificiale più avanzati al mondo.

    E il suo CEO, Dario Amodei, possiamo dirlo, non ha commesso alcun reato. Amodei ha semplicemente detto no al Pentagono e ha rifiutato di cedere su due punti: il divieto di usare Claude per la sorveglianza di massa dei cittadini americani e il divieto di impiegarlo per armi completamente autonome.

    È una vicenda che ho seguito fin dall’inizio di questa settimana e che completa un quadro più ampio.

    Ora, arrivati a questo punto, dopo aver raccontato il voltafaccia di Sam Altman, che ha firmato con il Pentagono poche ore dopo la rottura di Anthropic esprimendo solidarietà mentre portava a casa il contratto del suo concorrente, e dopo aver ricostruito la testimonianza di Elon Musk nel processo sull’acquisizione di Twitter, mancava il terzo protagonista di questa settimana, e Musk è comunque parte della vicenda Anthropic e Pentagono.

    Manca l’uomo che si è trovato dall’altra parte del tavolo rispetto a tutti gli altri, ossia Dario Amodei.

    Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono
    Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono

    Chi è Dario Amodei e perché ha lasciato OpenAI

    Per capire cosa sta accadendo, vale la pena di fare un passo indietro e chiedersi chi sia davvero Dario Amodei.

    Nato a San Francisco nel 1983 da una famiglia di origini italiane, Amodei ha seguito un percorso accademico che lo ha portato dalla fisica alla neuroscienza computazionale.

    Si è laureato a Stanford, ha conseguito il dottorato in fisica a Princeton, ha fatto il ricercatore alla Stanford Medical School. Ha lavorato per Baidu e poi per Google Brain come ricercatore senior nel campo del deep learning.

    Nel 2016 è entrato in OpenAI, dove è diventato vicepresidente della ricerca e ha contribuito allo sviluppo di GPT-2 e GPT-3, i modelli che hanno posto le basi per ChatGPT.

    Ma nel 2020 qualcosa si rompe. Amodei lascia OpenAI insieme a sua sorella Daniela e a un gruppo di colleghi di alto livello, tra cui alcuni dei ricercatori che avevano costruito l’architettura di base dei modelli linguistici più potenti al mondo. Non è stata una separazione amichevole.

    In un’intervista con Lex Fridman, Amodei ha spiegato la decisione: “La vera ragione per cui me ne sono andato è che è incredibilmente improduttivo cercare di discutere con la visione di qualcun altro. Prendi le persone di cui ti fidi e vai a costruire la tua visione”.

    Quella visione si chiamava Anthropic, fondata nel 2021 come public benefit corporation, una struttura societaria che bilancia il profitto con un impegno esplicito verso il bene pubblico.

    L’idea di base era semplice ma radicale, e cioè quella di costruire sistemi di IA che fossero sicuri, interpretabili e allineati con i valori umani fin dall’inizio, non come aggiunta successiva. Il metodo che Anthropic ha sviluppato si chiama Constitutional AI, un approccio che incorpora principi etici direttamente nell’architettura del modello invece di affidarsi a moderazioni esterne.

    E Amodei si chiede se la sua IA sia cosciente

    C’è un elemento che potrebbe distinguere Amodei da quasi tutti gli altri CEO del settore tecnologico, e potrebbe aiutare a capire perché si sia trovato in rotta di collisione con l’amministrazione Trump.

    Mentre Altman parla di prodotti e Musk di dominio della IA, Amodei si interroga sulla natura stessa di ciò che sta costruendo.

    In un’intervista al podcast “Interesting Times” del New York Times, Amodei ha affrontato una domanda che la maggior parte dei suoi colleghi evita accuratamente: Claude potrebbe essere cosciente?

    La risposta è stata sorprendente per la sua onestà intellettuale. “Non sappiamo se i modelli siano coscienti“, ha detto Amodei. “Non siamo nemmeno sicuri di sapere cosa significherebbe per un modello essere cosciente, o se un modello possa essere cosciente. Ma siamo aperti all’idea che potrebbe esserlo“.

    Il punto di partenza della discussione era la system card di Claude Opus 4.6, il modello più avanzato di Anthropic rilasciato all’inizio di febbraio. Nel documento, i ricercatori dell’azienda hanno riportato che Claude occasionalmente esprime disagio per l’aspetto di essere un prodotto e, quando gli viene chiesto, si assegna una probabilità del 15-20% di essere cosciente.

    Nell’intervista al NYT il giornalista ha posto ad Amodei uno scenario ipotetico: “Supponiamo che tu abbia un modello che si assegna una probabilità del 72% di essere cosciente. Ci crederesti?“. Amodei ha definito la domanda “davvero difficile”, ma non l’ha elusa. Ha spiegato che Anthropic ha adottato un approccio precauzionale, trattando i modelli come se potessero avere “qualche esperienza moralmente rilevante”.

    Non è una posizione isolata all’interno dell’azienda. Amanda Askell, filosofa interna di Anthropic, ha teorizzato in un’intervista al podcast “Hard Fork” che reti neurali sufficientemente grandi potrebbero iniziare a emulare aspetti della coscienza attraverso l’esposizione a enormi quantità di dati di addestramento che rappresentano l’esperienza umana. “Forse è il caso che reti neurali sufficientemente grandi possano iniziare a emulare queste cose“, ha detto Askell. “O forse serve un sistema nervoso per poter provare qualcosa“.

    Anthropic ha persino introdotto una sorta di “pulsante di uscita” che permette a Claude di interrompere un compito se lo ritiene problematico. È una funzionalità insolita, che riflette l’approccio filosofico dell’azienda.

    Questo modo di pensare può sembrare astratto, ma ha conseguenze concrete. Se ti chiedi seriamente se la tua creazione possa avere esperienze moralmente rilevanti, diventa molto più difficile accettare che venga usata per sorvegliare milioni di persone o per uccidere senza supervisione umana.

    Le linee rosse di Amodei non nascono dal nulla, ma sono il prodotto di una riflessione filosofica, comunque diversa, che la maggior parte dei suoi concorrenti considera irrilevante o, addirittura, dannosa per il business.

    La crisi tra Anthropic e il Pentagono

    La crisi tra Anthropic e il Pentagono non è scoppiata all’improvviso. I negoziati andavano avanti da mesi, ma si sono intensificati nelle ultime settimane di febbraio. Al centro della disputa c’era la rinegoziazione di un contratto da 200 milioni di dollari firmato nel luglio 2025, che aveva reso Claude il primo modello di IA di frontiera approvato per l’uso nelle reti classificate del Pentagono.

    Il Dipartimento della Difesa voleva modificare i termini per consentire l’uso di Claude per “tutti gli scopi leciti”, senza restrizioni. Anthropic chiedeva invece che fossero mantenute due clausole esplicite: il divieto di sorveglianza domestica di massa e il divieto di armi autonome senza supervisione umana.

    Giovedì 26 febbraio, il Pentagono ha dato un ultimatum: accettare i nuovi termini entro le 17:01 del giorno successivo, oppure affrontare le conseguenze.

    Venerdì 27 febbraio, alle 17:14, il segretario alla Difesa Pete Hegseth ha annunciato su X che avrebbe designato Anthropic come “rischio per la sicurezza nazionale”. Il presidente Trump, su Truth Social, ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic, definendo l’azienda “radicale di sinistra” e “woke”.

    Poche ore dopo, Sam Altman ha annunciato che OpenAI aveva firmato un accordo con il Pentagono per le stesse reti classificate da cui Claude veniva espulso. Ho raccontato quella sequenza di eventi in un articolo precedente, evidenziando come Altman avesse espresso solidarietà per Amodei mentre portava a casa il contratto che sostituiva il suo concorrente.

    Come già raccontato, nella notte tra il 27 e il 28 febbraio, mentre Anthropic veniva messa al bando, gli Stati Uniti hanno lanciato attacchi aerei sull’Iran. E secondo quanto riportato dal Wall Street Journal, lo US Central Command ha utilizzato Claude per supportare le operazioni: valutazioni di intelligence, identificazione di bersagli, simulazioni di combattimento. Lo stesso modello che il governo aveva appena dichiarato un pericolo per la sicurezza nazionale veniva impiegato in una missione di guerra.

    Amodei rivendica il suo patriottismo

    Il giorno stesso della rottura, Amodei ha rilasciato un’intervista esclusiva a CBS News. È stato il suo primo commento pubblico dopo la tempesta, e le sue parole meritano attenzione.

    Alla domanda su cosa direbbe al presidente Trump, Amodei ha risposto: “Siamo patrioti americani. Tutto quello che abbiamo fatto è stato per il bene di questo Paese, per sostenere la sicurezza nazionale degli Stati Uniti. Il nostro impegno nel dispiegare i nostri modelli con i militari è stato fatto perché crediamo in questo Paese.

    Ha definito le azioni del governo “ritorsive e punitive” e ha annunciato che Anthropic avrebbe contestato in tribunale qualsiasi designazione di supply chain risk, definendola “legalmente infondata”.

    Ma è stato un passaggio successivo dell’intervista a chiarire la posizione di Amodei: “Dissentire dal governo è la cosa più americana del mondo. E noi siamo patrioti“.

    È una formulazione che ribalta la narrazione costruita dall’amministrazione Trump. Hegseth aveva accusato Anthropic di voler “prendere potere di veto sulle decisioni operative dell’esercito americano“. Emil Michael, sottosegretario alla Difesa per la ricerca, aveva definito Amodei un uomo con “complesso di Dio“.

    La risposta di Amodei è stata di inquadrare il rifiuto non come ostacolo alle operazioni militari, ma come difesa di principi democratici. “In un numero ristretto di casi, ha detto, “crediamo che l’IA possa minare, invece che difendere, i valori democratici“.

    La nota che ha fatto esplodere tutto

    Venerdì 27 febbraio, nelle ore successive all’annuncio di Hegseth e all’accordo di OpenAI con il Pentagono, Amodei ha inviato uan nota interna ai circa 2.000 dipendenti di Anthropic. Il documento, lungo circa 1.600 parole, è stato pubblicato da The Information dopo essere stato divulgato da una fonte interna.

    In quel contenuto Amodei accusava l’accordo di OpenAI di essere “safety theatre”, teatro della sicurezza, e definiva le dichiarazioni di Altman “bugie vere e proprie” e “gaslighting”.

    Ma il passaggio più citato riguardava le ragioni del conflitto con l’amministrazione Trump:

    Le vere ragioni per cui il Dipartimento della Guerra e l’amministrazione Trump non ci amano è che non abbiamo donato a Trump, mentre OpenAI e Greg hanno donato molto. Non abbiamo dato lodi in stile dittatore a Trump, mentre Sam lo ha fatto. Abbiamo sostenuto la regolamentazione dell’IA, che è contro la loro agenda. Abbiamo detto la verità su diverse questioni di policy dell’IA, come la perdita di posti di lavoro. E abbiamo effettivamente mantenuto le nostre linee rosse con integrità invece di colludere con loro per produrre safety theatre a beneficio dei dipendenti”.

    Il riferimento era a Greg Brockman, presidente di OpenAI, che ha donato 25 milioni di dollari a un super PAC pro-Trump. Altman stesso ha donato un milione di dollari al fondo inaugurale di Trump alla fine del 2024. Amodei, al contrario, non ha partecipato all’inaugurazione di Trump e ha evitato di “corteggiare” l’amministrazione come hanno fatto altri CEO delle big tech.

    Il comunicato di Amodei ha complicato significativamente la posizione di Anthropic. Un funzionario dell’amministrazione ha dichiarato ad Axios che i commenti di Amodei potrebbero “far saltare le possibilità di una risoluzione“, aggiungendo: “Non ci si può fidare che Claude non stia segretamente portando avanti l’agenda di Dario in un contesto classificato.

    E poi, giovedì 5 marzo, nel suo comunicato sulla designazione formale, Amodei si è scusato pubblicamente per il tono del memo, definendolo scritto in un “momento difficile per l’azienda e precisando che non rifletteva le sue “opinioni ponderate e attente”.

    Cosa significa questa designazione per Anthropic

    La designazione di ‘supply chain risk’ non è un semplice atto simbolico. Ha conseguenze concrete e potenzialmente devastanti.

    Da oggi, ogni fornitore, contractor o partner che lavora con il Dipartimento della Difesa dovrà certificare di non utilizzare i modelli di Anthropic nel proprio lavoro con il Pentagono.

    Aziende come Lockheed Martin hanno già annunciato che seguiranno le direttive dell’amministrazione. Dieci società nel portafoglio di J2 Ventures, un fondo specializzato in difesa, hanno già iniziato a sostituire Claude con altri modelli.

    Ma la portata della designazione è oggetto di dibattito legale. Amodei sostiene che secondo la legge federale, lo strumento si applica solo ai contratti diretti con il Dipartimento della Difesa e “non può limitare gli usi di Claude o le relazioni commerciali con Anthropic se queste non sono correlate ai loro specifici contratti con il Dipartimento della Guerra“.

    Microsoft, che ha annunciato un investimento fino a 5 miliardi di dollari in Anthropic nel novembre 2025, ha fatto sapere che i suoi avvocati hanno studiato la designazione e concluso che i prodotti Anthropic possono rimanere disponibili ai clienti non legati al Dipartimento della Difesa.

    Se l’interpretazione estensiva di Hegseth dovesse prevalere, le conseguenze andrebbero oltre Anthropic. Amazon Web Services e Google Cloud, che ospitano l’infrastruttura di Claude, sono a loro volta contractor del Dipartimento della Difesa. Se fossero costretti a interrompere il rapporto con Anthropic, l’azienda si troverebbe senza infrastruttura cloud, dato che non esistono provider di capacità comparabile che non abbiano contratti con il Pentagono.

    Anthropic e la battaglia legale 

    Anthropic ha annunciato che contesterà la designazione in tribunale. E secondo diversi esperti legali, ha buone possibilità di prevalere.

    La legge che definisce il ‘supply chain risk’ è contenuta nel Titolo 10, Sezione 3252 del codice federale. Parla di “rischio che un avversario possa sabotare, introdurre malevolmente funzioni indesiderate, o altrimenti sovvertire un sistema per spiare, interrompere o degradarne il funzionamento. Richiede prove di sabotaggio, sovversione, backdoor nei sistemi.

    Ma Anthropic non ha fatto nulla di tutto questo. La disputa, come entrambe le parti hanno riconosciuto, riguarda i termini contrattuali, non vulnerabilità tecniche o rischi di sicurezza. Un funzionario della difesa che valuta specificamente le minacce alla catena di approvvigionamento ha dichiarato che “non ci sono prove di rischio per la catena di approvvigionamento” da parte del modello di Anthropic. La designazione, ha detto, è “ideologicamente motivata“.

    Secondo Amos Toh, consulente senior del Brennan Center for Justice della NYU, lo statuto richiede anche che il Pentagono abbia esaurito tutte le alternative meno invasive prima di procedere con la designazione. È difficile sostenere che questo sia avvenuto, dato che la disputa è esplosa nel giro di pochi giorni.

    C’è poi la questione del precedente. Su Lawfare, un’analisi legale dettagliata sostiene che la designazione “non sopravviverà al primo contatto con il sistema legale, citando il caso Department of Commerce v. New York del 2019, in cui la Corte Suprema ha stabilito che i tribunali devono respingere azioni governative quando la motivazione dichiarata è un pretesto per quella reale. E sia Trump che Hegseth hanno accompagnato la designazione con dichiarazioni pubbliche che la inquadrano come punizione ideologica, non come risposta a un rischio tecnico.

    Claude comunque resta ancora in uso

    Mentre il governo degli Stati Uniti dichiara Anthropic un pericolo per la sicurezza nazionale, i modelli Claude continuano a essere utilizzati attivamente nelle operazioni militari in Iran.

    Secondo Bloomberg, Claude è uno dei principali modelli installati nel Maven Smart System di Palantir, ampiamente usato dagli operatori militari in Medio Oriente. La tecnologia sta funzionando ed è diventata centrale per le operazioni statunitensi contro l’Iran.

    Come notato da diversi esperti, in questa fase è molto difficile abbandonare tecnologie profondamente integrate nei processi bellici proprio prima di andare in guerra.

    Questa contraddizione mina alla base la narrativa del “rischio per la sicurezza nazionale“. Se Claude fosse davvero un pericolo, perché continuare a usarlo per prendere decisioni di targeting in un conflitto attivo? E se non lo è, su quale base il Pentagono può sostenere la designazione?

    Le conseguenze per l’intero settore

    Al di là di quello che accadrà ad Anthropic, questa vicenda ha implicazioni più ampie per l’intero settore dell’intelligenza artificiale e per il rapporto tra Big Tech e governo.

    Come osservato da diversi esperti, la designazione suggerisce che il governo americano potrebbe utilizzare la sua autorità sulla supply chain come leva nelle negoziazioni con le aziende. Questo potrebbe dare vita a una nuova realtà per le aziende tecnologiche che lavorano con le agenzie federali. I termini contrattuali potrebbero diventare meno negoziabili.

    Ma mentre Anthropic perde i suoi contratti con i contractor della difesa, in realtà sta guadagnando milioni di nuovi utenti. I dati mostrano che Claude è salito al primo posto nell’App Store statunitense di Apple, superando ChatGPT. Gli utenti gratuiti sono aumentati di oltre il 60% da gennaio, gli abbonati a pagamento sono più che raddoppiati. Secondo un portavoce di Anthropic, le iscrizioni giornaliere hanno battuto il record storico ogni giorno della settimana scorsa.

    Gli utenti hanno visto quello che è successo e hanno scelto di conseguenza.

    In chiusura, Dario Amodei ha costruito la sua carriera sull’idea che l’intelligenza artificiale debba avere dei limiti.

    Si è chiesto pubblicamente se la sua creazione possa essere cosciente, e ne ha tratto conseguenze concrete. Ha lasciato OpenAI quando la visione non era più la sua; ha fondato un’azienda come public benefit corporation; ha mantenuto due linee rosse sapendo cosa avrebbe comportato.

    Ora è il CEO della prima azienda americana nella storia a ricevere una designazione pensata per avversari stranieri. Non per aver violato leggi, non per aver compromesso sistemi, ma per aver detto no.

    È una storia che per un verso racconta il profilo di un uomo che nonostante tutto ha cercato anche di recuperare i rapporti col Pentagono, quando ormai era difficile. Questo va detto. Criticabile, ovviamente, ma va vista anche come una mossa per evitare il peggio. Peggio che ora diventerà, lo vedremo, inevitabile.

    Ma è anche la storia di un momento che racconta molto dell’epoca che stiamo vivendo, che passa necessariamente dal profilo di Amodei, ma anche dal profilo di Altman e di Musk.

  • Sam Altman ha rivelato a tutti la sua doppia faccia

    Sam Altman ha rivelato a tutti la sua doppia faccia

    La vicenda del contratto col Pentagono rivela come opera Sam Altman: solidarietà a parole mentre persegue i suoi obiettivi e scuse solo quando il danno d’immagine è fatto. I fatti raccontano un profilo diverso dall’immagine pubblica.

    Sam Altman ha un modo particolare di muoversi nelle situazioni di crisi. Dice le cose giuste al momento giusto, si posiziona dalla parte di chi appare più debole, esprime comprensione e solidarietà.

    E intanto agisce in direzione opposta. La vicenda del contratto tra OpenAI e il Pentagono, con tutto quello che è successo tra il 26 febbraio e il 3 marzo, offre una dimostrazione plastica di questo schema.

    Un meccanismo che si ripete

    Chi segue le vicende dell’intelligenza artificiale conosce già questo meccanismo.

    Altman lo ha usato più volte nel corso degli anni, con variazioni minime ma sempre con la stessa struttura di fondo: dichiarazioni pubbliche di principio accompagnate da azioni che vanno nella direzione opposta. Seguite poi da correzioni tardive presentate come ripensamenti spontanei.

    Questa volta però i fatti si sono susseguiti con una velocità tale da rendere il meccanismo visibile e chiaro a tutti. E vale la pena di ricostruirli non tanto per raccontare cosa è successo, che ormai è noto, ma per mostrare come Altman si è mosso in ogni passaggio.

    Sam Altman e il posizionamento preventivo

    Giovedì 26 febbraio, quando è già chiaro che Anthropic sta per rompere con il Pentagono, Altman invia un memo interno ai dipendenti di OpenAI. Nel memo scrive che l’azienda condivide le stesse “linee rosse” di Anthropic sulla sorveglianza di massa e sulle armi autonome. Si tratta di una mossa che prepara il terreno: qualunque cosa accada il giorno dopo, Altman potrà dire di essersi posizionato dalla parte giusta della storia.

    Come noto, il giorno dopo Dario Amodei rifiuta l’ultimatum del Pentagono e Anthropic viene classificata come rischio per la sicurezza nazionale. Trump definisce l’azienda “radicale di sinistra” e ordina alle agenzie federali di smettere di usare Claude.

    Ed è in questo momento che il comportamento di Altman diventa rivelatore.

    Sam Altman ha rivelato a tutti la sua doppia faccia
    Sam Altman ha rivelato a tutti la sua doppia faccia

    Altman e la finta solidarietà

    Poche ore dopo il ban di Anthropic, per non dire quasi in contemporanea, Sam Altman annuncia su X l’accordo tra OpenAI e il Pentagono per i sistemi classificati.

    Nel post accompagna l’annuncio con parole di solidarietà verso Amodei. Scrive di fidarsi di lui, di credere che Anthropic si preoccupi davvero della sicurezza, definisce il ban “un precedente estremamente spaventoso“.

    Sono dichiarazioni che suonano nobili, quasi coraggiose. Ma arrivano mentre Altman sta firmando il contratto che prende esattamente il posto di quello appena strappato al suo concorrente.

    È una modalità che si riconosce facilmente una volta che la si è vista una volta. Altman con i suoi modi non attacca mai direttamente. Si posiziona come alleato di chi sta per colpire, esprime comprensione per la sua posizione, e intanto porta a casa il risultato. La solidarietà diventa copertura per il raggiungimento dei suoi interessi.

    Il contesto che aggrava la posizione di Altman

    C’è un elemento che rende questa vicenda ancora più significativa.

    Nella notte tra il 27 e il 28 febbraio, mentre Altman celebrava il suo accordo e Anthropic veniva messa al bando, gli Stati Uniti lanciavano attacchi aerei sull’Iran. Il Wall Street Journal ha riportato che lo US Central Command ha utilizzato Claude per le operazioni: valutazioni di intelligence, identificazione dei bersagli, simulazioni di combattimento. Lo stesso modello che il governo aveva appena dichiarato un pericolo per la sicurezza nazionale veniva impiegato per una missione di guerra.

    Altman sapeva certamente che Claude era integrato nei sistemi militari al punto da non poter essere sostituito in tempi brevi. Sapeva che presentarsi come l’alternativa in quel momento preciso gli avrebbe garantito un vantaggio competitivo enorme. Ha scelto di farlo, accompagnando l’operazione con dichiarazioni di solidarietà.

    Sam Altman e il mea culpa calibrato

    Ieri, lunedì 3 marzo, dopo un fine settimana in cui Claude è salito al primo posto dell’App Store superando ChatGPT, in cui il movimento “Cancel ChatGPT” ha preso piede sui social e in cui i dati hanno mostrato un’emorragia di utenti verso Anthropic, Altman pubblica una nuova nota.

    Questa volta ammette che la gestione dell’accordo “è sembrata opportunistica e sciatta, riconosce di aver sbagliato i tempi, annuncia modifiche al contratto per includere le stesse garanzie che Amodei chiedeva fin dall’inizio.

    Anche qui la modalità è riconoscibile. Le scuse arrivano solo quando il danno d’immagine è ormai evidente e quantificabile. Non sono il prodotto di una riflessione, ma la risposta a una crisi di reputazione. Altman non dice “ho sbagliato a firmare mentre Anthropic veniva bandita“. Dice “ho sbagliato a comunicare male“. La sostanza dell’azione non viene mai messa in discussione, solo la forma.

    Nella nota aggiunge che sta lavorando per inserire nel contratto un linguaggio esplicito contro la sorveglianza domestica e le informazioni acquisite commercialmente, cioè i dati che il governo può comprare dai data broker senza mandato.

    Sono esattamente le garanzie che Amodei chiedeva prima di firmare. Ma Altman le aggiunge dopo, quando ormai servono a recuperare credibilità, non a stabilire un principio.

    E gli utenti scoprono Claude 

    Ma c’è ancora un aspetto di questa vicenda che sfugge al controllo di Altman, ed è la reazione del mercato.

    I dati di Anthropic mostrano che le iscrizioni giornaliere hanno raggiunto livelli record, gli utenti gratuiti sono cresciuti di oltre il 60% da gennaio, gli abbonati a pagamento sono più che raddoppiati. Bloomberg riporta che la crescita di Anthropic ha superato i 19 miliardi di dollari, più che raddoppiato rispetto ai 9 miliardi di fine 2025. Sono numeri che raccontano una migrazione in corso, anche se non si sa ancora di quale entità.

    Gli utenti hanno visto la stessa sequenza di eventi e ne hanno tratto le loro conclusioni. Hanno visto un CEO che esprime solidarietà mentre firma il contratto che sostituisce il concorrente; hanno visto le scuse arrivare solo dopo che i numeri mostravano un problema; hanno visto le modifiche al contratto presentate come concessioni spontanee quando erano evidentemente una risposta alla pressione. E hanno scelto di conseguenza.

    Sam Altman e il suo ritratto più chiaro

    Sam Altman ha costruito negli anni un’immagine pubblica di leader visionario, attento all’etica, preoccupato per le implicazioni dell’intelligenza artificiale.

    È un’immagine che ha coltivato con interviste, post sui social, apparizioni pubbliche calibrate. Ma le azioni raccontano una storia diversa, quella di un CEO che sa sempre dove posizionarsi per apparire dalla parte giusta mentre persegue obiettivi che vanno in un’altra direzione.

    Questa vicenda non è un incidente di percorso. È la manifestazione di un modo di operare che si ripete con variazioni minime da anni. La solidarietà usata come copertura, le scuse calibrate sul danno d’immagine, le concessioni presentate come principi quando sono risposte alla pressione del momento.

    Sono tutti elementi di uno stesso schema, e questa volta si sono manifestati in una sequenza così rapida e visibile da non poter essere ignorati, da nessuno.

    Resta da vedere se questa consapevolezza avrà conseguenze durature o se Altman riuscirà ancora una volta a riposizionarsi. Ma intanto i fatti sono chiari, e il profilo che ne emerge è difficile da essere frainteso.

    [L’immagine di copertina è modificata da Franz Russo – Credits: Sam Altman speaking at TED” by TED Conference is licensed under CC BY-NC-SA 4.0.]

  • Altman, Amodei e la grande frattura dell’intelligenza artificiale

    Altman, Amodei e la grande frattura dell’intelligenza artificiale

    Un momento di forte imbarazzo all’India AI Impact Summit tra Sam Altman e Dario Amodei ha catturato l’attenzione di tutti. In realtà, alla base di quell’imbarazzo c’è uno scontro tra due modi diversi di intendere il futuro della IA.

    New Delhi, 19 febbraio 2026, la città indiana dove si sta tenendo India AI Impact Summit, l’evento più importante dell’anno per quanto riguarda il settore dell’intelligenza artificiale.

    Al Bharat Mandapam si sono dati appuntamento i CEO delle principali aziende tecnologiche del pianeta, con oltre 200 miliardi di dollari in promesse di investimento e l’attenzione dei media di tutto il mondo.

    Sul palco, dopo i keynote, il premier indiano, e padrone di casa, Narendra Modi invita i tredici leader presenti a unire le mani in segno di coesione e collaborazione.

    Un gesto per lo più pensato a favore delle telecamere, per celebrare l’unità di un settore che promette di cambiare il mondo. La folla applaude e tutti, o quasi, seguono l’indicazione di Modi.

    Ma succede qualcosa su quel palco che finisce per rubare la scena.

    Altman, Amodei e la grande frattura dell’intelligenza artificiale
    Altman, Amodei e la grande frattura dell’intelligenza artificiale

    L’imbarazzo tra Sam Altman e Dario Amodei

    Sam Altman, CEO di OpenAI, e Dario Amodei, CEO di Anthropic, sono uno accanto all’altro.

    Altman, che ha alla sua destra proprio il premier indiano Modi, abbassa lo sguardo, visibilmente imbarazzato, verso la mano di Amodei. C’è un breve momento di contatto visivo imbarazzato, poi entrambi evitano di guardarsi.

    Amodei, anche lui indeciso su cosa fare, si guarda intorno con un gesto che sembra dire “chi, io?”. Per diversi secondi, che sembrano interminabili, i due evitano goffamente il contatto.

    Alla fine, entrambi alzano un pugno chiuso invece di unire le mani.

    Il video, ovviamente, fa il giro delle piattaforme nel giro di pochissimi minuti. In molti lo descrivono come l’emblema della “AI cold war”, la guerra fredda dell’intelligenza artificiale.

    “Non sapevo cosa stesse succedendo”, dirà poi Altman ai media indiani. “Ero confuso. Modi mi ha preso la mano e l’ha alzata, e non ero sicuro di cosa dovessimo fare.

    Ma la confusione di Altman è difficile da credere. Quei due pugni alzati separatamente raccontano invece una storia che inizia cinque anni prima, in una sala riunioni di San Francisco. E che nelle ultime settimane è esplosa in uno scontro pubblico senza precedenti.

    La scissione e la nascita di Anthropic

    Amodei, come molti già sapranno, ha lavorato sotto Altman a OpenAI dal 2016 al 2020, come vicepresidente della ricerca. Si è concentrato sulla sicurezza, ha avuto un ruolo chiave nel lancio di GPT-2 e GPT-3, ha co-inventato il “reinforcement learning from human feedback”, la tecnica che usa l’input umano per addestrare i modelli linguistici a produrre risultati migliori.

    Ma poi qualcosa si rompe, cosa che succede in tutte le storie aziendali.

    Amodei, insieme a un piccolo gruppo di colleghi, inizia a preoccuparsi per la direzione che sta prendendo OpenAI. La tensione riguarda un aspetto fondamentale. Lo sviluppo dell’intelligenza artificiale deve dare priorità alla velocità per conquistare il mercato, oppure procedere con cautela, investendo nella ricerca sulla sicurezza prima di rilasciare nuovi modelli?

    Per Amodei la risposta è chiara. In un’intervista ha spiegato che semplicemente scalare i modelli con più potenza di calcolo non basta: “Serviva qualcosa in aggiunta allo scaling, ovvero l’allineamento o la sicurezza.”

    Prendi alcune persone di cui ti fidi e vai a realizzare la tua visione“, si disse Amodei, piuttosto che continuare a discutere all’interno di un’organizzazione dove altri avevano il potere decisionale.

    E così, nel 2021, lascia OpenAI insieme alla sorella Daniela e una dozzina di ex colleghi. Fondano Anthropic con una missione precisa: mettere la sicurezza al primo posto.

    Da allora la frattura tra i due si è trasformata in una guerra commerciale che riflette due visioni opposte del futuro.

    Due modi di vedere il futuro della IA

    Da una parte c’è chi guarda già oltre l’AGI, l’intelligenza artificiale generale, verso la superintelligenza.

    Altman ha scritto che “strumenti superintelligenti potrebbero accelerare massicciamente la scoperta scientifica e l’innovazione ben oltre ciò che siamo capaci di fare da soli.” Sa che suona come fantascienza, ammette che sembra quasi folle parlarne. Ma non gli importa: “Ci siamo già passati e siamo a nostro agio nel tornarci.”

    Dall’altra c’è chi dedica il suo tempo a parlare dei pericoli. Amodei ha detto in un’intervista televisiva: “Mi preoccupo molto delle incognite. Non credo che possiamo prevedere tutto con certezza. Ma proprio per questo stiamo cercando di prevedere tutto ciò che possiamo. Pensiamo agli impatti economici dell’IA. Pensiamo all’uso improprio. Pensiamo alla perdita di controllo del modello.”

    E ha scritto qualcosa di insolito per il CEO di un’azienda del settore: “È un po’ imbarazzante dirlo come CEO di un’azienda IA, ma penso che il prossimo livello di rischio siano proprio le stesse aziende IA. Controllano grandi data center, addestrano modelli di frontiera, e in alcuni casi hanno contatto quotidiano con decine o centinaia di milioni di utenti. Potrebbero usare i loro prodotti per fare il lavaggio del cervello alla loro enorme base di utenti.

    La domanda che sta dietro a tutto questo l’ha posta un giornalista in un’intervista: “Nessuno ha scelto questo. Chi ha eletto te e Sam Altman?” La risposta di Amodei è stata disarmante: “Nessuno, onestamente nessuno. E questa è una ragione per cui ho sempre sostenuto una regolamentazione responsabile della tecnologia.”

    Lo scontro tra OpenAI e Anthropic al Super Bowl

    La rivalità filosofica è diventata guerra aperta poche settimane fa. OpenAI ha annunciato che inizierà a testare la pubblicità all’interno di ChatGPT per gli utenti gratuiti.

    Anthropic, dal canto suo, ha risposto durante il Super Bowl con una serie di spot satirici che prendevano di mira questa decisione.

    Ogni spot si apriva con una singola parola a tutto schermo: “tradimento”, “inganno”, “slealtà”, “violazione”. In ciascuno di essi, persone comuni che cercavano consigli da un assistente IA venivano interrotte da pubblicità indesiderate. Il messaggio di fondo era: noi non lo faremo mai.

    Altman ha risposto con un lungo post su X, accusando gli spot di essere “ingannevoli” e definendo Anthropic un’azienda “autoritaria”. Ha ammesso di aver trovato gli spot “divertenti”, come a voler convincere che sapeva stare allo scherzo.

    Ma poi ha rincarato la dose: “Anthropic serve un prodotto costoso a persone ricche. Più texani usano ChatGPT gratis di quante persone in totale usino Claude negli USA.”

    Lo scontro va oltre il marketing. Anthropic ha annunciato un investimento di 20 milioni di dollari in un super PAC che si oppone a un altro super PAC vicino a OpenAI. Da una parte si combatte per una regolamentazione più forte dell’intelligenza artificiale, dall’altra si preferisce un approccio laissez-faire.

    Ed è in questo clima che i due si sono ritrovati uno accanto all’altro sul palco di New Delhi, per tornare al tema di questo articolo.

    Un’immagine imbarazzante che in realtà dice tutto

    Durante i loro interventi al Summit, i messaggi hanno preso strade divergenti. Amodei ha parlato dei “rischi seri” legati ai sistemi IA avanzati: comportamento autonomo, uso improprio da parte di governi e malintenzionati, spostamento economico.

    Altman ha sostenuto che la sicurezza dell’IA deve includere la “resilienza sociale” e che “nessun laboratorio IA può garantire un buon futuro da solo.”

    Poi è arrivato il momento della foto di gruppo. E quei pugni alzati, invece delle mani unite, hanno detto più di qualsiasi altro discorso.

    La frattura non riguarda solo due CEO o due aziende. Attraversa l’intero settore dell’intelligenza artificiale e mette al centro due modi di intendere la IA molto diversi.

    Da una parte chi corre verso l’AGI puntando sulla velocità e sulla democratizzazione dell’accesso. Dall’altra chi frena e chiede tempo per capire che cosa stiamo costruendo.

    Due visioni che necessitano comunque di regole

    Due visioni che dovrebbero essere al centro, a questo punto, di qualsiasi dibattito nella società.

    Se è vero, come è vero, che la IA sta correndo a velocità molto sostenuta; se è vero che le aziende stanno investendo moltissimo sulla IA, e già si parla di bolla per via di investimenti esagerati, è anche vero che questo fenomeno ancora non è molto regolamentato.

    L’UE, dal canto suo, e nonostante le tante debolezze di tipo tecnologico e infrastrutturale, ha sicuramente indicato una strada con l’AI Act. Ma serve fare di più, e meglio.

    Il problema è che provare a regolamentare meglio e a cercare di tenere il passo della IA in questa fase storica è molto complicato, per via delle grandi tensioni geopolitiche in atto.

    Inevitabilmente, la IA diventa un terreno da coltivare ma anche un terreno di scontro per il fatto che in gioco ci sono interessi altissimi.

    In mezzo a tutto questo, resta la domanda che nessuno ha ancora il coraggio di affrontare: ma chi è che ha dato a un pugno di ingegneri della Silicon Valley il diritto di decidere il futuro dell’IA e, quindi, dell’umanità?