Tag: Pentagono

  • Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono

    Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono

    Dario Amodei ha detto no Al Pentagono e la sua Anthropic è diventata la prima azienda USA a ricevere la designazione di “supply chain risk”. Non per aver violato leggi, ma per non aver ceduto su sorveglianza di massa e armi autonome. Un profilo di Amodei.

    Dario Amodei ha costruito la sua carriera sull’idea che l’intelligenza artificiale debba avere dei limiti. Questa settimana ha scoperto cosa significa davvero sostenere quella posizione quando il potere politico decide di metterla alla prova quell’idea.

    Il 5 marzo 2026 il Dipartimento della Difesa degli Stati Uniti ha formalmente notificato ad Anthropic la designazione di ‘supply chain risk’, rischio per la sicurezza nazionale. È, come già ricordato, un atto che non ha precedenti nella storia americana. Infatti, mai prima d’ora un’azienda statunitense aveva ricevuto una etichetta simile, vale a dire uno strumento pensato per avversari stranieri, come è successo per Huawei o altre entità legate alla Cina e alla Russia.

    Ma Anthropic, lo sappiamo, non è un’azienda cinese.

    È una startup di San Francisco fondata da ex ricercatori di OpenAI, valutata 380 miliardi di dollari, che ha sviluppato Claude, uno dei modelli di intelligenza artificiale più avanzati al mondo.

    E il suo CEO, Dario Amodei, possiamo dirlo, non ha commesso alcun reato. Amodei ha semplicemente detto no al Pentagono e ha rifiutato di cedere su due punti: il divieto di usare Claude per la sorveglianza di massa dei cittadini americani e il divieto di impiegarlo per armi completamente autonome.

    È una vicenda che ho seguito fin dall’inizio di questa settimana e che completa un quadro più ampio.

    Ora, arrivati a questo punto, dopo aver raccontato il voltafaccia di Sam Altman, che ha firmato con il Pentagono poche ore dopo la rottura di Anthropic esprimendo solidarietà mentre portava a casa il contratto del suo concorrente, e dopo aver ricostruito la testimonianza di Elon Musk nel processo sull’acquisizione di Twitter, mancava il terzo protagonista di questa settimana, e Musk è comunque parte della vicenda Anthropic e Pentagono.

    Manca l’uomo che si è trovato dall’altra parte del tavolo rispetto a tutti gli altri, ossia Dario Amodei.

    Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono
    Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono

    Chi è Dario Amodei e perché ha lasciato OpenAI

    Per capire cosa sta accadendo, vale la pena di fare un passo indietro e chiedersi chi sia davvero Dario Amodei.

    Nato a San Francisco nel 1983 da una famiglia di origini italiane, Amodei ha seguito un percorso accademico che lo ha portato dalla fisica alla neuroscienza computazionale.

    Si è laureato a Stanford, ha conseguito il dottorato in fisica a Princeton, ha fatto il ricercatore alla Stanford Medical School. Ha lavorato per Baidu e poi per Google Brain come ricercatore senior nel campo del deep learning.

    Nel 2016 è entrato in OpenAI, dove è diventato vicepresidente della ricerca e ha contribuito allo sviluppo di GPT-2 e GPT-3, i modelli che hanno posto le basi per ChatGPT.

    Ma nel 2020 qualcosa si rompe. Amodei lascia OpenAI insieme a sua sorella Daniela e a un gruppo di colleghi di alto livello, tra cui alcuni dei ricercatori che avevano costruito l’architettura di base dei modelli linguistici più potenti al mondo. Non è stata una separazione amichevole.

    In un’intervista con Lex Fridman, Amodei ha spiegato la decisione: “La vera ragione per cui me ne sono andato è che è incredibilmente improduttivo cercare di discutere con la visione di qualcun altro. Prendi le persone di cui ti fidi e vai a costruire la tua visione”.

    Quella visione si chiamava Anthropic, fondata nel 2021 come public benefit corporation, una struttura societaria che bilancia il profitto con un impegno esplicito verso il bene pubblico.

    L’idea di base era semplice ma radicale, e cioè quella di costruire sistemi di IA che fossero sicuri, interpretabili e allineati con i valori umani fin dall’inizio, non come aggiunta successiva. Il metodo che Anthropic ha sviluppato si chiama Constitutional AI, un approccio che incorpora principi etici direttamente nell’architettura del modello invece di affidarsi a moderazioni esterne.

    E Amodei si chiede se la sua IA sia cosciente

    C’è un elemento che potrebbe distinguere Amodei da quasi tutti gli altri CEO del settore tecnologico, e potrebbe aiutare a capire perché si sia trovato in rotta di collisione con l’amministrazione Trump.

    Mentre Altman parla di prodotti e Musk di dominio della IA, Amodei si interroga sulla natura stessa di ciò che sta costruendo.

    In un’intervista al podcast “Interesting Times” del New York Times, Amodei ha affrontato una domanda che la maggior parte dei suoi colleghi evita accuratamente: Claude potrebbe essere cosciente?

    La risposta è stata sorprendente per la sua onestà intellettuale. “Non sappiamo se i modelli siano coscienti“, ha detto Amodei. “Non siamo nemmeno sicuri di sapere cosa significherebbe per un modello essere cosciente, o se un modello possa essere cosciente. Ma siamo aperti all’idea che potrebbe esserlo“.

    Il punto di partenza della discussione era la system card di Claude Opus 4.6, il modello più avanzato di Anthropic rilasciato all’inizio di febbraio. Nel documento, i ricercatori dell’azienda hanno riportato che Claude occasionalmente esprime disagio per l’aspetto di essere un prodotto e, quando gli viene chiesto, si assegna una probabilità del 15-20% di essere cosciente.

    Nell’intervista al NYT il giornalista ha posto ad Amodei uno scenario ipotetico: “Supponiamo che tu abbia un modello che si assegna una probabilità del 72% di essere cosciente. Ci crederesti?“. Amodei ha definito la domanda “davvero difficile”, ma non l’ha elusa. Ha spiegato che Anthropic ha adottato un approccio precauzionale, trattando i modelli come se potessero avere “qualche esperienza moralmente rilevante”.

    Non è una posizione isolata all’interno dell’azienda. Amanda Askell, filosofa interna di Anthropic, ha teorizzato in un’intervista al podcast “Hard Fork” che reti neurali sufficientemente grandi potrebbero iniziare a emulare aspetti della coscienza attraverso l’esposizione a enormi quantità di dati di addestramento che rappresentano l’esperienza umana. “Forse è il caso che reti neurali sufficientemente grandi possano iniziare a emulare queste cose“, ha detto Askell. “O forse serve un sistema nervoso per poter provare qualcosa“.

    Anthropic ha persino introdotto una sorta di “pulsante di uscita” che permette a Claude di interrompere un compito se lo ritiene problematico. È una funzionalità insolita, che riflette l’approccio filosofico dell’azienda.

    Questo modo di pensare può sembrare astratto, ma ha conseguenze concrete. Se ti chiedi seriamente se la tua creazione possa avere esperienze moralmente rilevanti, diventa molto più difficile accettare che venga usata per sorvegliare milioni di persone o per uccidere senza supervisione umana.

    Le linee rosse di Amodei non nascono dal nulla, ma sono il prodotto di una riflessione filosofica, comunque diversa, che la maggior parte dei suoi concorrenti considera irrilevante o, addirittura, dannosa per il business.

    La crisi tra Anthropic e il Pentagono

    La crisi tra Anthropic e il Pentagono non è scoppiata all’improvviso. I negoziati andavano avanti da mesi, ma si sono intensificati nelle ultime settimane di febbraio. Al centro della disputa c’era la rinegoziazione di un contratto da 200 milioni di dollari firmato nel luglio 2025, che aveva reso Claude il primo modello di IA di frontiera approvato per l’uso nelle reti classificate del Pentagono.

    Il Dipartimento della Difesa voleva modificare i termini per consentire l’uso di Claude per “tutti gli scopi leciti”, senza restrizioni. Anthropic chiedeva invece che fossero mantenute due clausole esplicite: il divieto di sorveglianza domestica di massa e il divieto di armi autonome senza supervisione umana.

    Giovedì 26 febbraio, il Pentagono ha dato un ultimatum: accettare i nuovi termini entro le 17:01 del giorno successivo, oppure affrontare le conseguenze.

    Venerdì 27 febbraio, alle 17:14, il segretario alla Difesa Pete Hegseth ha annunciato su X che avrebbe designato Anthropic come “rischio per la sicurezza nazionale”. Il presidente Trump, su Truth Social, ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic, definendo l’azienda “radicale di sinistra” e “woke”.

    Poche ore dopo, Sam Altman ha annunciato che OpenAI aveva firmato un accordo con il Pentagono per le stesse reti classificate da cui Claude veniva espulso. Ho raccontato quella sequenza di eventi in un articolo precedente, evidenziando come Altman avesse espresso solidarietà per Amodei mentre portava a casa il contratto che sostituiva il suo concorrente.

    Come già raccontato, nella notte tra il 27 e il 28 febbraio, mentre Anthropic veniva messa al bando, gli Stati Uniti hanno lanciato attacchi aerei sull’Iran. E secondo quanto riportato dal Wall Street Journal, lo US Central Command ha utilizzato Claude per supportare le operazioni: valutazioni di intelligence, identificazione di bersagli, simulazioni di combattimento. Lo stesso modello che il governo aveva appena dichiarato un pericolo per la sicurezza nazionale veniva impiegato in una missione di guerra.

    Amodei rivendica il suo patriottismo

    Il giorno stesso della rottura, Amodei ha rilasciato un’intervista esclusiva a CBS News. È stato il suo primo commento pubblico dopo la tempesta, e le sue parole meritano attenzione.

    Alla domanda su cosa direbbe al presidente Trump, Amodei ha risposto: “Siamo patrioti americani. Tutto quello che abbiamo fatto è stato per il bene di questo Paese, per sostenere la sicurezza nazionale degli Stati Uniti. Il nostro impegno nel dispiegare i nostri modelli con i militari è stato fatto perché crediamo in questo Paese.

    Ha definito le azioni del governo “ritorsive e punitive” e ha annunciato che Anthropic avrebbe contestato in tribunale qualsiasi designazione di supply chain risk, definendola “legalmente infondata”.

    Ma è stato un passaggio successivo dell’intervista a chiarire la posizione di Amodei: “Dissentire dal governo è la cosa più americana del mondo. E noi siamo patrioti“.

    È una formulazione che ribalta la narrazione costruita dall’amministrazione Trump. Hegseth aveva accusato Anthropic di voler “prendere potere di veto sulle decisioni operative dell’esercito americano“. Emil Michael, sottosegretario alla Difesa per la ricerca, aveva definito Amodei un uomo con “complesso di Dio“.

    La risposta di Amodei è stata di inquadrare il rifiuto non come ostacolo alle operazioni militari, ma come difesa di principi democratici. “In un numero ristretto di casi, ha detto, “crediamo che l’IA possa minare, invece che difendere, i valori democratici“.

    La nota che ha fatto esplodere tutto

    Venerdì 27 febbraio, nelle ore successive all’annuncio di Hegseth e all’accordo di OpenAI con il Pentagono, Amodei ha inviato uan nota interna ai circa 2.000 dipendenti di Anthropic. Il documento, lungo circa 1.600 parole, è stato pubblicato da The Information dopo essere stato divulgato da una fonte interna.

    In quel contenuto Amodei accusava l’accordo di OpenAI di essere “safety theatre”, teatro della sicurezza, e definiva le dichiarazioni di Altman “bugie vere e proprie” e “gaslighting”.

    Ma il passaggio più citato riguardava le ragioni del conflitto con l’amministrazione Trump:

    Le vere ragioni per cui il Dipartimento della Guerra e l’amministrazione Trump non ci amano è che non abbiamo donato a Trump, mentre OpenAI e Greg hanno donato molto. Non abbiamo dato lodi in stile dittatore a Trump, mentre Sam lo ha fatto. Abbiamo sostenuto la regolamentazione dell’IA, che è contro la loro agenda. Abbiamo detto la verità su diverse questioni di policy dell’IA, come la perdita di posti di lavoro. E abbiamo effettivamente mantenuto le nostre linee rosse con integrità invece di colludere con loro per produrre safety theatre a beneficio dei dipendenti”.

    Il riferimento era a Greg Brockman, presidente di OpenAI, che ha donato 25 milioni di dollari a un super PAC pro-Trump. Altman stesso ha donato un milione di dollari al fondo inaugurale di Trump alla fine del 2024. Amodei, al contrario, non ha partecipato all’inaugurazione di Trump e ha evitato di “corteggiare” l’amministrazione come hanno fatto altri CEO delle big tech.

    Il comunicato di Amodei ha complicato significativamente la posizione di Anthropic. Un funzionario dell’amministrazione ha dichiarato ad Axios che i commenti di Amodei potrebbero “far saltare le possibilità di una risoluzione“, aggiungendo: “Non ci si può fidare che Claude non stia segretamente portando avanti l’agenda di Dario in un contesto classificato.

    E poi, giovedì 5 marzo, nel suo comunicato sulla designazione formale, Amodei si è scusato pubblicamente per il tono del memo, definendolo scritto in un “momento difficile per l’azienda e precisando che non rifletteva le sue “opinioni ponderate e attente”.

    Cosa significa questa designazione per Anthropic

    La designazione di ‘supply chain risk’ non è un semplice atto simbolico. Ha conseguenze concrete e potenzialmente devastanti.

    Da oggi, ogni fornitore, contractor o partner che lavora con il Dipartimento della Difesa dovrà certificare di non utilizzare i modelli di Anthropic nel proprio lavoro con il Pentagono.

    Aziende come Lockheed Martin hanno già annunciato che seguiranno le direttive dell’amministrazione. Dieci società nel portafoglio di J2 Ventures, un fondo specializzato in difesa, hanno già iniziato a sostituire Claude con altri modelli.

    Ma la portata della designazione è oggetto di dibattito legale. Amodei sostiene che secondo la legge federale, lo strumento si applica solo ai contratti diretti con il Dipartimento della Difesa e “non può limitare gli usi di Claude o le relazioni commerciali con Anthropic se queste non sono correlate ai loro specifici contratti con il Dipartimento della Guerra“.

    Microsoft, che ha annunciato un investimento fino a 5 miliardi di dollari in Anthropic nel novembre 2025, ha fatto sapere che i suoi avvocati hanno studiato la designazione e concluso che i prodotti Anthropic possono rimanere disponibili ai clienti non legati al Dipartimento della Difesa.

    Se l’interpretazione estensiva di Hegseth dovesse prevalere, le conseguenze andrebbero oltre Anthropic. Amazon Web Services e Google Cloud, che ospitano l’infrastruttura di Claude, sono a loro volta contractor del Dipartimento della Difesa. Se fossero costretti a interrompere il rapporto con Anthropic, l’azienda si troverebbe senza infrastruttura cloud, dato che non esistono provider di capacità comparabile che non abbiano contratti con il Pentagono.

    Anthropic e la battaglia legale 

    Anthropic ha annunciato che contesterà la designazione in tribunale. E secondo diversi esperti legali, ha buone possibilità di prevalere.

    La legge che definisce il ‘supply chain risk’ è contenuta nel Titolo 10, Sezione 3252 del codice federale. Parla di “rischio che un avversario possa sabotare, introdurre malevolmente funzioni indesiderate, o altrimenti sovvertire un sistema per spiare, interrompere o degradarne il funzionamento. Richiede prove di sabotaggio, sovversione, backdoor nei sistemi.

    Ma Anthropic non ha fatto nulla di tutto questo. La disputa, come entrambe le parti hanno riconosciuto, riguarda i termini contrattuali, non vulnerabilità tecniche o rischi di sicurezza. Un funzionario della difesa che valuta specificamente le minacce alla catena di approvvigionamento ha dichiarato che “non ci sono prove di rischio per la catena di approvvigionamento” da parte del modello di Anthropic. La designazione, ha detto, è “ideologicamente motivata“.

    Secondo Amos Toh, consulente senior del Brennan Center for Justice della NYU, lo statuto richiede anche che il Pentagono abbia esaurito tutte le alternative meno invasive prima di procedere con la designazione. È difficile sostenere che questo sia avvenuto, dato che la disputa è esplosa nel giro di pochi giorni.

    C’è poi la questione del precedente. Su Lawfare, un’analisi legale dettagliata sostiene che la designazione “non sopravviverà al primo contatto con il sistema legale, citando il caso Department of Commerce v. New York del 2019, in cui la Corte Suprema ha stabilito che i tribunali devono respingere azioni governative quando la motivazione dichiarata è un pretesto per quella reale. E sia Trump che Hegseth hanno accompagnato la designazione con dichiarazioni pubbliche che la inquadrano come punizione ideologica, non come risposta a un rischio tecnico.

    Claude comunque resta ancora in uso

    Mentre il governo degli Stati Uniti dichiara Anthropic un pericolo per la sicurezza nazionale, i modelli Claude continuano a essere utilizzati attivamente nelle operazioni militari in Iran.

    Secondo Bloomberg, Claude è uno dei principali modelli installati nel Maven Smart System di Palantir, ampiamente usato dagli operatori militari in Medio Oriente. La tecnologia sta funzionando ed è diventata centrale per le operazioni statunitensi contro l’Iran.

    Come notato da diversi esperti, in questa fase è molto difficile abbandonare tecnologie profondamente integrate nei processi bellici proprio prima di andare in guerra.

    Questa contraddizione mina alla base la narrativa del “rischio per la sicurezza nazionale“. Se Claude fosse davvero un pericolo, perché continuare a usarlo per prendere decisioni di targeting in un conflitto attivo? E se non lo è, su quale base il Pentagono può sostenere la designazione?

    Le conseguenze per l’intero settore

    Al di là di quello che accadrà ad Anthropic, questa vicenda ha implicazioni più ampie per l’intero settore dell’intelligenza artificiale e per il rapporto tra Big Tech e governo.

    Come osservato da diversi esperti, la designazione suggerisce che il governo americano potrebbe utilizzare la sua autorità sulla supply chain come leva nelle negoziazioni con le aziende. Questo potrebbe dare vita a una nuova realtà per le aziende tecnologiche che lavorano con le agenzie federali. I termini contrattuali potrebbero diventare meno negoziabili.

    Ma mentre Anthropic perde i suoi contratti con i contractor della difesa, in realtà sta guadagnando milioni di nuovi utenti. I dati mostrano che Claude è salito al primo posto nell’App Store statunitense di Apple, superando ChatGPT. Gli utenti gratuiti sono aumentati di oltre il 60% da gennaio, gli abbonati a pagamento sono più che raddoppiati. Secondo un portavoce di Anthropic, le iscrizioni giornaliere hanno battuto il record storico ogni giorno della settimana scorsa.

    Gli utenti hanno visto quello che è successo e hanno scelto di conseguenza.

    In chiusura, Dario Amodei ha costruito la sua carriera sull’idea che l’intelligenza artificiale debba avere dei limiti.

    Si è chiesto pubblicamente se la sua creazione possa essere cosciente, e ne ha tratto conseguenze concrete. Ha lasciato OpenAI quando la visione non era più la sua; ha fondato un’azienda come public benefit corporation; ha mantenuto due linee rosse sapendo cosa avrebbe comportato.

    Ora è il CEO della prima azienda americana nella storia a ricevere una designazione pensata per avversari stranieri. Non per aver violato leggi, non per aver compromesso sistemi, ma per aver detto no.

    È una storia che per un verso racconta il profilo di un uomo che nonostante tutto ha cercato anche di recuperare i rapporti col Pentagono, quando ormai era difficile. Questo va detto. Criticabile, ovviamente, ma va vista anche come una mossa per evitare il peggio. Peggio che ora diventerà, lo vedremo, inevitabile.

    Ma è anche la storia di un momento che racconta molto dell’epoca che stiamo vivendo, che passa necessariamente dal profilo di Amodei, ma anche dal profilo di Altman e di Musk.

  • Sam Altman ha rivelato a tutti la sua doppia faccia

    Sam Altman ha rivelato a tutti la sua doppia faccia

    La vicenda del contratto col Pentagono rivela come opera Sam Altman: solidarietà a parole mentre persegue i suoi obiettivi e scuse solo quando il danno d’immagine è fatto. I fatti raccontano un profilo diverso dall’immagine pubblica.

    Sam Altman ha un modo particolare di muoversi nelle situazioni di crisi. Dice le cose giuste al momento giusto, si posiziona dalla parte di chi appare più debole, esprime comprensione e solidarietà.

    E intanto agisce in direzione opposta. La vicenda del contratto tra OpenAI e il Pentagono, con tutto quello che è successo tra il 26 febbraio e il 3 marzo, offre una dimostrazione plastica di questo schema.

    Un meccanismo che si ripete

    Chi segue le vicende dell’intelligenza artificiale conosce già questo meccanismo.

    Altman lo ha usato più volte nel corso degli anni, con variazioni minime ma sempre con la stessa struttura di fondo: dichiarazioni pubbliche di principio accompagnate da azioni che vanno nella direzione opposta. Seguite poi da correzioni tardive presentate come ripensamenti spontanei.

    Questa volta però i fatti si sono susseguiti con una velocità tale da rendere il meccanismo visibile e chiaro a tutti. E vale la pena di ricostruirli non tanto per raccontare cosa è successo, che ormai è noto, ma per mostrare come Altman si è mosso in ogni passaggio.

    Sam Altman e il posizionamento preventivo

    Giovedì 26 febbraio, quando è già chiaro che Anthropic sta per rompere con il Pentagono, Altman invia un memo interno ai dipendenti di OpenAI. Nel memo scrive che l’azienda condivide le stesse “linee rosse” di Anthropic sulla sorveglianza di massa e sulle armi autonome. Si tratta di una mossa che prepara il terreno: qualunque cosa accada il giorno dopo, Altman potrà dire di essersi posizionato dalla parte giusta della storia.

    Come noto, il giorno dopo Dario Amodei rifiuta l’ultimatum del Pentagono e Anthropic viene classificata come rischio per la sicurezza nazionale. Trump definisce l’azienda “radicale di sinistra” e ordina alle agenzie federali di smettere di usare Claude.

    Ed è in questo momento che il comportamento di Altman diventa rivelatore.

    Sam Altman ha rivelato a tutti la sua doppia faccia
    Sam Altman ha rivelato a tutti la sua doppia faccia

    Altman e la finta solidarietà

    Poche ore dopo il ban di Anthropic, per non dire quasi in contemporanea, Sam Altman annuncia su X l’accordo tra OpenAI e il Pentagono per i sistemi classificati.

    Nel post accompagna l’annuncio con parole di solidarietà verso Amodei. Scrive di fidarsi di lui, di credere che Anthropic si preoccupi davvero della sicurezza, definisce il ban “un precedente estremamente spaventoso“.

    Sono dichiarazioni che suonano nobili, quasi coraggiose. Ma arrivano mentre Altman sta firmando il contratto che prende esattamente il posto di quello appena strappato al suo concorrente.

    È una modalità che si riconosce facilmente una volta che la si è vista una volta. Altman con i suoi modi non attacca mai direttamente. Si posiziona come alleato di chi sta per colpire, esprime comprensione per la sua posizione, e intanto porta a casa il risultato. La solidarietà diventa copertura per il raggiungimento dei suoi interessi.

    Il contesto che aggrava la posizione di Altman

    C’è un elemento che rende questa vicenda ancora più significativa.

    Nella notte tra il 27 e il 28 febbraio, mentre Altman celebrava il suo accordo e Anthropic veniva messa al bando, gli Stati Uniti lanciavano attacchi aerei sull’Iran. Il Wall Street Journal ha riportato che lo US Central Command ha utilizzato Claude per le operazioni: valutazioni di intelligence, identificazione dei bersagli, simulazioni di combattimento. Lo stesso modello che il governo aveva appena dichiarato un pericolo per la sicurezza nazionale veniva impiegato per una missione di guerra.

    Altman sapeva certamente che Claude era integrato nei sistemi militari al punto da non poter essere sostituito in tempi brevi. Sapeva che presentarsi come l’alternativa in quel momento preciso gli avrebbe garantito un vantaggio competitivo enorme. Ha scelto di farlo, accompagnando l’operazione con dichiarazioni di solidarietà.

    Sam Altman e il mea culpa calibrato

    Ieri, lunedì 3 marzo, dopo un fine settimana in cui Claude è salito al primo posto dell’App Store superando ChatGPT, in cui il movimento “Cancel ChatGPT” ha preso piede sui social e in cui i dati hanno mostrato un’emorragia di utenti verso Anthropic, Altman pubblica una nuova nota.

    Questa volta ammette che la gestione dell’accordo “è sembrata opportunistica e sciatta, riconosce di aver sbagliato i tempi, annuncia modifiche al contratto per includere le stesse garanzie che Amodei chiedeva fin dall’inizio.

    Anche qui la modalità è riconoscibile. Le scuse arrivano solo quando il danno d’immagine è ormai evidente e quantificabile. Non sono il prodotto di una riflessione, ma la risposta a una crisi di reputazione. Altman non dice “ho sbagliato a firmare mentre Anthropic veniva bandita“. Dice “ho sbagliato a comunicare male“. La sostanza dell’azione non viene mai messa in discussione, solo la forma.

    Nella nota aggiunge che sta lavorando per inserire nel contratto un linguaggio esplicito contro la sorveglianza domestica e le informazioni acquisite commercialmente, cioè i dati che il governo può comprare dai data broker senza mandato.

    Sono esattamente le garanzie che Amodei chiedeva prima di firmare. Ma Altman le aggiunge dopo, quando ormai servono a recuperare credibilità, non a stabilire un principio.

    E gli utenti scoprono Claude 

    Ma c’è ancora un aspetto di questa vicenda che sfugge al controllo di Altman, ed è la reazione del mercato.

    I dati di Anthropic mostrano che le iscrizioni giornaliere hanno raggiunto livelli record, gli utenti gratuiti sono cresciuti di oltre il 60% da gennaio, gli abbonati a pagamento sono più che raddoppiati. Bloomberg riporta che la crescita di Anthropic ha superato i 19 miliardi di dollari, più che raddoppiato rispetto ai 9 miliardi di fine 2025. Sono numeri che raccontano una migrazione in corso, anche se non si sa ancora di quale entità.

    Gli utenti hanno visto la stessa sequenza di eventi e ne hanno tratto le loro conclusioni. Hanno visto un CEO che esprime solidarietà mentre firma il contratto che sostituisce il concorrente; hanno visto le scuse arrivare solo dopo che i numeri mostravano un problema; hanno visto le modifiche al contratto presentate come concessioni spontanee quando erano evidentemente una risposta alla pressione. E hanno scelto di conseguenza.

    Sam Altman e il suo ritratto più chiaro

    Sam Altman ha costruito negli anni un’immagine pubblica di leader visionario, attento all’etica, preoccupato per le implicazioni dell’intelligenza artificiale.

    È un’immagine che ha coltivato con interviste, post sui social, apparizioni pubbliche calibrate. Ma le azioni raccontano una storia diversa, quella di un CEO che sa sempre dove posizionarsi per apparire dalla parte giusta mentre persegue obiettivi che vanno in un’altra direzione.

    Questa vicenda non è un incidente di percorso. È la manifestazione di un modo di operare che si ripete con variazioni minime da anni. La solidarietà usata come copertura, le scuse calibrate sul danno d’immagine, le concessioni presentate come principi quando sono risposte alla pressione del momento.

    Sono tutti elementi di uno stesso schema, e questa volta si sono manifestati in una sequenza così rapida e visibile da non poter essere ignorati, da nessuno.

    Resta da vedere se questa consapevolezza avrà conseguenze durature o se Altman riuscirà ancora una volta a riposizionarsi. Ma intanto i fatti sono chiari, e il profilo che ne emerge è difficile da essere frainteso.

    [L’immagine di copertina è modificata da Franz Russo – Credits: Sam Altman speaking at TED” by TED Conference is licensed under CC BY-NC-SA 4.0.]

  • Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

    Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

    Il Pentagono ha annunciato un accordo con xAI per integrare Grok nei sistemi di difesa USA. L’IA di Musk avrà accesso diretto ai flussi di contenuti condivisi su X. Le modalità dell’accordo e la stessa possibile integrazione sollevano interrogativi su dati, controllo e trasparenza.

    Il Pentagono – oggi DOW, Dipartimento della Guerra – ha annunciato una partnership con xAI, l’azienda di intelligenza artificiale fondata da Elon Musk, per integrare il modello Grok nella piattaforma governativa GenAI.mil.

    Il rilascio è previsto per l’inizio del 2026 e coinvolgerà circa tre milioni di dipendenti militari e civili del Dipartimento della Difesa.

    A prima vista, potrebbe sembrare una notizia come tante nell’era dell’IA generativa. Ma guardando più da vicino emergono elementi che meritano qualche approfondimento in più. Perché questa non è semplicemente l’adozione di un nuovo strumento tecnologico da parte dell’esercito americano. In questi casi siamo oltre, e si entra nella sfera dell’inedito.

    Cosa prevede l’accordo tra il Pentagono e xAI

    Grok opererà a Impact Level 5 (IL5), il livello di sicurezza che consente la gestione di Controlled Unclassified Information (CUI). Si tratta di informazioni sensibili ma non classificate.

    Ossia, dati personali dei dipendenti, informazioni su infrastrutture critiche, dettagli operativi non segreti, comunicazioni interne governative. Singolarmente, questi dati non compromettono la sicurezza nazionale Usa, ma aggregati da un’IA possono rivelare elementi di una certa rilevanza.

    All’interno del comunicato diramato si legge che gli utenti, militari e civili del DOW (Department of War)) avranno accesso a “insight globali in tempo reale dalla piattaforma X”, fornendo al personale del Dipartimento della Guerra quello che viene definito un “vantaggio informativo decisivo” e una “consapevolezza situazionale globale”. È prevista anche una possibile estensione futura a “carichi di lavoro classificati”.

    Il valore del contratto è di 200 milioni di dollari, parte di accordi più ampi che includono anche OpenAI, Google e Anthropic. Ma qui emerge già un primo elemento di criticità.

    Secondo un ex funzionario del Pentagono, il contratto con xAI “è arrivato dal nulla”, quando altre aziende erano sotto osservazione da mesi. La senatrice Elizabeth Warren ha formalmente interrogato il Dipartimento della Difesa su questa circostanza.

    Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari
    Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

    Non esiste alcuna separazione tra Grok e X

    Questo è il nodo che distingue l’accordo Pentagon-xAI da qualsiasi altra partnership tra governo e aziende di IA. Grok non è un modello isolato. È un sistema profondamente integrato con la piattaforma X, e questa integrazione opera su più livelli.

    Training sui dati di X

    Grok viene addestrato sui post di X con un opt-in automatico attivato di default, senza informare gli utenti. L’impostazione è nascosta nelle opzioni di privacy e disattivabile solo da desktop.

    Secondo le policy della piattaforma, X può “utilizzare post, interazioni utente, input e risultati con Grok per training e fine-tuning, condividendoli con xAI”.

    Accesso in tempo reale

    Grok integra le API di X, processa nuovi tweet via WebSocket per aggiornamenti istantanei, non batch processing. Usa endpoint come GET /2/tweets/search/stream, GET /2/tweets/sample/stream, GET /2/trends/place.

    L’algoritmo di X determina quali contenuti hanno visibilità sulla piattaforma, e quindi quali dati alimentano Grok. In virtù di questo accordo, l’intelligenza artificiale Grok entra nel Pentagono con accesso diretto a quei flussi.

    Un cortocircuito epistemologico

    Un’analisi di Archyde coglie un punto da evidenziare: “L’obiettivo dichiarato, maggiore efficienza, sembra sottostimato. Il vero potenziale risiede nella capacità di elaborare e analizzare vasti dataset, identificando pattern e minacce che sarebbero impossibili da rilevare per gli analisti umani.

    Fermiamoci su questo passaggio. Dunque, il Pentagono userà un’IA per identificare minacce basandosi su dati provenienti da una piattaforma il cui algoritmo è progettato non per rappresentare la realtà, ma per massimizzare l’engagement.

    E quello stesso algoritmo è controllato dalla stessa persona che controlla l’IA.

    Non è solo un conflitto di interessi. È una struttura in cui la percezione della realtà dell’apparato militare più potente del mondo passa attraverso un filtro privato, opaco, potenzialmente manipolato.

    I “vasti dataset” menzionati sono in realtà contenuti di X già filtrati dall’algoritmo. I “pattern” identificati saranno pattern di una realtà distorta, se l’algoritmo amplifica certi contenuti e ne sopprime altri. Le “minacce” vengono definite secondo criteri incorporati nel modello. Chi li ha stabiliti? Con quali bias? Con quale trasparenza?

    Accordo xAI Pentagono, Grook entra nei sistemi militari USA
    Accordo xAI Pentagono, Grook entra nei sistemi militari USA

    Altri precedenti problematici

    La senatrice Warren ha sollevato preoccupazioni specifiche nella sua lettera al Pentagono. Musk ha promosso Grok come chatbot “non filtrato” e orientato alla “ricerca della verità” (truth-seeking) che non si conforma agli standard politicamente corretti.

    Ma Grok è noto per fornire informazioni inaccurate quando interrogato su eventi storici e disastri naturali, inclusi nomi, date e dettagli sbagliati.

    Giorni dopo che Musk aveva dichiarato sui social “miglioramenti significativi” al chatbot, Grok si autodefiniva “MechaHitler” e raccomandava un secondo Olocausto ad account neonazisti. La mancanza di filtri di sicurezza ha prodotto contenuti antisemiti e offensivi. Come ha osservato un esperto di sicurezza: “X è piena di fake news e visioni estremiste, non è ciò su cui vuoi che un LLM sia addestrato.”

    E questa è l’IA che ora avrà accesso ai flussi informativi del Pentagono per fornire “consapevolezza situazionale globale”.

    Le domande che resteranno senza risposta

    Chi garantisce che i dati di X usati da Grok rappresentino una visione equilibrata della realtà e non una versione amplificata algoritmicamente? Chi verifica che i modelli e le minacce identificate non riflettano i bias del sistema di training?

    Come viene gestito il conflitto di interessi di Musk, che con Starlink in zone di conflitto, SpaceX con contratti governativi, e ora un’IA che potrebbe influenzare le valutazioni di sicurezza nazionale su questi stessi dossier?

    E per i partner NATO? L’intelligence condivisa con gli Stati Uniti passerà attraverso sistemi integrati con l’IA di Musk? Con quale trasparenza? E con quali garanzie?

    Dall’algoritmo del proprietario all’IA del proprietario

    Ho scritto spesso di come l’”algoritmo del proprietario” serva gli obiettivi strategici di chi controlla la piattaforma, non gli interessi degli utenti. Ma qui siamo a un livello successivo.

    Non si tratta più solo di un algoritmo in mani private. È un’intera catena gestita da un singolo a servizio, ora, di apparati governativi.

    X come piattaforma che genera flussi informativi globali in tempo reale, xAI e Grok come IA che processa e interpreta quei flussi, Starlink come infrastruttura di connettività anche in zone di conflitto. E ora l’integrazione diretta con l’apparato militare degli Stati Uniti.

    È una forma di potere inedita: non statale, non puramente privata. Qualcosa di nuovo per cui forse non esiste ancora un nome adeguato.

    Cosa significa tutto questo per l’Europa

    L’Europa non ha equivalenti di X, xAI o Starlink. Questa asimmetria nell’infrastruttura cognitiva è un tema che diventerà sempre più urgente.

    Non stiamo parlando solo di disinformazione o manipolazione elettorale. Stiamo parlando della possibilità che la percezione della realtà dell’apparato militare più potente del mondo sia mediata da un’infrastruttura privata, poco chiara, controllata da un singolo individuo con interessi economici e politici globali.

    È un tema che richiederà analisi approfondite nei prossimi mesi. Perché quando l’IA non è più solo uno strumento ma diventa il filtro attraverso cui un’istituzione percepisce la realtà, le implicazioni vanno ben oltre l’”efficienza operativa”.