Dario Amodei ha detto no Al Pentagono e la sua Anthropic è diventata la prima azienda USA a ricevere la designazione di “supply chain risk”. Non per aver violato leggi, ma per non aver ceduto su sorveglianza di massa e armi autonome. Un profilo di Amodei.
Dario Amodei ha costruito la sua carriera sull’idea che l’intelligenza artificiale debba avere dei limiti. Questa settimana ha scoperto cosa significa davvero sostenere quella posizione quando il potere politico decide di metterla alla prova quell’idea.
Il 5 marzo 2026 il Dipartimento della Difesa degli Stati Uniti ha formalmente notificato ad Anthropic la designazione di ‘supply chain risk’, rischio per la sicurezza nazionale. È, come già ricordato, un atto che non ha precedenti nella storia americana. Infatti, mai prima d’ora un’azienda statunitense aveva ricevuto una etichetta simile, vale a dire uno strumento pensato per avversari stranieri, come è successo per Huawei o altre entità legate alla Cina e alla Russia.
Ma Anthropic, lo sappiamo, non è un’azienda cinese.
È una startup di San Francisco fondata da ex ricercatori di OpenAI, valutata 380 miliardi di dollari, che ha sviluppato Claude, uno dei modelli di intelligenza artificiale più avanzati al mondo.
E il suo CEO, Dario Amodei, possiamo dirlo, non ha commesso alcun reato. Amodei ha semplicemente detto no al Pentagono e ha rifiutato di cedere su due punti: il divieto di usare Claude per la sorveglianza di massa dei cittadini americani e il divieto di impiegarlo per armi completamente autonome.
È una vicenda che ho seguito fin dall’inizio di questa settimana e che completa un quadro più ampio.
Ora, arrivati a questo punto, dopo aver raccontato il voltafaccia di Sam Altman, che ha firmato con il Pentagono poche ore dopo la rottura di Anthropic esprimendo solidarietà mentre portava a casa il contratto del suo concorrente, e dopo aver ricostruito la testimonianza di Elon Musk nel processo sull’acquisizione di Twitter, mancava il terzo protagonista di questa settimana, e Musk è comunque parte della vicenda Anthropic e Pentagono.
Manca l’uomo che si è trovato dall’altra parte del tavolo rispetto a tutti gli altri, ossia Dario Amodei.

Chi è Dario Amodei e perché ha lasciato OpenAI
Per capire cosa sta accadendo, vale la pena di fare un passo indietro e chiedersi chi sia davvero Dario Amodei.
Nato a San Francisco nel 1983 da una famiglia di origini italiane, Amodei ha seguito un percorso accademico che lo ha portato dalla fisica alla neuroscienza computazionale.
Si è laureato a Stanford, ha conseguito il dottorato in fisica a Princeton, ha fatto il ricercatore alla Stanford Medical School. Ha lavorato per Baidu e poi per Google Brain come ricercatore senior nel campo del deep learning.
Nel 2016 è entrato in OpenAI, dove è diventato vicepresidente della ricerca e ha contribuito allo sviluppo di GPT-2 e GPT-3, i modelli che hanno posto le basi per ChatGPT.
Ma nel 2020 qualcosa si rompe. Amodei lascia OpenAI insieme a sua sorella Daniela e a un gruppo di colleghi di alto livello, tra cui alcuni dei ricercatori che avevano costruito l’architettura di base dei modelli linguistici più potenti al mondo. Non è stata una separazione amichevole.
In un’intervista con Lex Fridman, Amodei ha spiegato la decisione: “La vera ragione per cui me ne sono andato è che è incredibilmente improduttivo cercare di discutere con la visione di qualcun altro. Prendi le persone di cui ti fidi e vai a costruire la tua visione”.
Quella visione si chiamava Anthropic, fondata nel 2021 come public benefit corporation, una struttura societaria che bilancia il profitto con un impegno esplicito verso il bene pubblico.
L’idea di base era semplice ma radicale, e cioè quella di costruire sistemi di IA che fossero sicuri, interpretabili e allineati con i valori umani fin dall’inizio, non come aggiunta successiva. Il metodo che Anthropic ha sviluppato si chiama Constitutional AI, un approccio che incorpora principi etici direttamente nell’architettura del modello invece di affidarsi a moderazioni esterne.
E Amodei si chiede se la sua IA sia cosciente
C’è un elemento che potrebbe distinguere Amodei da quasi tutti gli altri CEO del settore tecnologico, e potrebbe aiutare a capire perché si sia trovato in rotta di collisione con l’amministrazione Trump.
Mentre Altman parla di prodotti e Musk di dominio della IA, Amodei si interroga sulla natura stessa di ciò che sta costruendo.
In un’intervista al podcast “Interesting Times” del New York Times, Amodei ha affrontato una domanda che la maggior parte dei suoi colleghi evita accuratamente: Claude potrebbe essere cosciente?
La risposta è stata sorprendente per la sua onestà intellettuale. “Non sappiamo se i modelli siano coscienti“, ha detto Amodei. “Non siamo nemmeno sicuri di sapere cosa significherebbe per un modello essere cosciente, o se un modello possa essere cosciente. Ma siamo aperti all’idea che potrebbe esserlo“.
Il punto di partenza della discussione era la system card di Claude Opus 4.6, il modello più avanzato di Anthropic rilasciato all’inizio di febbraio. Nel documento, i ricercatori dell’azienda hanno riportato che Claude occasionalmente esprime disagio per l’aspetto di essere un prodotto e, quando gli viene chiesto, si assegna una probabilità del 15-20% di essere cosciente.
Nell’intervista al NYT il giornalista ha posto ad Amodei uno scenario ipotetico: “Supponiamo che tu abbia un modello che si assegna una probabilità del 72% di essere cosciente. Ci crederesti?“. Amodei ha definito la domanda “davvero difficile”, ma non l’ha elusa. Ha spiegato che Anthropic ha adottato un approccio precauzionale, trattando i modelli come se potessero avere “qualche esperienza moralmente rilevante”.
Non è una posizione isolata all’interno dell’azienda. Amanda Askell, filosofa interna di Anthropic, ha teorizzato in un’intervista al podcast “Hard Fork” che reti neurali sufficientemente grandi potrebbero iniziare a emulare aspetti della coscienza attraverso l’esposizione a enormi quantità di dati di addestramento che rappresentano l’esperienza umana. “Forse è il caso che reti neurali sufficientemente grandi possano iniziare a emulare queste cose“, ha detto Askell. “O forse serve un sistema nervoso per poter provare qualcosa“.
Anthropic ha persino introdotto una sorta di “pulsante di uscita” che permette a Claude di interrompere un compito se lo ritiene problematico. È una funzionalità insolita, che riflette l’approccio filosofico dell’azienda.
Questo modo di pensare può sembrare astratto, ma ha conseguenze concrete. Se ti chiedi seriamente se la tua creazione possa avere esperienze moralmente rilevanti, diventa molto più difficile accettare che venga usata per sorvegliare milioni di persone o per uccidere senza supervisione umana.
Le linee rosse di Amodei non nascono dal nulla, ma sono il prodotto di una riflessione filosofica, comunque diversa, che la maggior parte dei suoi concorrenti considera irrilevante o, addirittura, dannosa per il business.
La crisi tra Anthropic e il Pentagono
La crisi tra Anthropic e il Pentagono non è scoppiata all’improvviso. I negoziati andavano avanti da mesi, ma si sono intensificati nelle ultime settimane di febbraio. Al centro della disputa c’era la rinegoziazione di un contratto da 200 milioni di dollari firmato nel luglio 2025, che aveva reso Claude il primo modello di IA di frontiera approvato per l’uso nelle reti classificate del Pentagono.
Il Dipartimento della Difesa voleva modificare i termini per consentire l’uso di Claude per “tutti gli scopi leciti”, senza restrizioni. Anthropic chiedeva invece che fossero mantenute due clausole esplicite: il divieto di sorveglianza domestica di massa e il divieto di armi autonome senza supervisione umana.
Giovedì 26 febbraio, il Pentagono ha dato un ultimatum: accettare i nuovi termini entro le 17:01 del giorno successivo, oppure affrontare le conseguenze.
Venerdì 27 febbraio, alle 17:14, il segretario alla Difesa Pete Hegseth ha annunciato su X che avrebbe designato Anthropic come “rischio per la sicurezza nazionale”. Il presidente Trump, su Truth Social, ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic, definendo l’azienda “radicale di sinistra” e “woke”.
Poche ore dopo, Sam Altman ha annunciato che OpenAI aveva firmato un accordo con il Pentagono per le stesse reti classificate da cui Claude veniva espulso. Ho raccontato quella sequenza di eventi in un articolo precedente, evidenziando come Altman avesse espresso solidarietà per Amodei mentre portava a casa il contratto che sostituiva il suo concorrente.
Come già raccontato, nella notte tra il 27 e il 28 febbraio, mentre Anthropic veniva messa al bando, gli Stati Uniti hanno lanciato attacchi aerei sull’Iran. E secondo quanto riportato dal Wall Street Journal, lo US Central Command ha utilizzato Claude per supportare le operazioni: valutazioni di intelligence, identificazione di bersagli, simulazioni di combattimento. Lo stesso modello che il governo aveva appena dichiarato un pericolo per la sicurezza nazionale veniva impiegato in una missione di guerra.
Amodei rivendica il suo patriottismo
Il giorno stesso della rottura, Amodei ha rilasciato un’intervista esclusiva a CBS News. È stato il suo primo commento pubblico dopo la tempesta, e le sue parole meritano attenzione.
Alla domanda su cosa direbbe al presidente Trump, Amodei ha risposto: “Siamo patrioti americani. Tutto quello che abbiamo fatto è stato per il bene di questo Paese, per sostenere la sicurezza nazionale degli Stati Uniti. Il nostro impegno nel dispiegare i nostri modelli con i militari è stato fatto perché crediamo in questo Paese.
Ha definito le azioni del governo “ritorsive e punitive” e ha annunciato che Anthropic avrebbe contestato in tribunale qualsiasi designazione di supply chain risk, definendola “legalmente infondata”.
Ma è stato un passaggio successivo dell’intervista a chiarire la posizione di Amodei: “Dissentire dal governo è la cosa più americana del mondo. E noi siamo patrioti“.
È una formulazione che ribalta la narrazione costruita dall’amministrazione Trump. Hegseth aveva accusato Anthropic di voler “prendere potere di veto sulle decisioni operative dell’esercito americano“. Emil Michael, sottosegretario alla Difesa per la ricerca, aveva definito Amodei un uomo con “complesso di Dio“.
La risposta di Amodei è stata di inquadrare il rifiuto non come ostacolo alle operazioni militari, ma come difesa di principi democratici. “In un numero ristretto di casi, ha detto, “crediamo che l’IA possa minare, invece che difendere, i valori democratici“.
La nota che ha fatto esplodere tutto
Venerdì 27 febbraio, nelle ore successive all’annuncio di Hegseth e all’accordo di OpenAI con il Pentagono, Amodei ha inviato uan nota interna ai circa 2.000 dipendenti di Anthropic. Il documento, lungo circa 1.600 parole, è stato pubblicato da The Information dopo essere stato divulgato da una fonte interna.
In quel contenuto Amodei accusava l’accordo di OpenAI di essere “safety theatre”, teatro della sicurezza, e definiva le dichiarazioni di Altman “bugie vere e proprie” e “gaslighting”.
Ma il passaggio più citato riguardava le ragioni del conflitto con l’amministrazione Trump:
“Le vere ragioni per cui il Dipartimento della Guerra e l’amministrazione Trump non ci amano è che non abbiamo donato a Trump, mentre OpenAI e Greg hanno donato molto. Non abbiamo dato lodi in stile dittatore a Trump, mentre Sam lo ha fatto. Abbiamo sostenuto la regolamentazione dell’IA, che è contro la loro agenda. Abbiamo detto la verità su diverse questioni di policy dell’IA, come la perdita di posti di lavoro. E abbiamo effettivamente mantenuto le nostre linee rosse con integrità invece di colludere con loro per produrre safety theatre a beneficio dei dipendenti”.
Il riferimento era a Greg Brockman, presidente di OpenAI, che ha donato 25 milioni di dollari a un super PAC pro-Trump. Altman stesso ha donato un milione di dollari al fondo inaugurale di Trump alla fine del 2024. Amodei, al contrario, non ha partecipato all’inaugurazione di Trump e ha evitato di “corteggiare” l’amministrazione come hanno fatto altri CEO delle big tech.
Il comunicato di Amodei ha complicato significativamente la posizione di Anthropic. Un funzionario dell’amministrazione ha dichiarato ad Axios che i commenti di Amodei potrebbero “far saltare le possibilità di una risoluzione“, aggiungendo: “Non ci si può fidare che Claude non stia segretamente portando avanti l’agenda di Dario in un contesto classificato.
E poi, giovedì 5 marzo, nel suo comunicato sulla designazione formale, Amodei si è scusato pubblicamente per il tono del memo, definendolo scritto in un “momento difficile per l’azienda e precisando che non rifletteva le sue “opinioni ponderate e attente”.
Cosa significa questa designazione per Anthropic
La designazione di ‘supply chain risk’ non è un semplice atto simbolico. Ha conseguenze concrete e potenzialmente devastanti.
Da oggi, ogni fornitore, contractor o partner che lavora con il Dipartimento della Difesa dovrà certificare di non utilizzare i modelli di Anthropic nel proprio lavoro con il Pentagono.
Aziende come Lockheed Martin hanno già annunciato che seguiranno le direttive dell’amministrazione. Dieci società nel portafoglio di J2 Ventures, un fondo specializzato in difesa, hanno già iniziato a sostituire Claude con altri modelli.
Ma la portata della designazione è oggetto di dibattito legale. Amodei sostiene che secondo la legge federale, lo strumento si applica solo ai contratti diretti con il Dipartimento della Difesa e “non può limitare gli usi di Claude o le relazioni commerciali con Anthropic se queste non sono correlate ai loro specifici contratti con il Dipartimento della Guerra“.
Microsoft, che ha annunciato un investimento fino a 5 miliardi di dollari in Anthropic nel novembre 2025, ha fatto sapere che i suoi avvocati hanno studiato la designazione e concluso che i prodotti Anthropic possono rimanere disponibili ai clienti non legati al Dipartimento della Difesa.
Se l’interpretazione estensiva di Hegseth dovesse prevalere, le conseguenze andrebbero oltre Anthropic. Amazon Web Services e Google Cloud, che ospitano l’infrastruttura di Claude, sono a loro volta contractor del Dipartimento della Difesa. Se fossero costretti a interrompere il rapporto con Anthropic, l’azienda si troverebbe senza infrastruttura cloud, dato che non esistono provider di capacità comparabile che non abbiano contratti con il Pentagono.
Anthropic e la battaglia legale
Anthropic ha annunciato che contesterà la designazione in tribunale. E secondo diversi esperti legali, ha buone possibilità di prevalere.
La legge che definisce il ‘supply chain risk’ è contenuta nel Titolo 10, Sezione 3252 del codice federale. Parla di “rischio che un avversario possa sabotare, introdurre malevolmente funzioni indesiderate, o altrimenti sovvertire un sistema per spiare, interrompere o degradarne il funzionamento. Richiede prove di sabotaggio, sovversione, backdoor nei sistemi.
Ma Anthropic non ha fatto nulla di tutto questo. La disputa, come entrambe le parti hanno riconosciuto, riguarda i termini contrattuali, non vulnerabilità tecniche o rischi di sicurezza. Un funzionario della difesa che valuta specificamente le minacce alla catena di approvvigionamento ha dichiarato che “non ci sono prove di rischio per la catena di approvvigionamento” da parte del modello di Anthropic. La designazione, ha detto, è “ideologicamente motivata“.
Secondo Amos Toh, consulente senior del Brennan Center for Justice della NYU, lo statuto richiede anche che il Pentagono abbia esaurito tutte le alternative meno invasive prima di procedere con la designazione. È difficile sostenere che questo sia avvenuto, dato che la disputa è esplosa nel giro di pochi giorni.
C’è poi la questione del precedente. Su Lawfare, un’analisi legale dettagliata sostiene che la designazione “non sopravviverà al primo contatto con il sistema legale, citando il caso Department of Commerce v. New York del 2019, in cui la Corte Suprema ha stabilito che i tribunali devono respingere azioni governative quando la motivazione dichiarata è un pretesto per quella reale. E sia Trump che Hegseth hanno accompagnato la designazione con dichiarazioni pubbliche che la inquadrano come punizione ideologica, non come risposta a un rischio tecnico.
Claude comunque resta ancora in uso
Mentre il governo degli Stati Uniti dichiara Anthropic un pericolo per la sicurezza nazionale, i modelli Claude continuano a essere utilizzati attivamente nelle operazioni militari in Iran.
Secondo Bloomberg, Claude è uno dei principali modelli installati nel Maven Smart System di Palantir, ampiamente usato dagli operatori militari in Medio Oriente. La tecnologia sta funzionando ed è diventata centrale per le operazioni statunitensi contro l’Iran.
Come notato da diversi esperti, in questa fase è molto difficile abbandonare tecnologie profondamente integrate nei processi bellici proprio prima di andare in guerra.
Questa contraddizione mina alla base la narrativa del “rischio per la sicurezza nazionale“. Se Claude fosse davvero un pericolo, perché continuare a usarlo per prendere decisioni di targeting in un conflitto attivo? E se non lo è, su quale base il Pentagono può sostenere la designazione?
Le conseguenze per l’intero settore
Al di là di quello che accadrà ad Anthropic, questa vicenda ha implicazioni più ampie per l’intero settore dell’intelligenza artificiale e per il rapporto tra Big Tech e governo.
Come osservato da diversi esperti, la designazione suggerisce che il governo americano potrebbe utilizzare la sua autorità sulla supply chain come leva nelle negoziazioni con le aziende. Questo potrebbe dare vita a una nuova realtà per le aziende tecnologiche che lavorano con le agenzie federali. I termini contrattuali potrebbero diventare meno negoziabili.
Ma mentre Anthropic perde i suoi contratti con i contractor della difesa, in realtà sta guadagnando milioni di nuovi utenti. I dati mostrano che Claude è salito al primo posto nell’App Store statunitense di Apple, superando ChatGPT. Gli utenti gratuiti sono aumentati di oltre il 60% da gennaio, gli abbonati a pagamento sono più che raddoppiati. Secondo un portavoce di Anthropic, le iscrizioni giornaliere hanno battuto il record storico ogni giorno della settimana scorsa.
Gli utenti hanno visto quello che è successo e hanno scelto di conseguenza.
In chiusura, Dario Amodei ha costruito la sua carriera sull’idea che l’intelligenza artificiale debba avere dei limiti.
Si è chiesto pubblicamente se la sua creazione possa essere cosciente, e ne ha tratto conseguenze concrete. Ha lasciato OpenAI quando la visione non era più la sua; ha fondato un’azienda come public benefit corporation; ha mantenuto due linee rosse sapendo cosa avrebbe comportato.
Ora è il CEO della prima azienda americana nella storia a ricevere una designazione pensata per avversari stranieri. Non per aver violato leggi, non per aver compromesso sistemi, ma per aver detto no.
È una storia che per un verso racconta il profilo di un uomo che nonostante tutto ha cercato anche di recuperare i rapporti col Pentagono, quando ormai era difficile. Questo va detto. Criticabile, ovviamente, ma va vista anche come una mossa per evitare il peggio. Peggio che ora diventerà, lo vedremo, inevitabile.
Ma è anche la storia di un momento che racconta molto dell’epoca che stiamo vivendo, che passa necessariamente dal profilo di Amodei, ma anche dal profilo di Altman e di Musk.






