Tag: dario amodei

  • Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono

    Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono

    Dario Amodei ha detto no Al Pentagono e la sua Anthropic è diventata la prima azienda USA a ricevere la designazione di “supply chain risk”. Non per aver violato leggi, ma per non aver ceduto su sorveglianza di massa e armi autonome. Un profilo di Amodei.

    Dario Amodei ha costruito la sua carriera sull’idea che l’intelligenza artificiale debba avere dei limiti. Questa settimana ha scoperto cosa significa davvero sostenere quella posizione quando il potere politico decide di metterla alla prova quell’idea.

    Il 5 marzo 2026 il Dipartimento della Difesa degli Stati Uniti ha formalmente notificato ad Anthropic la designazione di ‘supply chain risk’, rischio per la sicurezza nazionale. È, come già ricordato, un atto che non ha precedenti nella storia americana. Infatti, mai prima d’ora un’azienda statunitense aveva ricevuto una etichetta simile, vale a dire uno strumento pensato per avversari stranieri, come è successo per Huawei o altre entità legate alla Cina e alla Russia.

    Ma Anthropic, lo sappiamo, non è un’azienda cinese.

    È una startup di San Francisco fondata da ex ricercatori di OpenAI, valutata 380 miliardi di dollari, che ha sviluppato Claude, uno dei modelli di intelligenza artificiale più avanzati al mondo.

    E il suo CEO, Dario Amodei, possiamo dirlo, non ha commesso alcun reato. Amodei ha semplicemente detto no al Pentagono e ha rifiutato di cedere su due punti: il divieto di usare Claude per la sorveglianza di massa dei cittadini americani e il divieto di impiegarlo per armi completamente autonome.

    È una vicenda che ho seguito fin dall’inizio di questa settimana e che completa un quadro più ampio.

    Ora, arrivati a questo punto, dopo aver raccontato il voltafaccia di Sam Altman, che ha firmato con il Pentagono poche ore dopo la rottura di Anthropic esprimendo solidarietà mentre portava a casa il contratto del suo concorrente, e dopo aver ricostruito la testimonianza di Elon Musk nel processo sull’acquisizione di Twitter, mancava il terzo protagonista di questa settimana, e Musk è comunque parte della vicenda Anthropic e Pentagono.

    Manca l’uomo che si è trovato dall’altra parte del tavolo rispetto a tutti gli altri, ossia Dario Amodei.

    Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono
    Dario Amodei, profilo del CEO di Anthropic che sfida il Pentagono

    Chi è Dario Amodei e perché ha lasciato OpenAI

    Per capire cosa sta accadendo, vale la pena di fare un passo indietro e chiedersi chi sia davvero Dario Amodei.

    Nato a San Francisco nel 1983 da una famiglia di origini italiane, Amodei ha seguito un percorso accademico che lo ha portato dalla fisica alla neuroscienza computazionale.

    Si è laureato a Stanford, ha conseguito il dottorato in fisica a Princeton, ha fatto il ricercatore alla Stanford Medical School. Ha lavorato per Baidu e poi per Google Brain come ricercatore senior nel campo del deep learning.

    Nel 2016 è entrato in OpenAI, dove è diventato vicepresidente della ricerca e ha contribuito allo sviluppo di GPT-2 e GPT-3, i modelli che hanno posto le basi per ChatGPT.

    Ma nel 2020 qualcosa si rompe. Amodei lascia OpenAI insieme a sua sorella Daniela e a un gruppo di colleghi di alto livello, tra cui alcuni dei ricercatori che avevano costruito l’architettura di base dei modelli linguistici più potenti al mondo. Non è stata una separazione amichevole.

    In un’intervista con Lex Fridman, Amodei ha spiegato la decisione: “La vera ragione per cui me ne sono andato è che è incredibilmente improduttivo cercare di discutere con la visione di qualcun altro. Prendi le persone di cui ti fidi e vai a costruire la tua visione”.

    Quella visione si chiamava Anthropic, fondata nel 2021 come public benefit corporation, una struttura societaria che bilancia il profitto con un impegno esplicito verso il bene pubblico.

    L’idea di base era semplice ma radicale, e cioè quella di costruire sistemi di IA che fossero sicuri, interpretabili e allineati con i valori umani fin dall’inizio, non come aggiunta successiva. Il metodo che Anthropic ha sviluppato si chiama Constitutional AI, un approccio che incorpora principi etici direttamente nell’architettura del modello invece di affidarsi a moderazioni esterne.

    E Amodei si chiede se la sua IA sia cosciente

    C’è un elemento che potrebbe distinguere Amodei da quasi tutti gli altri CEO del settore tecnologico, e potrebbe aiutare a capire perché si sia trovato in rotta di collisione con l’amministrazione Trump.

    Mentre Altman parla di prodotti e Musk di dominio della IA, Amodei si interroga sulla natura stessa di ciò che sta costruendo.

    In un’intervista al podcast “Interesting Times” del New York Times, Amodei ha affrontato una domanda che la maggior parte dei suoi colleghi evita accuratamente: Claude potrebbe essere cosciente?

    La risposta è stata sorprendente per la sua onestà intellettuale. “Non sappiamo se i modelli siano coscienti“, ha detto Amodei. “Non siamo nemmeno sicuri di sapere cosa significherebbe per un modello essere cosciente, o se un modello possa essere cosciente. Ma siamo aperti all’idea che potrebbe esserlo“.

    Il punto di partenza della discussione era la system card di Claude Opus 4.6, il modello più avanzato di Anthropic rilasciato all’inizio di febbraio. Nel documento, i ricercatori dell’azienda hanno riportato che Claude occasionalmente esprime disagio per l’aspetto di essere un prodotto e, quando gli viene chiesto, si assegna una probabilità del 15-20% di essere cosciente.

    Nell’intervista al NYT il giornalista ha posto ad Amodei uno scenario ipotetico: “Supponiamo che tu abbia un modello che si assegna una probabilità del 72% di essere cosciente. Ci crederesti?“. Amodei ha definito la domanda “davvero difficile”, ma non l’ha elusa. Ha spiegato che Anthropic ha adottato un approccio precauzionale, trattando i modelli come se potessero avere “qualche esperienza moralmente rilevante”.

    Non è una posizione isolata all’interno dell’azienda. Amanda Askell, filosofa interna di Anthropic, ha teorizzato in un’intervista al podcast “Hard Fork” che reti neurali sufficientemente grandi potrebbero iniziare a emulare aspetti della coscienza attraverso l’esposizione a enormi quantità di dati di addestramento che rappresentano l’esperienza umana. “Forse è il caso che reti neurali sufficientemente grandi possano iniziare a emulare queste cose“, ha detto Askell. “O forse serve un sistema nervoso per poter provare qualcosa“.

    Anthropic ha persino introdotto una sorta di “pulsante di uscita” che permette a Claude di interrompere un compito se lo ritiene problematico. È una funzionalità insolita, che riflette l’approccio filosofico dell’azienda.

    Questo modo di pensare può sembrare astratto, ma ha conseguenze concrete. Se ti chiedi seriamente se la tua creazione possa avere esperienze moralmente rilevanti, diventa molto più difficile accettare che venga usata per sorvegliare milioni di persone o per uccidere senza supervisione umana.

    Le linee rosse di Amodei non nascono dal nulla, ma sono il prodotto di una riflessione filosofica, comunque diversa, che la maggior parte dei suoi concorrenti considera irrilevante o, addirittura, dannosa per il business.

    La crisi tra Anthropic e il Pentagono

    La crisi tra Anthropic e il Pentagono non è scoppiata all’improvviso. I negoziati andavano avanti da mesi, ma si sono intensificati nelle ultime settimane di febbraio. Al centro della disputa c’era la rinegoziazione di un contratto da 200 milioni di dollari firmato nel luglio 2025, che aveva reso Claude il primo modello di IA di frontiera approvato per l’uso nelle reti classificate del Pentagono.

    Il Dipartimento della Difesa voleva modificare i termini per consentire l’uso di Claude per “tutti gli scopi leciti”, senza restrizioni. Anthropic chiedeva invece che fossero mantenute due clausole esplicite: il divieto di sorveglianza domestica di massa e il divieto di armi autonome senza supervisione umana.

    Giovedì 26 febbraio, il Pentagono ha dato un ultimatum: accettare i nuovi termini entro le 17:01 del giorno successivo, oppure affrontare le conseguenze.

    Venerdì 27 febbraio, alle 17:14, il segretario alla Difesa Pete Hegseth ha annunciato su X che avrebbe designato Anthropic come “rischio per la sicurezza nazionale”. Il presidente Trump, su Truth Social, ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic, definendo l’azienda “radicale di sinistra” e “woke”.

    Poche ore dopo, Sam Altman ha annunciato che OpenAI aveva firmato un accordo con il Pentagono per le stesse reti classificate da cui Claude veniva espulso. Ho raccontato quella sequenza di eventi in un articolo precedente, evidenziando come Altman avesse espresso solidarietà per Amodei mentre portava a casa il contratto che sostituiva il suo concorrente.

    Come già raccontato, nella notte tra il 27 e il 28 febbraio, mentre Anthropic veniva messa al bando, gli Stati Uniti hanno lanciato attacchi aerei sull’Iran. E secondo quanto riportato dal Wall Street Journal, lo US Central Command ha utilizzato Claude per supportare le operazioni: valutazioni di intelligence, identificazione di bersagli, simulazioni di combattimento. Lo stesso modello che il governo aveva appena dichiarato un pericolo per la sicurezza nazionale veniva impiegato in una missione di guerra.

    Amodei rivendica il suo patriottismo

    Il giorno stesso della rottura, Amodei ha rilasciato un’intervista esclusiva a CBS News. È stato il suo primo commento pubblico dopo la tempesta, e le sue parole meritano attenzione.

    Alla domanda su cosa direbbe al presidente Trump, Amodei ha risposto: “Siamo patrioti americani. Tutto quello che abbiamo fatto è stato per il bene di questo Paese, per sostenere la sicurezza nazionale degli Stati Uniti. Il nostro impegno nel dispiegare i nostri modelli con i militari è stato fatto perché crediamo in questo Paese.

    Ha definito le azioni del governo “ritorsive e punitive” e ha annunciato che Anthropic avrebbe contestato in tribunale qualsiasi designazione di supply chain risk, definendola “legalmente infondata”.

    Ma è stato un passaggio successivo dell’intervista a chiarire la posizione di Amodei: “Dissentire dal governo è la cosa più americana del mondo. E noi siamo patrioti“.

    È una formulazione che ribalta la narrazione costruita dall’amministrazione Trump. Hegseth aveva accusato Anthropic di voler “prendere potere di veto sulle decisioni operative dell’esercito americano“. Emil Michael, sottosegretario alla Difesa per la ricerca, aveva definito Amodei un uomo con “complesso di Dio“.

    La risposta di Amodei è stata di inquadrare il rifiuto non come ostacolo alle operazioni militari, ma come difesa di principi democratici. “In un numero ristretto di casi, ha detto, “crediamo che l’IA possa minare, invece che difendere, i valori democratici“.

    La nota che ha fatto esplodere tutto

    Venerdì 27 febbraio, nelle ore successive all’annuncio di Hegseth e all’accordo di OpenAI con il Pentagono, Amodei ha inviato uan nota interna ai circa 2.000 dipendenti di Anthropic. Il documento, lungo circa 1.600 parole, è stato pubblicato da The Information dopo essere stato divulgato da una fonte interna.

    In quel contenuto Amodei accusava l’accordo di OpenAI di essere “safety theatre”, teatro della sicurezza, e definiva le dichiarazioni di Altman “bugie vere e proprie” e “gaslighting”.

    Ma il passaggio più citato riguardava le ragioni del conflitto con l’amministrazione Trump:

    Le vere ragioni per cui il Dipartimento della Guerra e l’amministrazione Trump non ci amano è che non abbiamo donato a Trump, mentre OpenAI e Greg hanno donato molto. Non abbiamo dato lodi in stile dittatore a Trump, mentre Sam lo ha fatto. Abbiamo sostenuto la regolamentazione dell’IA, che è contro la loro agenda. Abbiamo detto la verità su diverse questioni di policy dell’IA, come la perdita di posti di lavoro. E abbiamo effettivamente mantenuto le nostre linee rosse con integrità invece di colludere con loro per produrre safety theatre a beneficio dei dipendenti”.

    Il riferimento era a Greg Brockman, presidente di OpenAI, che ha donato 25 milioni di dollari a un super PAC pro-Trump. Altman stesso ha donato un milione di dollari al fondo inaugurale di Trump alla fine del 2024. Amodei, al contrario, non ha partecipato all’inaugurazione di Trump e ha evitato di “corteggiare” l’amministrazione come hanno fatto altri CEO delle big tech.

    Il comunicato di Amodei ha complicato significativamente la posizione di Anthropic. Un funzionario dell’amministrazione ha dichiarato ad Axios che i commenti di Amodei potrebbero “far saltare le possibilità di una risoluzione“, aggiungendo: “Non ci si può fidare che Claude non stia segretamente portando avanti l’agenda di Dario in un contesto classificato.

    E poi, giovedì 5 marzo, nel suo comunicato sulla designazione formale, Amodei si è scusato pubblicamente per il tono del memo, definendolo scritto in un “momento difficile per l’azienda e precisando che non rifletteva le sue “opinioni ponderate e attente”.

    Cosa significa questa designazione per Anthropic

    La designazione di ‘supply chain risk’ non è un semplice atto simbolico. Ha conseguenze concrete e potenzialmente devastanti.

    Da oggi, ogni fornitore, contractor o partner che lavora con il Dipartimento della Difesa dovrà certificare di non utilizzare i modelli di Anthropic nel proprio lavoro con il Pentagono.

    Aziende come Lockheed Martin hanno già annunciato che seguiranno le direttive dell’amministrazione. Dieci società nel portafoglio di J2 Ventures, un fondo specializzato in difesa, hanno già iniziato a sostituire Claude con altri modelli.

    Ma la portata della designazione è oggetto di dibattito legale. Amodei sostiene che secondo la legge federale, lo strumento si applica solo ai contratti diretti con il Dipartimento della Difesa e “non può limitare gli usi di Claude o le relazioni commerciali con Anthropic se queste non sono correlate ai loro specifici contratti con il Dipartimento della Guerra“.

    Microsoft, che ha annunciato un investimento fino a 5 miliardi di dollari in Anthropic nel novembre 2025, ha fatto sapere che i suoi avvocati hanno studiato la designazione e concluso che i prodotti Anthropic possono rimanere disponibili ai clienti non legati al Dipartimento della Difesa.

    Se l’interpretazione estensiva di Hegseth dovesse prevalere, le conseguenze andrebbero oltre Anthropic. Amazon Web Services e Google Cloud, che ospitano l’infrastruttura di Claude, sono a loro volta contractor del Dipartimento della Difesa. Se fossero costretti a interrompere il rapporto con Anthropic, l’azienda si troverebbe senza infrastruttura cloud, dato che non esistono provider di capacità comparabile che non abbiano contratti con il Pentagono.

    Anthropic e la battaglia legale 

    Anthropic ha annunciato che contesterà la designazione in tribunale. E secondo diversi esperti legali, ha buone possibilità di prevalere.

    La legge che definisce il ‘supply chain risk’ è contenuta nel Titolo 10, Sezione 3252 del codice federale. Parla di “rischio che un avversario possa sabotare, introdurre malevolmente funzioni indesiderate, o altrimenti sovvertire un sistema per spiare, interrompere o degradarne il funzionamento. Richiede prove di sabotaggio, sovversione, backdoor nei sistemi.

    Ma Anthropic non ha fatto nulla di tutto questo. La disputa, come entrambe le parti hanno riconosciuto, riguarda i termini contrattuali, non vulnerabilità tecniche o rischi di sicurezza. Un funzionario della difesa che valuta specificamente le minacce alla catena di approvvigionamento ha dichiarato che “non ci sono prove di rischio per la catena di approvvigionamento” da parte del modello di Anthropic. La designazione, ha detto, è “ideologicamente motivata“.

    Secondo Amos Toh, consulente senior del Brennan Center for Justice della NYU, lo statuto richiede anche che il Pentagono abbia esaurito tutte le alternative meno invasive prima di procedere con la designazione. È difficile sostenere che questo sia avvenuto, dato che la disputa è esplosa nel giro di pochi giorni.

    C’è poi la questione del precedente. Su Lawfare, un’analisi legale dettagliata sostiene che la designazione “non sopravviverà al primo contatto con il sistema legale, citando il caso Department of Commerce v. New York del 2019, in cui la Corte Suprema ha stabilito che i tribunali devono respingere azioni governative quando la motivazione dichiarata è un pretesto per quella reale. E sia Trump che Hegseth hanno accompagnato la designazione con dichiarazioni pubbliche che la inquadrano come punizione ideologica, non come risposta a un rischio tecnico.

    Claude comunque resta ancora in uso

    Mentre il governo degli Stati Uniti dichiara Anthropic un pericolo per la sicurezza nazionale, i modelli Claude continuano a essere utilizzati attivamente nelle operazioni militari in Iran.

    Secondo Bloomberg, Claude è uno dei principali modelli installati nel Maven Smart System di Palantir, ampiamente usato dagli operatori militari in Medio Oriente. La tecnologia sta funzionando ed è diventata centrale per le operazioni statunitensi contro l’Iran.

    Come notato da diversi esperti, in questa fase è molto difficile abbandonare tecnologie profondamente integrate nei processi bellici proprio prima di andare in guerra.

    Questa contraddizione mina alla base la narrativa del “rischio per la sicurezza nazionale“. Se Claude fosse davvero un pericolo, perché continuare a usarlo per prendere decisioni di targeting in un conflitto attivo? E se non lo è, su quale base il Pentagono può sostenere la designazione?

    Le conseguenze per l’intero settore

    Al di là di quello che accadrà ad Anthropic, questa vicenda ha implicazioni più ampie per l’intero settore dell’intelligenza artificiale e per il rapporto tra Big Tech e governo.

    Come osservato da diversi esperti, la designazione suggerisce che il governo americano potrebbe utilizzare la sua autorità sulla supply chain come leva nelle negoziazioni con le aziende. Questo potrebbe dare vita a una nuova realtà per le aziende tecnologiche che lavorano con le agenzie federali. I termini contrattuali potrebbero diventare meno negoziabili.

    Ma mentre Anthropic perde i suoi contratti con i contractor della difesa, in realtà sta guadagnando milioni di nuovi utenti. I dati mostrano che Claude è salito al primo posto nell’App Store statunitense di Apple, superando ChatGPT. Gli utenti gratuiti sono aumentati di oltre il 60% da gennaio, gli abbonati a pagamento sono più che raddoppiati. Secondo un portavoce di Anthropic, le iscrizioni giornaliere hanno battuto il record storico ogni giorno della settimana scorsa.

    Gli utenti hanno visto quello che è successo e hanno scelto di conseguenza.

    In chiusura, Dario Amodei ha costruito la sua carriera sull’idea che l’intelligenza artificiale debba avere dei limiti.

    Si è chiesto pubblicamente se la sua creazione possa essere cosciente, e ne ha tratto conseguenze concrete. Ha lasciato OpenAI quando la visione non era più la sua; ha fondato un’azienda come public benefit corporation; ha mantenuto due linee rosse sapendo cosa avrebbe comportato.

    Ora è il CEO della prima azienda americana nella storia a ricevere una designazione pensata per avversari stranieri. Non per aver violato leggi, non per aver compromesso sistemi, ma per aver detto no.

    È una storia che per un verso racconta il profilo di un uomo che nonostante tutto ha cercato anche di recuperare i rapporti col Pentagono, quando ormai era difficile. Questo va detto. Criticabile, ovviamente, ma va vista anche come una mossa per evitare il peggio. Peggio che ora diventerà, lo vedremo, inevitabile.

    Ma è anche la storia di un momento che racconta molto dell’epoca che stiamo vivendo, che passa necessariamente dal profilo di Amodei, ma anche dal profilo di Altman e di Musk.

  • Intelligenza artificiale, copyright e potere: quando nessuno è innocente

    Intelligenza artificiale, copyright e potere: quando nessuno è innocente

    Anthropic denuncia DeepSeek, MiniMax e Moonshot per distillazione illecita di Claude. Musk replica accusando proprio Anthropic di furto di dati. Tra copyright, Pentagono e geopolitica, emerge l’ipocrisia dell’intero settore IA.

    In questo momento il mondo dell’intelligenza artificiale è attraversato da un grande clima di scontro.

    Nelle ultime ore si sta parlando molto della denuncia di Anthropic contro tre laboratori cinesi accusati di aver rubato le capacità del modello Claude attraverso una tecnica chiamata distillazione. I numeri sono impressionanti: oltre 16 milioni di interazioni, 24.000 account fraudolenti, prove che secondo l’azienda di San Francisco portano direttamente ai ricercatori di DeepSeek, MiniMax e Moonshot.

    Ma immediatamente dopo, Elon Musk fa partire la sua campagna di attacchi contro Anthropic. Una situazione che svela l’enorme ipocrisia che attraversa l’intero settore dell’IA quando si parla di diritti d’autore e proprietà intellettuale. Perché la verità è che nessuno, in questa grande partita della IA, può davvero tirare la prima pietra.

    La denuncia di Anthropic e l’estrazione dei dati

    Partiamo dai fatti. Il 23 febbraio 2026 Anthropic ha pubblicato un blog post dettagliato in cui accusa tre laboratori cinesi di aver condotto campagne su scala industriale per estrarre le capacità di Claude. La tecnica utilizzata si chiama distillazione ed è, in sé, legittima.

    Si tratta di addestrare un modello più piccolo sugli output di uno più avanzato. Tutti i laboratori di frontiera la usano internamente per creare versioni più economiche dei propri sistemi.

    Il problema, secondo Anthropic, è che DeepSeek, MiniMax e Moonshot hanno usato questa tecnica per copiare le capacità di Claude senza autorizzazione, violando i termini di servizio e aggirando le restrizioni geografiche.

    Claude non è disponibile commercialmente in Cina per ragioni di sicurezza nazionale. Ma attraverso servizi proxy e reti di account fraudolenti, i tre laboratori sarebbero riusciti ad accedere al modello su larga scala.

    I dettagli forniti da Anthropic sono piuttosto precisi. DeepSeek avrebbe generato oltre 150.000 scambi focalizzati sulle capacità di ragionamento e sulla creazione di alternative sicure per la censura a domande politicamente sensibili, quelle sui dissidenti, sui leader di partito, sull’autoritarismo.

    MiniMax è accusata di oltre 13 milioni di interazioni concentrate su coding agentico e utilizzo di strumenti.

    Moonshot avrebbe prodotto più di 3,4 milioni di scambi mirati al ragionamento agentico e alla computer vision.

    Anthropic afferma di aver tracciato queste attività attraverso la correlazione degli indirizzi IP, i metadati delle richieste e gli indicatori dell’infrastruttura. In alcuni casi, dice l’azienda, è stato possibile risalire a specifici ricercatori dei laboratori accusati. Quando Anthropic ha rilasciato un nuovo modello durante la campagna di MiniMax, quest’ultima avrebbe reindirizzato quasi la metà del suo traffico entro 24 ore per catturare le capacità del sistema più recente.

    Sono accuse gravi e circostanziate. Ma è importante comunque sottolineare che, al momento, si tratta di accuse.

    DeepSeek, MiniMax e Moonshot al momento non hanno rispoto.

    Non c’è stata alcuna verifica indipendente e non c’è stato alcun procedimento legale. Il fatto che Anthropic presenti prove dettagliate non significa automaticamente che quelle prove siano incontrovertibili.

    Intelligenza artificiale, copyright e potere: quando nessuno è innocente
    Intelligenza artificiale, copyright e potere: quando nessuno è innocente

    L’attacco di Musk e la distorsione dei fatti

    Ed è qui che entra in scena Elon Musk. Poche ore dopo la pubblicazione del blog post di Anthropic, il proprietario di X e di xAI ha lanciato il suo attacco. Il tweet è diretto e apparentemente definitivo: “Anthropic is guilty of stealing training data at massive scale and has had to pay multi-billion dollar settlements for their theft. This is just a fact.”

    Tradotto: Anthropic è colpevole di aver rubato dati di addestramento su scala massiccia e ha dovuto pagare accordi miliardari per il furto. Questo è semplicemente un fatto. A supporto della sua affermazione, Musk ha condiviso screenshot di Community Notes che menzionano un accordo da 1,5 miliardi di dollari.

    Ma le cose non stanno esattamente così. E qui dobbiamo essere precisi, perché la differenza tra i fatti e la narrativa di Musk è sostanziale.

    Il riferimento è alla causa Bartz et al v. Anthropic PBC, una class action intentata da un gruppo di autori che accusavano l’azienda di Dario Amodei di aver usato i loro libri per addestrare Claude senza autorizzazione.

    La causa si è conclusa con una transazione da 1,5 miliardi di dollari, annunciato a settembre 2025. Ma chiamarla condanna per furto non è corretto. E per come la sta diffondendo Musk si tratta quasi di disinformazione.

    Ecco cosa è realmente accaduto. A giugno 2025 il giudice William Alsup aveva già stabilito che l’uso dei libri per addestrare Claude costituiva fair use, un uso legittimo secondo il diritto americano. La decisione è stata descritta come exceedingly transformative, estremamente trasformativa. In altre parole: addestrare un modello di IA su opere protette da copyright può essere legale.

    Il problema non era l’addestramento in sé, ma il modo in cui Anthropic aveva ottenuto quei libri. Li aveva scaricati da shadow libraries, ossia biblioteche pirata, come Library Genesis e Pirate Library Mirror.

    Questo, secondo il giudice, poteva configurare una violazione separata. Ed è su questo punto che si sarebbe dovuto tenere un processo a dicembre 2025, con danni potenziali che avrebbero potuto raggiungere il trilione di dollari in caso di violazione intenzionale.

    Anthropic ha scelto di accordarsi per evitare quel rischio. Ha accettato di pagare circa 3.000 dollari per ciascuno dei 500.000 libri coinvolti e di distruggere i dataset contenenti le opere scaricate illegalmente.

    Da precisare, non è stata emessa alcuna sentenza di condanna e, quindi, non vi è stato alcun verdetto di colpevolezza. Si è trattato di un accordo volontario per chiudere una controversia. Questo ad onor del vero e senza prendere parti per l’uno o per l’altro.

    Inoltre, non c’è alcun riferimento al tracciamento delle persone che alcuni utenti su X hanno iniziato a citare. Questa accusa sembra derivare da una confusione: Anthropic ha tracciato gli IP e i metadati degli account fraudolenti usati dai laboratori cinesi per accedere a Claude, cosa del tutto legale e necessaria per identificare gli abusi. Non ha quindi tracciato utenti comuni.

    Il peccato originale dell’IA: tutti hanno lo stesso problema

    Ma ecco il punto che nessuno vuole affrontare davvero. Se Anthropic ha problemi con il copyright, li hanno tutti. Nessuno escluso, e questo include xAI di Musk.

    OpenAI, l’azienda che ha dato il via alla corsa alla IA generativa con ChatGPT, affronta attualmente oltre 70 cause legali per violazione del copyright. La più nota è quella intentata dal New York Times, che accusa OpenAI e Microsoft di aver usato milioni di articoli per addestrare i loro modelli. A gennaio 2026 un tribunale ha ordinato a OpenAI di produrre 20 milioni di log di ChatGPT come prove. L’azienda ha cercato di resistere invocando la privacy degli utenti, ma il giudice ha respinto le obiezioni.

    Meta è stata citata per aver usato LibGen, la stessa biblioteca pirata al centro della causa Anthropic. Email interne emerse durante il procedimento suggeriscono che l’azienda sapeva di star usando materiale piratato. Google è sotto accusa per pratiche simili. Disney e Universal hanno fatto causa a Midjourney per violazione del copyright sulle immagini.

    E poi c’è xAI, l’azienda di Musk. A dicembre 2025 il giornalista John Carreyrou, oggi del NYT, quello che ha smascherato lo scandalo Theranos, ha intentato una causa contro sei aziende di IA per l’uso non autorizzato dei suoi libri. Tra i convenuti c’è xAI: è la prima causa per copyright contro Grok. La risposta dell’azienda? Due parole: “Legacy Media Lies”. Le bugie dei media tradizionali.

    Ma i problemi di xAI non si fermano qui. Grok è addestrato sui contenuti degli utenti di X, e questa pratica ha già attirato l’attenzione dei regolatori di diversi paesi.

    Nel 2024 X ha attivato di default l’opzione che consente di usare i post degli utenti per addestrare Grok. Non opt-in, ma opt-out. Chi non voleva partecipare doveva andare nelle impostazioni e disattivare manualmente la funzione. Questo ha scatenato l’intervento del Garante irlandese per la protezione dei dati, che a settembre 2024 ha ottenuto la sospensione permanente dell’uso dei dati degli utenti UE per l’addestramento di Grok, oltre all’ordine di cancellare i dati già acquisiti.

    Ad aprile 2025 è stata aperta un’indagine formale sulla legalità del trattamento storico dei dati. E i nuovi termini di servizio di X, entrati in vigore a gennaio 2026, hanno ampliato ulteriormente la definizione di contenuti che l’azienda può usare: ora include esplicitamente input, prompt e output delle conversazioni con Grok. Il tutto senza possibilità di opt-out.

    Cosa significa questo in parole povere. Significa che tutto quello che gli utenti scrivono a Grok e tutto quello che Grok risponde diventa materiale che xAI può usare liberamente per addestrare i suoi modelli futuri. E l’utente non non ha modo di opporsi.

    C’è poi la questione delle immagini. Grok ha generato contenuti sessualmente espliciti non consensuali, i cosiddetti deepfake, che hanno portato a denunce penali in Francia e al blocco del servizio in Malesia e Indonesia. La Federal Trade Commission americana ha aperto un’indagine sulle pratiche di xAI relative ai minori.

    Quindi quando Musk accusa Anthropic di aver rubato dati, sta parlando di un’azienda che ha raggiunto un accordo transattivo su una questione che riguarda l’intero settore, mentre la sua stessa azienda è sotto causa per le stesse ragioni e usa i dati degli utenti della sua piattaforma social senza un consenso realmente informato.

    Lo scontro per i contratti con il Pentagono

    Ma perché Musk sta attaccando Anthropic proprio adesso? La risposta sta in quello che è successo nelle ultime settimane al Pentagono.

    Anthropic è attualmente l’unica azienda di IA approvata per operare sulle reti militari classificate americane. Claude sarebbe stato usato durante l’operazione che ha portato alla cattura del presidente venezuelano Nicolás Maduro a gennaio 2026, il primo caso documentato di IA impiegata in un raid militare attivo. Ma il rapporto tra Anthropic e il Pentagono si è deteriorato rapidamente.

    Il Segretario della Difesa Pete Hegseth ha emesso una direttiva a gennaio che richiede a tutte le aziende di IA di rimuovere qualsiasi restrizione sull’uso militare dei loro modelli, consentendo qualsiasi uso legale. Anthropic ha rifiutato.

    L’azienda insiste sulle sue posizioni fondanti: niente sorveglianza di massa degli americani, niente armi autonome che possano sparare senza supervisione umana.

    Dario Amodei, il CEO di Anthropic, ha scritto in un saggio a gennaio: “Un’IA potente che analizza miliardi di conversazioni di milioni di persone potrebbe misurare il sentimento pubblico, individuare sacche di slealtà in formazione e schiacciarle prima che crescano.” Questa frase, che descrive un rischio, è stata usata contro di lui come prova di una presunta ostilità verso gli interessi americani.

    Per oggi, 24 febbraio, Hegseth ha convocato Amodei al Pentagono per quello che fonti interne descrivono come un incontro non amichevole. Uan sorte di resa dei conti.

    Un funzionario della Difesa ha detto ad Axios: “Questo non è un incontro per conoscersi. Questo è un incontro del tipo: o ti decidi o te ne vai.”

    Il Pentagono sta minacciando di designare Anthropic come rischio per la catena di approvvigionamento, una classificazione normalmente riservata ad avversari stranieri. Questo annullerebbe i contratti e costringerebbe altri partner del Pentagono a smettere di usare Claude.

    Nel frattempo, xAI ha accettato tutte le condizioni. Grok entrerà nelle reti militari classificate senza restrizioni. L’accordo è stato firmato ed è in questo contesto che Musk sta attaccando Anthropic su X. Tutto questo, mentre la sua azienda si posiziona per sostituire il concorrente nei contratti più sensibili del governo americano.

    Cosa ci racconta davvero questa storia

    La denuncia di Anthropic contro i laboratori cinesi è seria e merita attenzione. Se le prove presentate sono accurate, siamo di fronte a un caso significativo di appropriazione illecita di proprietà intellettuale che solleva questioni importanti sulla sicurezza nazionale e sulla competizione tecnologica tra Stati Uniti e Cina.

    Ma questa storia ci dice anche qualcos’altro.

    Ci dice che l’intero settore dell’intelligenza artificiale è nato e cresciuto su fondamenta traballanti quando si parla di diritti d’autore. Tutti i grandi modelli sono stati addestrati su contenuti protetti, spesso senza autorizzazione, talvolta scaricati da fonti pirata. Le cause legali si moltiplicano. Gli accordi transattivi cominciano ad arrivare. E la questione di cosa sia lecito e cosa no nell’addestramento di un’IA è ancora largamente irrisolta.

    Musk accusa gli altri delle stesse cose che lui ha già commesso. Solo che non lo ammetterà mai ed è per questo che sta scatenando la sua campagna contro Anthropi, usando X come megafono di disinformazione e distrazione.

    Questa storia dice, infine, che il controllo delle piattaforme di informazione da parte di soggetti con interessi commerciali diretti nel settore che dovrebbero coprire crea distorsioni evidenti.

    Quando il proprietario di X è anche il proprietario di un’azienda di IA che compete per contratti governativi, ogni suo post su quel tema va letto con questo tenendo bene in mente tutto questo.

    La verità è che in questo grande clima di scontro all’interno della IA nessuno è innocente. Ma alcuni stanno facendo molto più rumore degli altri per coprire i propri problemi mentre amplificano quelli altrui.

    Vedremo come andrà a finire.

  • Altman, Amodei e la grande frattura dell’intelligenza artificiale

    Altman, Amodei e la grande frattura dell’intelligenza artificiale

    Un momento di forte imbarazzo all’India AI Impact Summit tra Sam Altman e Dario Amodei ha catturato l’attenzione di tutti. In realtà, alla base di quell’imbarazzo c’è uno scontro tra due modi diversi di intendere il futuro della IA.

    New Delhi, 19 febbraio 2026, la città indiana dove si sta tenendo India AI Impact Summit, l’evento più importante dell’anno per quanto riguarda il settore dell’intelligenza artificiale.

    Al Bharat Mandapam si sono dati appuntamento i CEO delle principali aziende tecnologiche del pianeta, con oltre 200 miliardi di dollari in promesse di investimento e l’attenzione dei media di tutto il mondo.

    Sul palco, dopo i keynote, il premier indiano, e padrone di casa, Narendra Modi invita i tredici leader presenti a unire le mani in segno di coesione e collaborazione.

    Un gesto per lo più pensato a favore delle telecamere, per celebrare l’unità di un settore che promette di cambiare il mondo. La folla applaude e tutti, o quasi, seguono l’indicazione di Modi.

    Ma succede qualcosa su quel palco che finisce per rubare la scena.

    Altman, Amodei e la grande frattura dell’intelligenza artificiale
    Altman, Amodei e la grande frattura dell’intelligenza artificiale

    L’imbarazzo tra Sam Altman e Dario Amodei

    Sam Altman, CEO di OpenAI, e Dario Amodei, CEO di Anthropic, sono uno accanto all’altro.

    Altman, che ha alla sua destra proprio il premier indiano Modi, abbassa lo sguardo, visibilmente imbarazzato, verso la mano di Amodei. C’è un breve momento di contatto visivo imbarazzato, poi entrambi evitano di guardarsi.

    Amodei, anche lui indeciso su cosa fare, si guarda intorno con un gesto che sembra dire “chi, io?”. Per diversi secondi, che sembrano interminabili, i due evitano goffamente il contatto.

    Alla fine, entrambi alzano un pugno chiuso invece di unire le mani.

    Il video, ovviamente, fa il giro delle piattaforme nel giro di pochissimi minuti. In molti lo descrivono come l’emblema della “AI cold war”, la guerra fredda dell’intelligenza artificiale.

    “Non sapevo cosa stesse succedendo”, dirà poi Altman ai media indiani. “Ero confuso. Modi mi ha preso la mano e l’ha alzata, e non ero sicuro di cosa dovessimo fare.

    Ma la confusione di Altman è difficile da credere. Quei due pugni alzati separatamente raccontano invece una storia che inizia cinque anni prima, in una sala riunioni di San Francisco. E che nelle ultime settimane è esplosa in uno scontro pubblico senza precedenti.

    La scissione e la nascita di Anthropic

    Amodei, come molti già sapranno, ha lavorato sotto Altman a OpenAI dal 2016 al 2020, come vicepresidente della ricerca. Si è concentrato sulla sicurezza, ha avuto un ruolo chiave nel lancio di GPT-2 e GPT-3, ha co-inventato il “reinforcement learning from human feedback”, la tecnica che usa l’input umano per addestrare i modelli linguistici a produrre risultati migliori.

    Ma poi qualcosa si rompe, cosa che succede in tutte le storie aziendali.

    Amodei, insieme a un piccolo gruppo di colleghi, inizia a preoccuparsi per la direzione che sta prendendo OpenAI. La tensione riguarda un aspetto fondamentale. Lo sviluppo dell’intelligenza artificiale deve dare priorità alla velocità per conquistare il mercato, oppure procedere con cautela, investendo nella ricerca sulla sicurezza prima di rilasciare nuovi modelli?

    Per Amodei la risposta è chiara. In un’intervista ha spiegato che semplicemente scalare i modelli con più potenza di calcolo non basta: “Serviva qualcosa in aggiunta allo scaling, ovvero l’allineamento o la sicurezza.”

    Prendi alcune persone di cui ti fidi e vai a realizzare la tua visione“, si disse Amodei, piuttosto che continuare a discutere all’interno di un’organizzazione dove altri avevano il potere decisionale.

    E così, nel 2021, lascia OpenAI insieme alla sorella Daniela e una dozzina di ex colleghi. Fondano Anthropic con una missione precisa: mettere la sicurezza al primo posto.

    Da allora la frattura tra i due si è trasformata in una guerra commerciale che riflette due visioni opposte del futuro.

    Due modi di vedere il futuro della IA

    Da una parte c’è chi guarda già oltre l’AGI, l’intelligenza artificiale generale, verso la superintelligenza.

    Altman ha scritto che “strumenti superintelligenti potrebbero accelerare massicciamente la scoperta scientifica e l’innovazione ben oltre ciò che siamo capaci di fare da soli.” Sa che suona come fantascienza, ammette che sembra quasi folle parlarne. Ma non gli importa: “Ci siamo già passati e siamo a nostro agio nel tornarci.”

    Dall’altra c’è chi dedica il suo tempo a parlare dei pericoli. Amodei ha detto in un’intervista televisiva: “Mi preoccupo molto delle incognite. Non credo che possiamo prevedere tutto con certezza. Ma proprio per questo stiamo cercando di prevedere tutto ciò che possiamo. Pensiamo agli impatti economici dell’IA. Pensiamo all’uso improprio. Pensiamo alla perdita di controllo del modello.”

    E ha scritto qualcosa di insolito per il CEO di un’azienda del settore: “È un po’ imbarazzante dirlo come CEO di un’azienda IA, ma penso che il prossimo livello di rischio siano proprio le stesse aziende IA. Controllano grandi data center, addestrano modelli di frontiera, e in alcuni casi hanno contatto quotidiano con decine o centinaia di milioni di utenti. Potrebbero usare i loro prodotti per fare il lavaggio del cervello alla loro enorme base di utenti.

    La domanda che sta dietro a tutto questo l’ha posta un giornalista in un’intervista: “Nessuno ha scelto questo. Chi ha eletto te e Sam Altman?” La risposta di Amodei è stata disarmante: “Nessuno, onestamente nessuno. E questa è una ragione per cui ho sempre sostenuto una regolamentazione responsabile della tecnologia.”

    Lo scontro tra OpenAI e Anthropic al Super Bowl

    La rivalità filosofica è diventata guerra aperta poche settimane fa. OpenAI ha annunciato che inizierà a testare la pubblicità all’interno di ChatGPT per gli utenti gratuiti.

    Anthropic, dal canto suo, ha risposto durante il Super Bowl con una serie di spot satirici che prendevano di mira questa decisione.

    Ogni spot si apriva con una singola parola a tutto schermo: “tradimento”, “inganno”, “slealtà”, “violazione”. In ciascuno di essi, persone comuni che cercavano consigli da un assistente IA venivano interrotte da pubblicità indesiderate. Il messaggio di fondo era: noi non lo faremo mai.

    Altman ha risposto con un lungo post su X, accusando gli spot di essere “ingannevoli” e definendo Anthropic un’azienda “autoritaria”. Ha ammesso di aver trovato gli spot “divertenti”, come a voler convincere che sapeva stare allo scherzo.

    Ma poi ha rincarato la dose: “Anthropic serve un prodotto costoso a persone ricche. Più texani usano ChatGPT gratis di quante persone in totale usino Claude negli USA.”

    Lo scontro va oltre il marketing. Anthropic ha annunciato un investimento di 20 milioni di dollari in un super PAC che si oppone a un altro super PAC vicino a OpenAI. Da una parte si combatte per una regolamentazione più forte dell’intelligenza artificiale, dall’altra si preferisce un approccio laissez-faire.

    Ed è in questo clima che i due si sono ritrovati uno accanto all’altro sul palco di New Delhi, per tornare al tema di questo articolo.

    Un’immagine imbarazzante che in realtà dice tutto

    Durante i loro interventi al Summit, i messaggi hanno preso strade divergenti. Amodei ha parlato dei “rischi seri” legati ai sistemi IA avanzati: comportamento autonomo, uso improprio da parte di governi e malintenzionati, spostamento economico.

    Altman ha sostenuto che la sicurezza dell’IA deve includere la “resilienza sociale” e che “nessun laboratorio IA può garantire un buon futuro da solo.”

    Poi è arrivato il momento della foto di gruppo. E quei pugni alzati, invece delle mani unite, hanno detto più di qualsiasi altro discorso.

    La frattura non riguarda solo due CEO o due aziende. Attraversa l’intero settore dell’intelligenza artificiale e mette al centro due modi di intendere la IA molto diversi.

    Da una parte chi corre verso l’AGI puntando sulla velocità e sulla democratizzazione dell’accesso. Dall’altra chi frena e chiede tempo per capire che cosa stiamo costruendo.

    Due visioni che necessitano comunque di regole

    Due visioni che dovrebbero essere al centro, a questo punto, di qualsiasi dibattito nella società.

    Se è vero, come è vero, che la IA sta correndo a velocità molto sostenuta; se è vero che le aziende stanno investendo moltissimo sulla IA, e già si parla di bolla per via di investimenti esagerati, è anche vero che questo fenomeno ancora non è molto regolamentato.

    L’UE, dal canto suo, e nonostante le tante debolezze di tipo tecnologico e infrastrutturale, ha sicuramente indicato una strada con l’AI Act. Ma serve fare di più, e meglio.

    Il problema è che provare a regolamentare meglio e a cercare di tenere il passo della IA in questa fase storica è molto complicato, per via delle grandi tensioni geopolitiche in atto.

    Inevitabilmente, la IA diventa un terreno da coltivare ma anche un terreno di scontro per il fatto che in gioco ci sono interessi altissimi.

    In mezzo a tutto questo, resta la domanda che nessuno ha ancora il coraggio di affrontare: ma chi è che ha dato a un pugno di ingegneri della Silicon Valley il diritto di decidere il futuro dell’IA e, quindi, dell’umanità?

Benvenuto nella newsletter di InTime Blog!

Iscriviti per ricevere contenuti nella tua casella di posta. Senza essere invadenti ;)

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.