Anthropic denuncia DeepSeek, MiniMax e Moonshot per distillazione illecita di Claude. Musk replica accusando proprio Anthropic di furto di dati. Tra copyright, Pentagono e geopolitica, emerge l’ipocrisia dell’intero settore IA.
In questo momento il mondo dell’intelligenza artificiale è attraversato da un grande clima di scontro.
Nelle ultime ore si sta parlando molto della denuncia di Anthropic contro tre laboratori cinesi accusati di aver rubato le capacità del modello Claude attraverso una tecnica chiamata distillazione. I numeri sono impressionanti: oltre 16 milioni di interazioni, 24.000 account fraudolenti, prove che secondo l’azienda di San Francisco portano direttamente ai ricercatori di DeepSeek, MiniMax e Moonshot.
Ma immediatamente dopo, Elon Musk fa partire la sua campagna di attacchi contro Anthropic. Una situazione che svela l’enorme ipocrisia che attraversa l’intero settore dell’IA quando si parla di diritti d’autore e proprietà intellettuale. Perché la verità è che nessuno, in questa grande partita della IA, può davvero tirare la prima pietra.
La denuncia di Anthropic e l’estrazione dei dati
Partiamo dai fatti. Il 23 febbraio 2026 Anthropic ha pubblicato un blog post dettagliato in cui accusa tre laboratori cinesi di aver condotto campagne su scala industriale per estrarre le capacità di Claude. La tecnica utilizzata si chiama distillazione ed è, in sé, legittima.
Si tratta di addestrare un modello più piccolo sugli output di uno più avanzato. Tutti i laboratori di frontiera la usano internamente per creare versioni più economiche dei propri sistemi.
Il problema, secondo Anthropic, è che DeepSeek, MiniMax e Moonshot hanno usato questa tecnica per copiare le capacità di Claude senza autorizzazione, violando i termini di servizio e aggirando le restrizioni geografiche.
Claude non è disponibile commercialmente in Cina per ragioni di sicurezza nazionale. Ma attraverso servizi proxy e reti di account fraudolenti, i tre laboratori sarebbero riusciti ad accedere al modello su larga scala.
I dettagli forniti da Anthropic sono piuttosto precisi. DeepSeek avrebbe generato oltre 150.000 scambi focalizzati sulle capacità di ragionamento e sulla creazione di alternative sicure per la censura a domande politicamente sensibili, quelle sui dissidenti, sui leader di partito, sull’autoritarismo.
MiniMax è accusata di oltre 13 milioni di interazioni concentrate su coding agentico e utilizzo di strumenti.
Moonshot avrebbe prodotto più di 3,4 milioni di scambi mirati al ragionamento agentico e alla computer vision.
Anthropic afferma di aver tracciato queste attività attraverso la correlazione degli indirizzi IP, i metadati delle richieste e gli indicatori dell’infrastruttura. In alcuni casi, dice l’azienda, è stato possibile risalire a specifici ricercatori dei laboratori accusati. Quando Anthropic ha rilasciato un nuovo modello durante la campagna di MiniMax, quest’ultima avrebbe reindirizzato quasi la metà del suo traffico entro 24 ore per catturare le capacità del sistema più recente.
Sono accuse gravi e circostanziate. Ma è importante comunque sottolineare che, al momento, si tratta di accuse.
DeepSeek, MiniMax e Moonshot al momento non hanno rispoto.
Non c’è stata alcuna verifica indipendente e non c’è stato alcun procedimento legale. Il fatto che Anthropic presenti prove dettagliate non significa automaticamente che quelle prove siano incontrovertibili.

L’attacco di Musk e la distorsione dei fatti
Ed è qui che entra in scena Elon Musk. Poche ore dopo la pubblicazione del blog post di Anthropic, il proprietario di X e di xAI ha lanciato il suo attacco. Il tweet è diretto e apparentemente definitivo: “Anthropic is guilty of stealing training data at massive scale and has had to pay multi-billion dollar settlements for their theft. This is just a fact.”
Anthropic is guilty of stealing training data at massive scale and has had to pay multi-billion dollar settlements for their theft. This is just a fact. https://t.co/EEtdsJQ1Op
— Elon Musk (@elonmusk) February 23, 2026
Tradotto: Anthropic è colpevole di aver rubato dati di addestramento su scala massiccia e ha dovuto pagare accordi miliardari per il furto. Questo è semplicemente un fatto. A supporto della sua affermazione, Musk ha condiviso screenshot di Community Notes che menzionano un accordo da 1,5 miliardi di dollari.
Ma le cose non stanno esattamente così. E qui dobbiamo essere precisi, perché la differenza tra i fatti e la narrativa di Musk è sostanziale.
Il riferimento è alla causa Bartz et al v. Anthropic PBC, una class action intentata da un gruppo di autori che accusavano l’azienda di Dario Amodei di aver usato i loro libri per addestrare Claude senza autorizzazione.
La causa si è conclusa con una transazione da 1,5 miliardi di dollari, annunciato a settembre 2025. Ma chiamarla condanna per furto non è corretto. E per come la sta diffondendo Musk si tratta quasi di disinformazione.
Ecco cosa è realmente accaduto. A giugno 2025 il giudice William Alsup aveva già stabilito che l’uso dei libri per addestrare Claude costituiva fair use, un uso legittimo secondo il diritto americano. La decisione è stata descritta come exceedingly transformative, estremamente trasformativa. In altre parole: addestrare un modello di IA su opere protette da copyright può essere legale.
Il problema non era l’addestramento in sé, ma il modo in cui Anthropic aveva ottenuto quei libri. Li aveva scaricati da shadow libraries, ossia biblioteche pirata, come Library Genesis e Pirate Library Mirror.
Questo, secondo il giudice, poteva configurare una violazione separata. Ed è su questo punto che si sarebbe dovuto tenere un processo a dicembre 2025, con danni potenziali che avrebbero potuto raggiungere il trilione di dollari in caso di violazione intenzionale.
Anthropic ha scelto di accordarsi per evitare quel rischio. Ha accettato di pagare circa 3.000 dollari per ciascuno dei 500.000 libri coinvolti e di distruggere i dataset contenenti le opere scaricate illegalmente.
Da precisare, non è stata emessa alcuna sentenza di condanna e, quindi, non vi è stato alcun verdetto di colpevolezza. Si è trattato di un accordo volontario per chiudere una controversia. Questo ad onor del vero e senza prendere parti per l’uno o per l’altro.
Inoltre, non c’è alcun riferimento al tracciamento delle persone che alcuni utenti su X hanno iniziato a citare. Questa accusa sembra derivare da una confusione: Anthropic ha tracciato gli IP e i metadati degli account fraudolenti usati dai laboratori cinesi per accedere a Claude, cosa del tutto legale e necessaria per identificare gli abusi. Non ha quindi tracciato utenti comuni.
Il peccato originale dell’IA: tutti hanno lo stesso problema
Ma ecco il punto che nessuno vuole affrontare davvero. Se Anthropic ha problemi con il copyright, li hanno tutti. Nessuno escluso, e questo include xAI di Musk.
OpenAI, l’azienda che ha dato il via alla corsa alla IA generativa con ChatGPT, affronta attualmente oltre 70 cause legali per violazione del copyright. La più nota è quella intentata dal New York Times, che accusa OpenAI e Microsoft di aver usato milioni di articoli per addestrare i loro modelli. A gennaio 2026 un tribunale ha ordinato a OpenAI di produrre 20 milioni di log di ChatGPT come prove. L’azienda ha cercato di resistere invocando la privacy degli utenti, ma il giudice ha respinto le obiezioni.
Meta è stata citata per aver usato LibGen, la stessa biblioteca pirata al centro della causa Anthropic. Email interne emerse durante il procedimento suggeriscono che l’azienda sapeva di star usando materiale piratato. Google è sotto accusa per pratiche simili. Disney e Universal hanno fatto causa a Midjourney per violazione del copyright sulle immagini.
E poi c’è xAI, l’azienda di Musk. A dicembre 2025 il giornalista John Carreyrou, oggi del NYT, quello che ha smascherato lo scandalo Theranos, ha intentato una causa contro sei aziende di IA per l’uso non autorizzato dei suoi libri. Tra i convenuti c’è xAI: è la prima causa per copyright contro Grok. La risposta dell’azienda? Due parole: “Legacy Media Lies”. Le bugie dei media tradizionali.
Ma i problemi di xAI non si fermano qui. Grok è addestrato sui contenuti degli utenti di X, e questa pratica ha già attirato l’attenzione dei regolatori di diversi paesi.
Nel 2024 X ha attivato di default l’opzione che consente di usare i post degli utenti per addestrare Grok. Non opt-in, ma opt-out. Chi non voleva partecipare doveva andare nelle impostazioni e disattivare manualmente la funzione. Questo ha scatenato l’intervento del Garante irlandese per la protezione dei dati, che a settembre 2024 ha ottenuto la sospensione permanente dell’uso dei dati degli utenti UE per l’addestramento di Grok, oltre all’ordine di cancellare i dati già acquisiti.
Ad aprile 2025 è stata aperta un’indagine formale sulla legalità del trattamento storico dei dati. E i nuovi termini di servizio di X, entrati in vigore a gennaio 2026, hanno ampliato ulteriormente la definizione di contenuti che l’azienda può usare: ora include esplicitamente input, prompt e output delle conversazioni con Grok. Il tutto senza possibilità di opt-out.
Cosa significa questo in parole povere. Significa che tutto quello che gli utenti scrivono a Grok e tutto quello che Grok risponde diventa materiale che xAI può usare liberamente per addestrare i suoi modelli futuri. E l’utente non non ha modo di opporsi.
C’è poi la questione delle immagini. Grok ha generato contenuti sessualmente espliciti non consensuali, i cosiddetti deepfake, che hanno portato a denunce penali in Francia e al blocco del servizio in Malesia e Indonesia. La Federal Trade Commission americana ha aperto un’indagine sulle pratiche di xAI relative ai minori.
Quindi quando Musk accusa Anthropic di aver rubato dati, sta parlando di un’azienda che ha raggiunto un accordo transattivo su una questione che riguarda l’intero settore, mentre la sua stessa azienda è sotto causa per le stesse ragioni e usa i dati degli utenti della sua piattaforma social senza un consenso realmente informato.
Lo scontro per i contratti con il Pentagono
Ma perché Musk sta attaccando Anthropic proprio adesso? La risposta sta in quello che è successo nelle ultime settimane al Pentagono.
Anthropic è attualmente l’unica azienda di IA approvata per operare sulle reti militari classificate americane. Claude sarebbe stato usato durante l’operazione che ha portato alla cattura del presidente venezuelano Nicolás Maduro a gennaio 2026, il primo caso documentato di IA impiegata in un raid militare attivo. Ma il rapporto tra Anthropic e il Pentagono si è deteriorato rapidamente.
Il Segretario della Difesa Pete Hegseth ha emesso una direttiva a gennaio che richiede a tutte le aziende di IA di rimuovere qualsiasi restrizione sull’uso militare dei loro modelli, consentendo qualsiasi uso legale. Anthropic ha rifiutato.
L’azienda insiste sulle sue posizioni fondanti: niente sorveglianza di massa degli americani, niente armi autonome che possano sparare senza supervisione umana.
Dario Amodei, il CEO di Anthropic, ha scritto in un saggio a gennaio: “Un’IA potente che analizza miliardi di conversazioni di milioni di persone potrebbe misurare il sentimento pubblico, individuare sacche di slealtà in formazione e schiacciarle prima che crescano.” Questa frase, che descrive un rischio, è stata usata contro di lui come prova di una presunta ostilità verso gli interessi americani.
Per oggi, 24 febbraio, Hegseth ha convocato Amodei al Pentagono per quello che fonti interne descrivono come un incontro non amichevole. Uan sorte di resa dei conti.
Un funzionario della Difesa ha detto ad Axios: “Questo non è un incontro per conoscersi. Questo è un incontro del tipo: o ti decidi o te ne vai.”
Il Pentagono sta minacciando di designare Anthropic come rischio per la catena di approvvigionamento, una classificazione normalmente riservata ad avversari stranieri. Questo annullerebbe i contratti e costringerebbe altri partner del Pentagono a smettere di usare Claude.
Nel frattempo, xAI ha accettato tutte le condizioni. Grok entrerà nelle reti militari classificate senza restrizioni. L’accordo è stato firmato ed è in questo contesto che Musk sta attaccando Anthropic su X. Tutto questo, mentre la sua azienda si posiziona per sostituire il concorrente nei contratti più sensibili del governo americano.
Cosa ci racconta davvero questa storia
La denuncia di Anthropic contro i laboratori cinesi è seria e merita attenzione. Se le prove presentate sono accurate, siamo di fronte a un caso significativo di appropriazione illecita di proprietà intellettuale che solleva questioni importanti sulla sicurezza nazionale e sulla competizione tecnologica tra Stati Uniti e Cina.
Ma questa storia ci dice anche qualcos’altro.
Ci dice che l’intero settore dell’intelligenza artificiale è nato e cresciuto su fondamenta traballanti quando si parla di diritti d’autore. Tutti i grandi modelli sono stati addestrati su contenuti protetti, spesso senza autorizzazione, talvolta scaricati da fonti pirata. Le cause legali si moltiplicano. Gli accordi transattivi cominciano ad arrivare. E la questione di cosa sia lecito e cosa no nell’addestramento di un’IA è ancora largamente irrisolta.
Musk accusa gli altri delle stesse cose che lui ha già commesso. Solo che non lo ammetterà mai ed è per questo che sta scatenando la sua campagna contro Anthropi, usando X come megafono di disinformazione e distrazione.
Questa storia dice, infine, che il controllo delle piattaforme di informazione da parte di soggetti con interessi commerciali diretti nel settore che dovrebbero coprire crea distorsioni evidenti.
Quando il proprietario di X è anche il proprietario di un’azienda di IA che compete per contratti governativi, ogni suo post su quel tema va letto con questo tenendo bene in mente tutto questo.
La verità è che in questo grande clima di scontro all’interno della IA nessuno è innocente. Ma alcuni stanno facendo molto più rumore degli altri per coprire i propri problemi mentre amplificano quelli altrui.
Vedremo come andrà a finire.





