Home Intelligenza Artificiale Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

Il Pentagono ha annunciato un accordo con xAI per integrare Grok nei sistemi di difesa USA. L’IA di Musk avrà accesso diretto ai flussi di contenuti condivisi su X. Le modalità dell’accordo e la stessa possibile integrazione sollevano interrogativi su dati, controllo e trasparenza.

Il Pentagono – oggi DOW, Dipartimento della Guerra – ha annunciato una partnership con xAI, l’azienda di intelligenza artificiale fondata da Elon Musk, per integrare il modello Grok nella piattaforma governativa GenAI.mil.

Il rilascio è previsto per l’inizio del 2026 e coinvolgerà circa tre milioni di dipendenti militari e civili del Dipartimento della Difesa.

A prima vista, potrebbe sembrare una notizia come tante nell’era dell’IA generativa. Ma guardando più da vicino emergono elementi che meritano qualche approfondimento in più. Perché questa non è semplicemente l’adozione di un nuovo strumento tecnologico da parte dell’esercito americano. In questi casi siamo oltre, e si entra nella sfera dell’inedito.

Cosa prevede l’accordo tra il Pentagono e xAI

Grok opererà a Impact Level 5 (IL5), il livello di sicurezza che consente la gestione di Controlled Unclassified Information (CUI). Si tratta di informazioni sensibili ma non classificate.

Ossia, dati personali dei dipendenti, informazioni su infrastrutture critiche, dettagli operativi non segreti, comunicazioni interne governative. Singolarmente, questi dati non compromettono la sicurezza nazionale Usa, ma aggregati da un’IA possono rivelare elementi di una certa rilevanza.

All’interno del comunicato diramato si legge che gli utenti, militari e civili del DOW (Department of War)) avranno accesso a “insight globali in tempo reale dalla piattaforma X”, fornendo al personale del Dipartimento della Guerra quello che viene definito un “vantaggio informativo decisivo” e una “consapevolezza situazionale globale”. È prevista anche una possibile estensione futura a “carichi di lavoro classificati”.

Il valore del contratto è di 200 milioni di dollari, parte di accordi più ampi che includono anche OpenAI, Google e Anthropic. Ma qui emerge già un primo elemento di criticità.

Secondo un ex funzionario del Pentagono, il contratto con xAI “è arrivato dal nulla”, quando altre aziende erano sotto osservazione da mesi. La senatrice Elizabeth Warren ha formalmente interrogato il Dipartimento della Difesa su questa circostanza.

Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari
Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari

Non esiste alcuna separazione tra Grok e X

Questo è il nodo che distingue l’accordo Pentagon-xAI da qualsiasi altra partnership tra governo e aziende di IA. Grok non è un modello isolato. È un sistema profondamente integrato con la piattaforma X, e questa integrazione opera su più livelli.

Training sui dati di X

Grok viene addestrato sui post di X con un opt-in automatico attivato di default, senza informare gli utenti. L’impostazione è nascosta nelle opzioni di privacy e disattivabile solo da desktop.

Secondo le policy della piattaforma, X può “utilizzare post, interazioni utente, input e risultati con Grok per training e fine-tuning, condividendoli con xAI”.

Accesso in tempo reale

Grok integra le API di X, processa nuovi tweet via WebSocket per aggiornamenti istantanei, non batch processing. Usa endpoint come GET /2/tweets/search/stream, GET /2/tweets/sample/stream, GET /2/trends/place.

L’algoritmo di X determina quali contenuti hanno visibilità sulla piattaforma, e quindi quali dati alimentano Grok. In virtù di questo accordo, l’intelligenza artificiale Grok entra nel Pentagono con accesso diretto a quei flussi.

Un cortocircuito epistemologico

Un’analisi di Archyde coglie un punto da evidenziare: “L’obiettivo dichiarato, maggiore efficienza, sembra sottostimato. Il vero potenziale risiede nella capacità di elaborare e analizzare vasti dataset, identificando pattern e minacce che sarebbero impossibili da rilevare per gli analisti umani.

Fermiamoci su questo passaggio. Dunque, il Pentagono userà un’IA per identificare minacce basandosi su dati provenienti da una piattaforma il cui algoritmo è progettato non per rappresentare la realtà, ma per massimizzare l’engagement.

E quello stesso algoritmo è controllato dalla stessa persona che controlla l’IA.

Non è solo un conflitto di interessi. È una struttura in cui la percezione della realtà dell’apparato militare più potente del mondo passa attraverso un filtro privato, opaco, potenzialmente manipolato.

I “vasti dataset” menzionati sono in realtà contenuti di X già filtrati dall’algoritmo. I “pattern” identificati saranno pattern di una realtà distorta, se l’algoritmo amplifica certi contenuti e ne sopprime altri. Le “minacce” vengono definite secondo criteri incorporati nel modello. Chi li ha stabiliti? Con quali bias? Con quale trasparenza?

Accordo xAI Pentagono, Grook entra nei sistemi militari USA
Accordo xAI Pentagono, Grook entra nei sistemi militari USA

Altri precedenti problematici

La senatrice Warren ha sollevato preoccupazioni specifiche nella sua lettera al Pentagono. Musk ha promosso Grok come chatbot “non filtrato” e orientato alla “ricerca della verità” (truth-seeking) che non si conforma agli standard politicamente corretti.

Ma Grok è noto per fornire informazioni inaccurate quando interrogato su eventi storici e disastri naturali, inclusi nomi, date e dettagli sbagliati.

Giorni dopo che Musk aveva dichiarato sui social “miglioramenti significativi” al chatbot, Grok si autodefiniva “MechaHitler” e raccomandava un secondo Olocausto ad account neonazisti. La mancanza di filtri di sicurezza ha prodotto contenuti antisemiti e offensivi. Come ha osservato un esperto di sicurezza: “X è piena di fake news e visioni estremiste, non è ciò su cui vuoi che un LLM sia addestrato.”

E questa è l’IA che ora avrà accesso ai flussi informativi del Pentagono per fornire “consapevolezza situazionale globale”.

Le domande che resteranno senza risposta

Chi garantisce che i dati di X usati da Grok rappresentino una visione equilibrata della realtà e non una versione amplificata algoritmicamente? Chi verifica che i modelli e le minacce identificate non riflettano i bias del sistema di training?

Come viene gestito il conflitto di interessi di Musk, che con Starlink in zone di conflitto, SpaceX con contratti governativi, e ora un’IA che potrebbe influenzare le valutazioni di sicurezza nazionale su questi stessi dossier?

E per i partner NATO? L’intelligence condivisa con gli Stati Uniti passerà attraverso sistemi integrati con l’IA di Musk? Con quale trasparenza? E con quali garanzie?

Dall’algoritmo del proprietario all’IA del proprietario

Ho scritto spesso di come l'”algoritmo del proprietario” serva gli obiettivi strategici di chi controlla la piattaforma, non gli interessi degli utenti. Ma qui siamo a un livello successivo.

Non si tratta più solo di un algoritmo in mani private. È un’intera catena gestita da un singolo a servizio, ora, di apparati governativi.

X come piattaforma che genera flussi informativi globali in tempo reale, xAI e Grok come IA che processa e interpreta quei flussi, Starlink come infrastruttura di connettività anche in zone di conflitto. E ora l’integrazione diretta con l’apparato militare degli Stati Uniti.

È una forma di potere inedita: non statale, non puramente privata. Qualcosa di nuovo per cui forse non esiste ancora un nome adeguato.

Cosa significa tutto questo per l’Europa

L’Europa non ha equivalenti di X, xAI o Starlink. Questa asimmetria nell’infrastruttura cognitiva è un tema che diventerà sempre più urgente.

Non stiamo parlando solo di disinformazione o manipolazione elettorale. Stiamo parlando della possibilità che la percezione della realtà dell’apparato militare più potente del mondo sia mediata da un’infrastruttura privata, poco chiara, controllata da un singolo individuo con interessi economici e politici globali.

È un tema che richiederà analisi approfondite nei prossimi mesi. Perché quando l’IA non è più solo uno strumento ma diventa il filtro attraverso cui un’istituzione percepisce la realtà, le implicazioni vanno ben oltre l'”efficienza operativa”.

Nessun commento

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui