Un momento di forte imbarazzo all’India AI Impact Summit tra Sam Altman e Dario Amodei ha catturato l’attenzione di tutti. In realtà, alla base di quell’imbarazzo c’è uno scontro tra due modi diversi di intendere il futuro della IA.
New Delhi, 19 febbraio 2026, la città indiana dove si sta tenendo India AI Impact Summit, l’evento più importante dell’anno per quanto riguarda il settore dell’intelligenza artificiale.
Al Bharat Mandapam si sono dati appuntamento i CEO delle principali aziende tecnologiche del pianeta, con oltre 200 miliardi di dollari in promesse di investimento e l’attenzione dei media di tutto il mondo.
Sul palco, dopo i keynote, il premier indiano, e padrone di casa, Narendra Modi invita i tredici leader presenti a unire le mani in segno di coesione e collaborazione.
Un gesto per lo più pensato a favore delle telecamere, per celebrare l’unità di un settore che promette di cambiare il mondo. La folla applaude e tutti, o quasi, seguono l’indicazione di Modi.
Ma succede qualcosa su quel palco che finisce per rubare la scena.

L’imbarazzo tra Sam Altman e Dario Amodei
Sam Altman, CEO di OpenAI, e Dario Amodei, CEO di Anthropic, sono uno accanto all’altro.
Altman, che ha alla sua destra proprio il premier indiano Modi, abbassa lo sguardo, visibilmente imbarazzato, verso la mano di Amodei. C’è un breve momento di contatto visivo imbarazzato, poi entrambi evitano di guardarsi.
Amodei, anche lui indeciso su cosa fare, si guarda intorno con un gesto che sembra dire “chi, io?”. Per diversi secondi, che sembrano interminabili, i due evitano goffamente il contatto.
Alla fine, entrambi alzano un pugno chiuso invece di unire le mani.
Il video, ovviamente, fa il giro delle piattaforme nel giro di pochissimi minuti. In molti lo descrivono come l’emblema della “AI cold war”, la guerra fredda dell’intelligenza artificiale.
“Non sapevo cosa stesse succedendo”, dirà poi Altman ai media indiani. “Ero confuso. Modi mi ha preso la mano e l’ha alzata, e non ero sicuro di cosa dovessimo fare.
Ma la confusione di Altman è difficile da credere. Quei due pugni alzati separatamente raccontano invece una storia che inizia cinque anni prima, in una sala riunioni di San Francisco. E che nelle ultime settimane è esplosa in uno scontro pubblico senza precedenti.
An awkward moment between OpenAI CEO Sam Altman and Anthropic CEO Dario Amodei at an AI Summit Thursday captured the increasingly icy relations between two rival tech leaders who started off as colleagues. https://t.co/HR4E8B4e3C pic.twitter.com/jjpbmkBh34
— FORTUNE (@FortuneMagazine) February 19, 2026
La scissione e la nascita di Anthropic
Amodei, come molti già sapranno, ha lavorato sotto Altman a OpenAI dal 2016 al 2020, come vicepresidente della ricerca. Si è concentrato sulla sicurezza, ha avuto un ruolo chiave nel lancio di GPT-2 e GPT-3, ha co-inventato il “reinforcement learning from human feedback”, la tecnica che usa l’input umano per addestrare i modelli linguistici a produrre risultati migliori.
Ma poi qualcosa si rompe, cosa che succede in tutte le storie aziendali.
Amodei, insieme a un piccolo gruppo di colleghi, inizia a preoccuparsi per la direzione che sta prendendo OpenAI. La tensione riguarda un aspetto fondamentale. Lo sviluppo dell’intelligenza artificiale deve dare priorità alla velocità per conquistare il mercato, oppure procedere con cautela, investendo nella ricerca sulla sicurezza prima di rilasciare nuovi modelli?
Per Amodei la risposta è chiara. In un’intervista ha spiegato che semplicemente scalare i modelli con più potenza di calcolo non basta: “Serviva qualcosa in aggiunta allo scaling, ovvero l’allineamento o la sicurezza.”
“Prendi alcune persone di cui ti fidi e vai a realizzare la tua visione“, si disse Amodei, piuttosto che continuare a discutere all’interno di un’organizzazione dove altri avevano il potere decisionale.
E così, nel 2021, lascia OpenAI insieme alla sorella Daniela e una dozzina di ex colleghi. Fondano Anthropic con una missione precisa: mettere la sicurezza al primo posto.
Da allora la frattura tra i due si è trasformata in una guerra commerciale che riflette due visioni opposte del futuro.
OpenAI CEO Sam Altman and Anthropic CEO Dario Amodei visibly declined to hold hands during a group photo at the India AI Impact Summit, even as other leaders on stage linked arms for the ceremonial shot pic.twitter.com/J1eGShSkiK
— Reuters (@Reuters) February 19, 2026
Due modi di vedere il futuro della IA
Da una parte c’è chi guarda già oltre l’AGI, l’intelligenza artificiale generale, verso la superintelligenza.
Altman ha scritto che “strumenti superintelligenti potrebbero accelerare massicciamente la scoperta scientifica e l’innovazione ben oltre ciò che siamo capaci di fare da soli.” Sa che suona come fantascienza, ammette che sembra quasi folle parlarne. Ma non gli importa: “Ci siamo già passati e siamo a nostro agio nel tornarci.”
Dall’altra c’è chi dedica il suo tempo a parlare dei pericoli. Amodei ha detto in un’intervista televisiva: “Mi preoccupo molto delle incognite. Non credo che possiamo prevedere tutto con certezza. Ma proprio per questo stiamo cercando di prevedere tutto ciò che possiamo. Pensiamo agli impatti economici dell’IA. Pensiamo all’uso improprio. Pensiamo alla perdita di controllo del modello.”
E ha scritto qualcosa di insolito per il CEO di un’azienda del settore: “È un po’ imbarazzante dirlo come CEO di un’azienda IA, ma penso che il prossimo livello di rischio siano proprio le stesse aziende IA. Controllano grandi data center, addestrano modelli di frontiera, e in alcuni casi hanno contatto quotidiano con decine o centinaia di milioni di utenti. Potrebbero usare i loro prodotti per fare il lavaggio del cervello alla loro enorme base di utenti.“
La domanda che sta dietro a tutto questo l’ha posta un giornalista in un’intervista: “Nessuno ha scelto questo. Chi ha eletto te e Sam Altman?” La risposta di Amodei è stata disarmante: “Nessuno, onestamente nessuno. E questa è una ragione per cui ho sempre sostenuto una regolamentazione responsabile della tecnologia.”
Lo scontro tra OpenAI e Anthropic al Super Bowl
La rivalità filosofica è diventata guerra aperta poche settimane fa. OpenAI ha annunciato che inizierà a testare la pubblicità all’interno di ChatGPT per gli utenti gratuiti.
Anthropic, dal canto suo, ha risposto durante il Super Bowl con una serie di spot satirici che prendevano di mira questa decisione.
Ogni spot si apriva con una singola parola a tutto schermo: “tradimento”, “inganno”, “slealtà”, “violazione”. In ciascuno di essi, persone comuni che cercavano consigli da un assistente IA venivano interrotte da pubblicità indesiderate. Il messaggio di fondo era: noi non lo faremo mai.
Altman ha risposto con un lungo post su X, accusando gli spot di essere “ingannevoli” e definendo Anthropic un’azienda “autoritaria”. Ha ammesso di aver trovato gli spot “divertenti”, come a voler convincere che sapeva stare allo scherzo.
Ma poi ha rincarato la dose: “Anthropic serve un prodotto costoso a persone ricche. Più texani usano ChatGPT gratis di quante persone in totale usino Claude negli USA.”
Lo scontro va oltre il marketing. Anthropic ha annunciato un investimento di 20 milioni di dollari in un super PAC che si oppone a un altro super PAC vicino a OpenAI. Da una parte si combatte per una regolamentazione più forte dell’intelligenza artificiale, dall’altra si preferisce un approccio laissez-faire.
Ed è in questo clima che i due si sono ritrovati uno accanto all’altro sul palco di New Delhi, per tornare al tema di questo articolo.
Un’immagine imbarazzante che in realtà dice tutto
Durante i loro interventi al Summit, i messaggi hanno preso strade divergenti. Amodei ha parlato dei “rischi seri” legati ai sistemi IA avanzati: comportamento autonomo, uso improprio da parte di governi e malintenzionati, spostamento economico.
Altman ha sostenuto che la sicurezza dell’IA deve includere la “resilienza sociale” e che “nessun laboratorio IA può garantire un buon futuro da solo.”
Poi è arrivato il momento della foto di gruppo. E quei pugni alzati, invece delle mani unite, hanno detto più di qualsiasi altro discorso.
La frattura non riguarda solo due CEO o due aziende. Attraversa l’intero settore dell’intelligenza artificiale e mette al centro due modi di intendere la IA molto diversi.
Da una parte chi corre verso l’AGI puntando sulla velocità e sulla democratizzazione dell’accesso. Dall’altra chi frena e chiede tempo per capire che cosa stiamo costruendo.
Due visioni che necessitano comunque di regole
Due visioni che dovrebbero essere al centro, a questo punto, di qualsiasi dibattito nella società.
Se è vero, come è vero, che la IA sta correndo a velocità molto sostenuta; se è vero che le aziende stanno investendo moltissimo sulla IA, e già si parla di bolla per via di investimenti esagerati, è anche vero che questo fenomeno ancora non è molto regolamentato.
L’UE, dal canto suo, e nonostante le tante debolezze di tipo tecnologico e infrastrutturale, ha sicuramente indicato una strada con l’AI Act. Ma serve fare di più, e meglio.
Il problema è che provare a regolamentare meglio e a cercare di tenere il passo della IA in questa fase storica è molto complicato, per via delle grandi tensioni geopolitiche in atto.
Inevitabilmente, la IA diventa un terreno da coltivare ma anche un terreno di scontro per il fatto che in gioco ci sono interessi altissimi.
In mezzo a tutto questo, resta la domanda che nessuno ha ancora il coraggio di affrontare: ma chi è che ha dato a un pugno di ingegneri della Silicon Valley il diritto di decidere il futuro dell’IA e, quindi, dell’umanità?



Lascia un commento
Devi essere connesso per inviare un commento.