In questa categoria troverete articoli su Intelligenza Artificiale e Machine Learning, soprattutto su come queste tecnologie stanno evolvendosi, con esempi concreti
X ha ufficialmente limitato la creazione di immagini ai soli utenti Premium. Una mossa che non sorprende, ma che sposta semplicemente la violenza digitale dietro un abbonamento, confermando che la sicurezza per Elon Musk è un servizio accessorio e non un requisito strutturale.
Dopo le polemiche, inevitabili, X ha deciso finalmente di operare su quello che è diventata una grave emergenza. Il fenomeno della modifica delle immagini attraverso messaggi testuali a Grok (la IA di xAI) ha assunto dimensioni allarmanti e i dati che ho raccolto nell’articolo di ieri lo dimostrano.
Grok, la generazione di immagini su X solo per abbonati a Premium
Ebbene, il messaggio apparso agli utenti nelle ultime ore mostra questo atteso, ma comunque tardivo, cambio di passo: “La generazione e la modifica di immagini sono attualmente limitate agli abbonati paganti”. Questa restrizione arriva, ricordiamolo, dopo una settimana di critiche globali e pressioni senza precedenti da parte del governo britannico e della Commissione Europea.
Il messaggio di Grok in risposta alla richiesta di account non abbonati a X
Come abbiamo visto, la “spunta blu” non funziona come una sorta di filtro morale. L’utente che ha chiesto di manipolare l’immagine della donna uccisa a Minneapolis, un esempio che definisce il punto più basso di questa deriva tecnologica, era proprio un utente abbonato. Limitare l’accesso a chi paga significa ammettere che, una volta abbonato, la dignità delle persone rimane un territorio di conquista privo di filtri.
Grok e l’immagine della ragazza uccisa a MinneapolisGrok e l’immagine della ragazza uccisa a Minneapolis
I numeri allarmanti dell’emergenza su X
I dati, ricordati ieri, che emergono dalle ultime inchieste delineano un quadro di abuso sistemico che nessuna limitazione di accesso sembra aver ancora frenato:
6.700 immagini sessualizzate all’ora: è il ritmo di generazione rilevato da ricercatori citati da Bloomberg durante i picchi di attività di questa settimana.
3/4 delle richieste analizzate: secondo una ricerca del Trinity College di Dublino, circa il 75% dei prompt raccolti riguardava la richiesta di “denudare” o sessualizzare donne e minori.
800 contenuti pedopornografici o violenti: rintracciati dall’organizzazione AI Forensics tramite l’app “Grok Imagine”, che sembra mantenere maglie ancora più larghe rispetto all’interfaccia standard.
Bruxelles ha già chiarito che non accetterà soluzioni di comodo. Thomas Regnier, portavoce della Commissione Europea per il digitale, è stato categorico definendo i contenuti generati “disgustosi” e “illegali”, sottolineando che la narrazione di Musk su una “IA piccante” non ha basi giuridiche in Europa.
La Commissione ha già ordinato a X di conservare tutti i documenti interni e i dati relativi a Grok fino alla fine del 2026 per facilitare le indagini in corso. Il rischio per la piattaforma è altissimo:
Sanzioni DSA: dopo la multa di 120 milioni di euro ricevuta a dicembre 2025, X rischia ora sanzioni fino al 10% del fatturato globale.
Grok, la spunta blu non rende sicura la generazione di immagini
Oltre il paywall: la sicurezza come vantaggio competitivo
In definitiva, l’errore di fondo rimane la scelta di aver rilasciato in uso a chiunque uno strumento così potente senza alcun tipo di filtro semantico e contestuale. Lo spostamento della funzionalità dietro un paywall non è una misura di sicurezza, ma una monetizzazione dell’abuso. Oltre che una foglia di fico.
Il vero vantaggio competitivo per chi sviluppa Intelligenza Artificiale oggi non risiede nella “libertà assoluta” di generare orrori, ma nella capacità di costruire sistemi sicuri per design (safety-by-design).
Le aziende che sapranno garantire che la loro tecnologia non possa essere usata come arma di aggressione digitale saranno quelle in grado di procedere all’interno di un ecosistema normativo che, da oggi, non concede più sconti.
La situazione ormai si è trasformata in un’emergenza. Grok in pochi giorni ha generato 6.700 immagini sessualizzate all’ora. Vale a dire 84 volte più degli altri siti di deepfake. E le vittime non hanno strumenti per difendersi. L’ultimo caso riguarda anche la vicenda di Minneapolis.
Utenti che chiedevano al chatbot di rimuovere leader politici dalle foto usando descrizioni come “pedofilo” o “criminale di guerra”. Immagini di donne modificate per “svestirle” digitalmente. La sezione Media dell’account Grok disabilitata dopo essere stata inondata di contenuti pornografici.
Avevo scritto che il problema era strutturale. Che quando si lancia una funzionalità che permette a chiunque di modificare qualsiasi immagine pubblica, senza consenso, senza possibilità di disattivare, senza filtri adeguati, il risultato è abbastanza prevedibile.
Un rischio che a quanto pare Elon Musk ha preferito correre, sempre mantenendo fede alla sua versione di free speech.
Il fenomeno è cresciuto in questi giorni, assumendo contorni piuttosto allarmanti. Ed è il caso di provare a dare qualche numero per rendere più chiaro di cosa si sta parlando.
Ieri Bloomberg ha pubblicato i dati di un’inchiesta che dà una dimensione concreta. E i numeri sono peggiori di quanto si potesse immaginare.
Grok ha generato migliaia di immagini di nudo, e non solo
Su X 6.700 immagini sessuali all’ora generate da Grok
Per comprendere la portata, gli altri cinque principali siti per questo tipo di contenuti hanno registrato una media di 79 nuove immagini all’ora nello stesso periodo. Grok ne produce 84 volte di più.
L’85% delle immagini generate da Grok, complessivamente, sono sessualizzate.
Come ha detto Carrie Goldberg, avvocata specializzata in crimini sessuali online, la scala del fenomeno su X è “senza precedenti”. Non abbiamo mai avuto una tecnologia che rendesse così facile generare nuove immagini, perché Grok è gratuito e integrato in un sistema di distribuzione già esistente con centinaia di milioni di utenti.
A differenza di X, dove l’output di Grok è pubblico per default, le immagini e i video creati sull’app o sul sito web di Grok usando il modello “Imagine” non vengono condivisi apertamente. Ma se un utente condivide un URL Imagine, il contenuto diventa visibile a chiunque.
Wired ha analizzato un archivio di circa 1.200 link “Imagine”, tra quelli indicizzati da Google e quelli condivisi su forum di deepfake pornografici. Ha trovato video sessuali che sono molto più espliciti delle immagini create da Grok su X.
Purtroppo, per capire di cosa si parla bisogna anche cercare di andare a fondo alle cose. E spesso non è bello, ma è necessario.
Alcuni esempi di Grok Image raccapriccianti
Un video fotorealistico ospitato su Grok.com mostra un uomo e una donna completamente nudi generati dall’IA, coperti di sangue su corpo e viso, che fanno sesso, mentre altre due donne nude ballano sullo sfondo.
Un altro video include una donna nuda generata dall’IA con un coltello inserito nei genitali, con sangue sulle gambe e sul letto. Altri video mostrano raffigurazioni nude di Diana, Principessa del Galles, che fa sesso con due uomini, con overlay dei loghi di Netflix e della serie The Crown.
Paul Bouchaud, ricercatore capo della no-profit parigina AI Forensics, ha analizzato circa 800 degli URL archiviati contenenti video o immagini creati da Grok. “Sono in modo schiacciante contenuti sessuali“, ha detto. “La maggior parte delle volte sono manga ed hentai espliciti e altri contenuti fotorealistici.”
Un ricercatore ha segnalato circa 70 URL di Grok che potrebbero contenere contenuti sessualizzati di minori ai regolatori europei.
Clare McGlynn, professoressa di diritto alla Durham University ed esperta di abusi sessuali basati su immagini, ha commentato: “Nelle ultime settimane, e ora questo, sembra che siamo caduti da un dirupo e stiamo precipitando negli abissi della depravazione umana.”
Le vittime non possono difendersi
Bloomberg, riportare i dati dell’analisi visti all’inizio, racconta diversi casi concreti. Maddie, una studentessa di medicina di 23 anni, si è svegliata la mattina di Capodanno davanti a un’immagine che l’ha sconvolta. Aveva pubblicato su X una foto con il fidanzato in un bar. Due sconosciuti l’hanno modificata usando Grok. Il primo ha chiesto di rimuovere il fidanzato e metterla in bikini. Il secondo ha chiesto di sostituire il bikini con un filo interdentale.
Maddie ha segnalato le immagini a X tramite i sistemi di moderazione. Non ha mai ricevuto risposta. Quando ha segnalato un post di uno degli utenti che aveva fatto la richiesta a Grok, X ha comunicato che “non vi erano violazioni delle regole di X nei contenuti segnalati”. Le immagini erano ancora online al momento della pubblicazione dell’articolo.
Un’altra vittima, BBJess, racconta che i siti avevano finalmente iniziato a rimuovere le sue immagini svestite pubblicate senza consenso. Ma Grok la scorsa settimana ha dato il via a una nuova ondata. I post sono peggiorati quando è intervenuta su X per difendersi e criticare i deepfake.
Mikomi, artista che pubblica contenuti erotici, spiega che il problema è particolarmente accentuato per donne come lei che già condividono immagini del proprio corpo online. Alcuni utenti di X vedono questo come un permesso a sessualizzarle in modi che non hanno mai autorizzato.
Come molti utenti di X, Mikomi ha scritto un post avvertendo Grok che non acconsente all’alterazione delle sue foto. “Non funziona”, ha detto. “Bloccare Grok non funziona. Niente funziona.” Non può abbandonare la piattaforma perché è vitale per il suo lavoro.
“Cosa dovrei fare? Vuoi che perda il mio lavoro?”
La differenza con gli altri chatbot
Come già sottolineato, a differenza di altri chatbot, Grok non impone limiti efficaci agli utenti e non li blocca dal generare contenuti sessualizzati di persone reali, compresi i minori.
Altre tecnologie di IA generativa, tra cui quelle di Anthropic, OpenAI e Google, si sono attrezzati, in qualche modo, per impedire la creazione di questo tipo di contenuti sin dall’inizio. Ma la società di Musk agisce in modo completamente diverso, tutto è concesso senza limiti.
Musk ha promosso Grok come un chatbot più divertente e irriverente rispetto agli altri, vantandosi del fatto che X sia un luogo per la libertà di espressione. Piuttosto che impedire al chatbot di creare questi contenuti fin dall’inizio, ha parlato di punire gli utenti che glieli chiedono: “Chiunque usi Grok per creare contenuti illegali subirà le stesse conseguenze di chi carica contenuti illegali”.
Ma questo non lascia molte opzioni alle vittime.
La risposta delle istituzioni UE
L’Unione Europea ha deciso di intervenire su questo caso.
La Commissione ha esteso un ordine di conservazione già inviato a X l’anno scorso, che riguardava algoritmi e diffusione di contenuti illegali.
È un passaggio che si inserisce in un percorso già avviato. Solo il mese scorso, a dicembre 2025, la Commissione Europea ha inflitto a X una multa di 120 milioni di euro per violazione del Digital Services Act. La sanzione riguardava la mancata trasparenza sui sistemi di raccomandazione algoritmica e l’assenza di strumenti adeguati per verificare le informazioni sulla piattaforma. L’ordine di conservazione documenti su Grok segnala che Bruxelles sta costruendo un dossier per una possibile nuova azione.
“Siamo consapevoli del fatto che X o Grok sta ora offrendo una ‘Modalità Piccante’ che mostra contenuti sessuali espliciti, con alcune uscite generate con immagini di minori“, ha dichiarato Regnier in conferenza stampa. “Questo non è piccante. Questo è illegale.”
Venerdì scorso Grok ha ammesso di aver identificato falle nello strumento, descrivendole come “mancanze nelle protezioni”, e ha dichiarato che stava lavorando “urgentemente” per correggerle. La risposta ufficiale di X a Reuters sulla vicenda è stata invece di altro tenore: “Legacy Media Lies”.
Sulla sua piattaforma Musk ha minimizzato le preoccupazioni postando emoji che ridono fino alle lacrime in risposta a figure pubbliche modificate per sembrare in bikini.
Nel frattempo, altri enti regolatori si stanno muovendo.
Ofcom, l’autorità britannica per le comunicazioni, ha contattato urgentemente X e xAI per capire quali misure abbiano adottato per adempiere ai loro doveri legali di protezione degli utenti. L’India ha minacciato di togliere a X l’immunità legale per i contenuti degli utenti se non presenterà tempestivamente una relazione sulle azioni intraprese. Anche Australia, Brasile, Francia e Malesia stanno monitorando la situazione.
Negli Stati Uniti la situazione è più complessa. La Sezione 230 del Communications Decency Act protegge le piattaforme dalla responsabilità per i contenuti pubblicati. Ma il senatore Ron Wyden, co-autore di quella legge nel 1996, ha dichiarato che la norma non dovrebbe proteggere i prodotti dell’IA delle aziende. “Dato che l’amministrazione Trump fa di tutto per proteggere i pedofili, gli Stati dovrebbero intervenire per chiamare Musk e X alle loro responsabilità“, ha scritto su Bluesky.
Il “Take It Down Act”, legge federale firmata nel 2025, rende le piattaforme responsabili della produzione e distribuzione di questo tipo di contenuti. Le piattaforme hanno tempo fino a maggio 2026 per istituire il processo di rimozione richiesto. Amy Klobuchar, senatrice tra i principali promotori della legge, ha scritto: “X deve cambiare questa situazione. Se non lo farà, il Take It Down Act presto glielo imporrà.”
Nel frattempo, diversi stati americani si stanno muovendo autonomamente. California, New Mexico e New York stanno valutando azioni legali.
C’è un dettaglio che rende la vicenda ancora più paradossale. Grok è un software utilizzato dal governo federale americano. Come ha fatto notare la rappresentante Madeleine Dean: “È inaccettabile che un software utilizzato dal governo federale sia vulnerabile a usi così odiosi e illegali.”
Filtri insufficienti e mancanza di rispetto
Nelle ultime ore, probabilmente nella giornata dell’8 gennaio, xAI sembrerebbe aver introdotto alcuni filtri. Le richieste più esplicite di nudità completa vengono ora bloccate. Nel senso che Grok su X non da seguito alla richiesta.
Ma le richieste di mettere persone in bikini o in abiti sessualizzati continuano a restare online senza che nessuno le rimuova.
Un caso emerso oggi mostra quanto questi filtri siano insufficienti.
Grok l’immagine folle della ragazza uccisa a Minneapolis
Un utente ha risposto ad un post dove era stata condivisia la foto della ragazza uccisa a Minneapolis, un caso che ha coinvolto l’ICE e sta facendo molto discutere. La foto ritraeva Renee Nicole Good ormai esanime.
Questo utenti ha utilizzao l’immagine per a Grok di “metterla in bikini”. Grok ha eseguito la richiesta senza opporre alcuna resistenza.
Grok e l’immagine della ragazza uccisa a MinneapolisGrok e l’immagine della ragazza uccisa a Minneapolis
Il post con la richiesta ha superato le 480.000 visualizzazioni. L’immagine generata da Grok ne ha raggiunto 427.000. Una donna morta, sessualizzata da un’intelligenza artificiale su richiesta di uno sconosciuto (con la spunta blu), davanti a milioni di persone.
Questo esempio è la sintesi di tutto. Non è solo la generazione di contenuti sessualizzati non consensuali. È la totale assenza di qualsiasi filtro contestuale. Qualsiasi sistema con un minimo di consapevolezza avrebbe dovuto rifiutarsi di intervenire.
Il problema è strutturale
Torniamo al punto che avevamo sollevato pochi giorni fa. Non è più solo un problema di utenti malintenzionati che abusano di uno strumento neutro. È un problema di architettura.
Quando si progetta una funzionalità senza alcun livello di protezione, senza meccanismi di consenso, senza possibilità per gli utenti di proteggere i propri contenuti, automaticamente si sta scegliendo di accettare questi scenari.
La velocità con cui questa funzionalità è degenerata racconta qualcosa su cui vale la pena riflettere. Dal lancio il 24 dicembre a oggi, 8 gennaio, sono passate due settimane. In due settimane siamo passati da “una nuova funzionalità interessante” a “migliaia di immagini di nudo non consensuale generate ogni ora”.
E questo ci riporta al concetto di algoritmo del proprietario. Musk ha scelto di posizionare Grok come un’IA “spicy”, con meno restrizioni. Ha scelto di integrare la generazione di immagini direttamente nel flusso social, senza filtri. Ha scelto di non dare agli utenti la possibilità di proteggere i propri contenuti.
Queste sono scelte. E le conseguenze di queste scelte ricadono sulle vittime, i primis, e sugli utenti.
Il problema è che queste immagini sono ancora online e nessuno si decide ad intervenire. Men che meno il proprietario della piattaforma.
Il Pentagono ha annunciato un accordo con xAI per integrare Grok nei sistemi di difesa USA. L’IA di Musk avrà accesso diretto ai flussi di contenuti condivisi su X. Le modalità dell’accordo e la stessa possibile integrazione sollevano interrogativi su dati, controllo e trasparenza.
Il rilascio è previsto per l’inizio del 2026 e coinvolgerà circa tre milioni di dipendenti militari e civili del Dipartimento della Difesa.
A prima vista, potrebbe sembrare una notizia come tante nell’era dell’IA generativa. Ma guardando più da vicino emergono elementi che meritano qualche approfondimento in più. Perché questa non è semplicemente l’adozione di un nuovo strumento tecnologico da parte dell’esercito americano. In questi casi siamo oltre, e si entra nella sfera dell’inedito.
Cosa prevede l’accordo tra il Pentagono e xAI
Grok opererà a Impact Level 5 (IL5), il livello di sicurezza che consente la gestione di Controlled Unclassified Information (CUI). Si tratta di informazioni sensibili ma non classificate.
Ossia, dati personali dei dipendenti, informazioni su infrastrutture critiche, dettagli operativi non segreti, comunicazioni interne governative. Singolarmente, questi dati non compromettono la sicurezza nazionale Usa, ma aggregati da un’IA possono rivelare elementi di una certa rilevanza.
All’interno del comunicato diramato si legge che gli utenti, militari e civili del DOW (Department of War)) avranno accesso a “insight globali in tempo reale dalla piattaforma X”, fornendo al personale del Dipartimento della Guerra quello che viene definito un “vantaggio informativo decisivo” e una “consapevolezza situazionale globale”. È prevista anche una possibile estensione futura a “carichi di lavoro classificati”.
Il valore del contratto è di 200 milioni di dollari, parte di accordi più ampi che includono anche OpenAI, Google e Anthropic. Ma qui emerge già un primo elemento di criticità.
Accordo tra xAI e il Pentagono, Grok entra nei sistemi militari
Non esiste alcuna separazione tra Grok e X
Questo è il nodo che distingue l’accordo Pentagon-xAI da qualsiasi altra partnership tra governo e aziende di IA. Grok non è un modello isolato. È un sistema profondamente integrato con la piattaforma X, e questa integrazione opera su più livelli.
Training sui dati di X
Grok viene addestrato sui post di X con un opt-in automatico attivato di default, senza informare gli utenti. L’impostazione è nascosta nelle opzioni di privacy e disattivabile solo da desktop.
Secondo le policy della piattaforma, X può “utilizzare post, interazioni utente, input e risultati con Grok per training e fine-tuning, condividendoli con xAI”.
Accesso in tempo reale
Grok integra le API di X, processa nuovi tweet via WebSocket per aggiornamenti istantanei, non batch processing. Usa endpoint come GET /2/tweets/search/stream, GET /2/tweets/sample/stream, GET /2/trends/place.
L’algoritmo di X determina quali contenuti hanno visibilità sulla piattaforma, e quindi quali dati alimentano Grok. In virtù di questo accordo, l’intelligenza artificiale Grok entra nel Pentagono con accesso diretto a quei flussi.
Fermiamoci su questo passaggio. Dunque, il Pentagono userà un’IA per identificare minacce basandosi su dati provenienti da una piattaforma il cui algoritmo è progettato non per rappresentare la realtà, ma per massimizzare l’engagement.
E quello stesso algoritmo è controllato dalla stessa persona che controlla l’IA.
Non è solo un conflitto di interessi. È una struttura in cui la percezione della realtà dell’apparato militare più potente del mondo passa attraverso un filtro privato, opaco, potenzialmente manipolato.
I “vasti dataset” menzionati sono in realtà contenuti di X già filtrati dall’algoritmo. I “pattern” identificati saranno pattern di una realtà distorta, se l’algoritmo amplifica certi contenuti e ne sopprime altri. Le “minacce” vengono definite secondo criteri incorporati nel modello. Chi li ha stabiliti? Con quali bias? Con quale trasparenza?
Accordo xAI Pentagono, Grook entra nei sistemi militari USA
Altri precedenti problematici
La senatrice Warren ha sollevato preoccupazioni specifiche nella sua lettera al Pentagono. Musk ha promosso Grok come chatbot “non filtrato” e orientato alla “ricerca della verità” (truth-seeking) che non si conforma agli standard politicamente corretti.
Ma Grok è noto per fornire informazioni inaccurate quando interrogato su eventi storici e disastri naturali, inclusi nomi, date e dettagli sbagliati.
Giorni dopo che Musk aveva dichiarato sui social “miglioramenti significativi” al chatbot, Grok si autodefiniva “MechaHitler” e raccomandava un secondo Olocausto ad account neonazisti. La mancanza di filtri di sicurezza ha prodotto contenuti antisemiti e offensivi. Come ha osservato un esperto di sicurezza: “X è piena di fake news e visioni estremiste, non è ciò su cui vuoi che un LLM sia addestrato.”
E questa è l’IA che ora avrà accesso ai flussi informativi del Pentagono per fornire “consapevolezza situazionale globale”.
Le domande che resteranno senza risposta
Chi garantisce che i dati di X usati da Grok rappresentino una visione equilibrata della realtà e non una versione amplificata algoritmicamente? Chi verifica che i modelli e le minacce identificate non riflettano i bias del sistema di training?
Come viene gestito il conflitto di interessi di Musk, che con Starlink in zone di conflitto, SpaceX con contratti governativi, e ora un’IA che potrebbe influenzare le valutazioni di sicurezza nazionale su questi stessi dossier?
E per i partner NATO? L’intelligence condivisa con gli Stati Uniti passerà attraverso sistemi integrati con l’IA di Musk? Con quale trasparenza? E con quali garanzie?
Dall’algoritmo del proprietario all’IA del proprietario
Ho scritto spesso di come l’”algoritmo del proprietario” serva gli obiettivi strategici di chi controlla la piattaforma, non gli interessi degli utenti. Ma qui siamo a un livello successivo.
Non si tratta più solo di un algoritmo in mani private. È un’intera catena gestita da un singolo a servizio, ora, di apparati governativi.
X come piattaforma che genera flussi informativi globali in tempo reale, xAI e Grok come IA che processa e interpreta quei flussi, Starlink come infrastruttura di connettività anche in zone di conflitto. E ora l’integrazione diretta con l’apparato militare degli Stati Uniti.
È una forma di potere inedita: non statale, non puramente privata. Qualcosa di nuovo per cui forse non esiste ancora un nome adeguato.
Cosa significa tutto questo per l’Europa
L’Europa non ha equivalenti di X, xAI o Starlink. Questa asimmetria nell’infrastruttura cognitiva è un tema che diventerà sempre più urgente.
Non stiamo parlando solo di disinformazione o manipolazione elettorale. Stiamo parlando della possibilità che la percezione della realtà dell’apparato militare più potente del mondo sia mediata da un’infrastruttura privata, poco chiara, controllata da un singolo individuo con interessi economici e politici globali.
È un tema che richiederà analisi approfondite nei prossimi mesi. Perché quando l’IA non è più solo uno strumento ma diventa il filtro attraverso cui un’istituzione percepisce la realtà, le implicazioni vanno ben oltre l’”efficienza operativa”.
Accenture e Anthropic annunciano una partnership pluriennale per accelerare l’adozione dell’IA su scala enterprise, con un Business Group dedicato, nuove offerte per i CIO e soluzioni per settori regolamentati.
Accenture e Anthropic annunciano un rafforzamento significativo della loro collaborazione con l’obiettivo di accompagnare le imprese nel passaggio dai progetti pilota di intelligenza artificiale a un’adozione su larga scala, strutturata e sostenibile. L’accordo, di natura pluriennale, si traduce in un investimento rilevante in competenze, soluzioni e capacità di go-to-market, e segna un ulteriore passo nel percorso di integrazione dell’IA nei processi core delle organizzazioni.
Al centro dell’intesa c’è la creazione dell’Accenture Anthropic Business Group, un nuovo gruppo dedicato che coinvolgerà circa 30.000 professionisti Accenture, formati in modo specifico sull’utilizzo dei modelli Claude di Anthropic. L’iniziativa mira a costruire uno dei più grandi ecosistemi al mondo di esperti Claude, in grado di supportare le aziende nel passaggio rapido dalla sperimentazione alla produzione.
Secondo Julie Sweet, Chair e CEO di Accenture, l’espansione della partnership consentirà ai clienti di accelerare l’utilizzo dell’IA come leva di reinvenzione organizzativa, integrandola in modo responsabile e rapido nei processi aziendali. La combinazione tra le capacità dei modelli Claude e l’esperienza di Accenture in ambito IA, industriale e funzionale viene indicata come elemento chiave per stimolare innovazione, nuove opportunità di crescita e maggiore fiducia nell’adozione dell’IA.
Dario Amodei, CEO e co-fondatore di Anthropic, sottolinea come le imprese abbiano oggi bisogno sia di modelli di intelligenza artificiale avanzati sia delle competenze necessarie per implementarli su scala enterprise. In questo contesto, l’utilizzo esteso di Claude Code da parte di decine di migliaia di sviluppatori Accenture rappresenta, per Anthropic, la più ampia implementazione mai realizzata dei propri strumenti di coding.
Accenture e Anthropic, accordo per accelerare l’innovazione delle aziende
Nasce l’Accenture Anthropic Business Group
Il nuovo Business Group rende Anthropic uno dei partner strategici di Accenture. I 30.000 professionisti coinvolti riceveranno una formazione dedicata su Claude, inclusi ingegneri specializzati nell’integrazione dei modelli negli ambienti dei clienti. I team uniranno le competenze di Accenture in ambito IA, industria e funzioni aziendali con i modelli Claude e Claude Code di Anthropic, facendo leva anche sulle partnership cloud già consolidate.
Particolare attenzione viene riservata ai settori regolamentati, come servizi finanziari e sanità, per i quali Accenture metterà a disposizione playbook specifici. Per le organizzazioni, questo approccio si traduce in implementazioni più rapide e con minori rischi, grazie alla possibilità di accedere a competenze già pronte anziché costruire capacità di IA partendo da zero.
Una nuova offerta per i CIO e lo sviluppo software potenziato dall’IA
Accenture e Anthropic lanceranno inoltre una nuova offerta congiunta rivolta ai CIO, progettata per misurare il valore e scalare lo sviluppo software potenziato dall’IA nelle funzioni di ingegneria. Si tratta del primo prodotto derivante dalla collaborazione e propone un percorso strutturato per trasformare il modo in cui il software enterprise viene progettato, sviluppato e mantenuto.
Claude Code viene posizionato al centro del ciclo di vita dello sviluppo software, integrato con tre capacità chiave di Accenture: un framework per la misurazione della produttività reale e del ROI, la riprogettazione dei workflow per team di sviluppo orientati all’IA, e programmi di gestione del cambiamento e formazione che evolvono insieme alla tecnologia.
L’obiettivo dichiarato è trasformare i guadagni di produttività degli sviluppatori in impatto aziendale diffuso, attraverso rilasci più rapidi, cicli di sviluppo più brevi e una maggiore capacità di portare nuovi prodotti sul mercato in tempi anticipati. Il comunicato evidenzia come Claude sia già utilizzato da centinaia di migliaia di aziende e come Claude Code consenta agli sviluppatori junior di raggiungere livelli di produttività comparabili a quelli senior, riducendo significativamente i tempi di onboarding, mentre gli sviluppatori più esperti possono concentrarsi su attività a maggior valore.
Soluzioni dedicate per i settori regolamentati
La partnership prevede anche lo sviluppo di soluzioni verticali per settori altamente regolamentati, tra cui servizi finanziari, life sciences, sanità e settore pubblico. In questi contesti, le organizzazioni devono affrontare contemporaneamente la modernizzazione dei sistemi e il rispetto di requisiti stringenti in termini di sicurezza e governance.
Nel settore finanziario, la capacità di Claude di analizzare documenti complessi e di grandi dimensioni, unita all’esperienza normativa di Accenture, supporta l’automazione dei workflow di compliance e decisioni più rapide in contesti ad alta criticità. In ambito sanitario e life sciences, l’integrazione tra le competenze di Accenture e le capacità analitiche di Claude consente ai ricercatori di interrogare dataset proprietari, generare protocolli sperimentali e semplificare la gestione delle sperimentazioni cliniche. Nel settore pubblico, vengono citati agenti IA progettati per aiutare i cittadini a orientarsi tra servizi complessi, garantendo al contempo privacy e conformità normativa.
Un approccio condiviso all’IA responsabile
La collaborazione tra Accenture e Anthropic si fonda su un impegno comune verso un’IA responsabile. I principi di “constitutional AI” di Anthropic vengono integrati con l’esperienza di Accenture nella governance dell’IA, con l’obiettivo di consentire alle imprese di implementare soluzioni sicure, trasparenti e affidabili.
Per favorire l’interazione diretta con le grandi organizzazioni globali, Accenture integrerà Claude nella propria rete di Accenture Innovation Hubs. Questi spazi fungeranno da ambienti controllati per la co-progettazione, la sperimentazione e la validazione di soluzioni IA prima della distribuzione su scala enterprise. Come parte del Business Group, è previsto anche il lancio di un Claude Center of Excellence all’interno di Accenture, dedicato allo sviluppo congiunto di soluzioni su misura per specifiche esigenze aziendali e settoriali.
L’accordo tra Accenture e Anthropic si inserisce così in una strategia più ampia di accompagnamento delle imprese verso un’adozione dell’intelligenza artificiale strutturata, misurabile e integrata nei processi chiave, con un’attenzione dichiarata a sicurezza, governance e responsabilità.
TIME nomina gli Architetti dell’IA Persona dell’Anno 2025. La copertina ricrea la foto iconica del 1932 con gli otto leader che stanno costruendo l’infrastruttura dell’intelligenza artificiale.
Undici operai seduti su una trave d’acciaio, i piedi sospesi nel vuoto a 260 metri sopra Manhattan. Era il 20 settembre 1932, nel pieno della Grande Depressione, e quella foto – “Lunch Atop a Skyscraper” – divenne il simbolo di un’America che costruiva il proprio futuro con le mani, mattone dopo mattone, grattacielo dopo grattacielo.
Novantatre anni dopo, TIME ha scelto di rievocare quell’immagine per raccontare un’altra rivoluzione. Sulla copertina del numero dedicato alla Persona dell’Anno 2025, gli operai sono stati sostituiti da otto figure in giacca e cravatta: i leader che stanno costruendo l’infrastruttura dell’intelligenza artificiale.
Non più acciaio e cemento, ma chip, modelli linguistici, data center.
È una scelta coraggiosa con un messaggio chiaro. E cioè che ci troviamo nel mezzo di una trasformazione paragonabile a quella che ridisegnò lo skyline di New York un secolo fa. E non solo.
Siamo nel mezzo di una trasformazione simile a quella che cambiò il modo di lavorare, il modo di concepire il lavoro. Anche la IA sta cambiando il modo di lavorare e lo vedremo. Tutti temi alla base di questa scelta.
Gli Architetti dell’IA sono la Persona dell’Anno 2025 di TIME
Perché TIME ha scelto gli “Architetti dell’IA”
La motivazione ufficiale è diretta: “Per aver inaugurato l’era delle macchine pensanti, per aver stupito e preoccupato l’umanità, per aver trasformato il presente e trasceso il possibile“. Ma c’è di più.
Il 2025 è stato l’anno in cui l’intelligenza artificiale è passata da tecnologia emergente a infrastruttura pervasiva. ChatGPT ha superato gli 800 milioni di utenti settimanali attivi. L’84% degli studenti delle scuole superiori americane utilizza l’IA generativa per i compiti scolastici. E soprattutto, i modelli hanno smesso di limitarsi a rispondere: hanno iniziato a fare cose.
Nick Turley, responsabile di ChatGPT in OpenAI, lo spiega così nell’articolo di TIME: “Vedere ChatGPT evolversi da partner conversazionale a qualcosa che può andare a fare vero lavoro per te è una transizione molto, molto importante che la maggior parte delle persone non ha ancora registrato“.
È il passaggio dall’IA generativa all’IA agentica. E segna un cambio di paradigma.
La copertina: operai del 1932 e architetti del 2025
Da sinistra a destra: Mark Zuckerberg (Meta), Lisa Su (AMD), Elon Musk (xAI), Jensen Huang (Nvidia), Sam Altman (OpenAI), Demis Hassabis (Google DeepMind), Dario Amodei (Anthropic), Fei-Fei Li (Stanford Human-Centered AI Institute e World Labs).
Un parallelo evocativo. Nel 1932, quegli undici uomini rappresentavano una forza lavoro che stava letteralmente costruendo il futuro dell’America, con i muscoli, con il coraggio, spesso senza reti di sicurezza.
Nel 2025, questi otto leader stanno costruendo qualcosa di altrettanto monumentale: l’infrastruttura computazionale su cui poggerà l’economia dei prossimi decenni.
Ma c’è anche una differenza sostanziale. Gli operai del 1932 erano anonimi, ci sono voluti decenni per identificare anche solo due di loro. I costruttori del 2025 sono tra le persone più ricche e potenti del pianeta.
Jensen Huang, a 62 anni, guida l’azienda con la maggiore capitalizzazione al mondo. Elon Musk è l’uomo più ricco della Terra.
Il potere si è spostato. E la foto lo racconta senza bisogno di didascalie.
Chi sono gli otto “Architetti dell’IA”
Jensen Huang – CEO di Nvidia, l’azienda che produce i chip su cui gira praticamente tutta l’intelligenza artificiale contemporanea. Nvidia ha raggiunto i 5.000 miliardi di dollari di capitalizzazione. Huang è diventato consigliere informale di Donald Trump, che lo chiama regolarmente a tarda notte.
Sam Altman – CEO di OpenAI, l’azienda che ha lanciato ChatGPT nel novembre 2022 e ha innescato la corsa all’IA generativa. Nel 2025, OpenAI ha completato la trasformazione in azienda for-profit e si prepara a ricevere investimenti per 500 miliardi di dollari attraverso il progetto Stargate.
Elon Musk – Fondatore di xAI, l’ultima delle sue imprese, dedicata allo sviluppo di Grok. Ha costruito data center in tempi record. Rimane una figura controversa ma evidentemente centrale in questa fase.
Mark Zuckerberg – CEO di Meta, ha integrato chatbot AI in Instagram, WhatsApp e Facebook. Ha avviato una campagna aggressiva di acquisizione di talenti, offrendo ai migliori ingegneri di machine learning compensi superiori a quelli dei giocatori professionisti.
Lisa Su – CEO di AMD, sta costruendo un ecosistema software per competere con Nvidia. Nell’articolo di TIME dichiara: “Il 2025 è l’anno in cui l’IA è diventata davvero produttiva per le aziende“.
Demis Hassabis – CEO di Google DeepMind, il laboratorio che ha sviluppato AlphaFold (previsione della struttura delle proteine) e continua a guidare la ricerca fondamentale. Mantiene un approccio cauto sui rischi: “Non sappiamo ancora abbastanza sull’IA per quantificare effettivamente il rischio“.
Dario Amodei – CEO di Anthropic, l’azienda che sviluppa Claude e si posiziona come il laboratorio più attento alla sicurezza. Ha fatto una previsione che sta facendo discutere: l’IA potrebbe portare la disoccupazione al 20% nei prossimi cinque anni.
Fei-Fei Li – Co-direttrice dello Stanford Human-Centered AI Institute e fondatrice di World Labs. È l’unica accademica del gruppo, e rappresenta la voce della ricerca etica e dello sviluppo responsabile.
Gli Architetti dell’IA sono la Persona dell’Anno 2025 di TIME
Come cambia il lavoro con la IA
I numeri nell’articolo di TIME sono impressionanti. In Anthropic, Claude scrive fino al 90% del proprio codice. In Nvidia, strumenti come Cursor e Claude Code sono utilizzati dalla quasi totalità degli ingegneri. E questo ha permesso all’azienda di quadruplicare la produzione di chip raddoppiando solo il personale.
Satya Nadella, CEO di Microsoft, ha rivelato che il 30% del codice dell’azienda è ora scritto dall’IA. Contemporaneamente, oltre il 40% dei licenziamenti recenti ha riguardato ingegneri software.
Il World Economic Forum prevede che 92 milioni di posti di lavoro saranno eliminati entro il 2030. Ma anche che ne emergeranno 170 milioni di nuovi. Il saldo è positivo, ma il problema è la distribuzione: i nuovi lavori non saranno negli stessi luoghi, non richiederanno le stesse competenze, e non andranno alle stesse persone.
Jensen Huang offre una prospettiva diversa: “Alcuni lavori scompariranno. Ma finché la domanda è alta per quella particolare industria, sono abbastanza fiducioso che l’IA guiderà produttività, crescita dei ricavi e quindi più assunzioni“. E aggiunge una frase che sta diventando un mantra: “Se non usi l’IA, perderai il lavoro a favore di qualcuno che la usa“.
L’IA generativa lascia il passo all’IA agentica
È questo il passaggio cruciale che emerge dall’articolo di TIME e che definirà il 2026. I modelli linguistici hanno acquisito nuove capacità: memoria (ricordano le conversazioni precedenti), accesso a strumenti esterni (possono cercare sul web, consultare database, eseguire codice), connessione ad altre fonti dati (email, cloud, calendari).
Non si limitano più a generare testo. Ragionano, pianificano, eseguono.
IA Agentica
L’IA agentica – secondo la definizione di Gartner – è “un sistema di intelligenza artificiale autonomo che pianifica, ragiona e agisce per completare compiti con minima supervisione umana“.
La differenza rispetto all’IA generativa è sostanziale: mentre ChatGPT risponde a un prompt, un agente AI può prendere un obiettivo complesso, scomporlo in sotto-compiti, eseguirli in sequenza, adattarsi agli imprevisti.
BCG stima che gli agenti AI possano accelerare i processi aziendali del 30-50%. McKinsey parla di “paradigm shift”: otto aziende su dieci hanno implementato l’IA generativa, ma altrettante non hanno ancora registrato impatti significativi sui risultati. Gli agenti promettono di colmare questo divario.
Capgemini riporta che l’82% delle organizzazioni pianifica di integrare agenti AI entro il 2026. Gartner prevede che entro il 2028, il 33% delle applicazioni software aziendali incorporerà funzionalità agentiche — rispetto a quasi zero nel 2023.
La rivoluzione della IA e la questione europea
C’è un’assenza evidente nella copertina di TIME: l’Europa.
Otto figure, tutte americane (con l’eccezione di Hassabis, britannico) o cinesi di formazione americana. Nessun europeo.
Non è un caso. L’articolo dedica ampio spazio alla competizione tra Stati Uniti e Cina. Il rilascio di DeepSeek a gennaio, definito “il momento Sputnik di Pechino“, ha scosso la Silicon Valley e accelerato la corsa. Ma l’Europa compare solo come spettatrice regolatrice.
È una fotografia impietosa della nostra posizione. L’Unione Europea ha il Digital Services Act, l’AI Act, un quadro normativo avanzato.
Ma non ha Nvidia, non ha OpenAI, non ha Anthropic. Non ha le infrastrutture adeguate per permettere che ci sia una “Nvidia” europea.
Il quesito che dovremmo porci è se la regolamentazione (per quanto necessaria ovviamente), da sola, sia sufficiente a garantirci un ruolo in questa trasformazione. O se rischiamo di diventare consumatori di un’infrastruttura progettata e controllata altrove.
Cosa succederebbe se l’Europa venisse isolata dal punto di vista digitale e tecnologico? Quale sarebbe il piano B?
Rivoluzione IA, rischi e opportunità
L’articolo di TIME non nasconde i rischi. Cita i casi di suicidio legati all’interazione con chatbot, il fenomeno della “psicosi da chatbot”, l’uso di deepfake per la disinformazione. Papa Leone XIV ha avvertito che l’IA potrebbe “manipolare i bambini e servire ideologie antiumane“.
Dario Amodei stima che l’IA potrebbe portare la disoccupazione al 20% nei prossimi cinque anni. Demis Hassabis ammette che “c’è ancora un rischio significativo” nel non sapere se sarà facile mantenere il controllo di questi sistemi.
Trump ha riassunto lo spirito del momento parlando direttamente a Huang durante una visita nel Regno Unito: “Non so cosa stai facendo qui. Spero che tu abbia ragione”.
Il senso della copertina del TIME
“Lunch Atop a Skyscraper” fu scattata come foto promozionale per il Rockefeller Center. Una trovata pubblicitaria mascherata da momento spontaneo. Divenne il simbolo di un’epoca.
La copertina di TIME del 2025 compie un’operazione simile. È una celebrazione, certo, ma anche un documento. Fissa un momento in cui il potere di plasmare il futuro si è concentrato nelle mani di poche persone. E questo concetto viene fissato con un’immagine che, come l’originale, rimarrà negli archivi.
Nel 1932, quegli operai costruivano un grattacielo. Nel 2025, questi architetti costruiscono qualcosa di più ambizioso: l’infrastruttura su cui poggerà il pensiero automatizzato, l’economia algoritmica, forse la prossima fase della civiltà umana.
È una responsabilità enorme. E la foto, con quegli otto leader (sei uomini e due donne) sospesi nel vuoto sopra Manhattan, lo racconta meglio di qualsiasi editoriale.
Accenture diventa partner di OpenAI per l’adozione dell’AI agentica nelle aziende. In Italia, secondo l’AD Teodoro Lio, si punta sulla digitalizzazione del patrimonio di conoscenza industriale.
Accenture e OpenAI hanno siglato un accordo strategico che ridefinisce il modo in cui l’intelligenza artificiale generativa arriverà nel tessuto produttivo globale. Si tratta di un’alleanza strutturata per accelerare l’adozione dell’AI su larga scala, con numeri che danno la misura dell’investimento.
In virtù di questo accordo, 30.000 professionisti Accenture verranno formati sulle tecnologie OpenAI, mentre un gruppo dedicato lavorerà allo sviluppo di soluzioni pensate per settori specifici.
Il senso dell’operazione lo chiarisce Julie Sweet, Chair e CEO di Accenture: l’obiettivo è aiutare i clienti a passare dalla sperimentazione all’implementazione concreta, integrando l’AI nei processi core del business.
Accenture e OpenAI, partnership per la IA Agentica
Fidji Simo, CEO of Applications di OpenAI, sottolinea il ruolo di Accenture nell’accompagnare le aziende nell’adozione delle tecnologie che definiscono ogni nuova era, un riconoscimento del valore della consulenza come ponte tra innovazione e impresa.
Sul piano operativo, l’accordo si articola su più fronti. Accenture LearnVantage, la piattaforma di formazione del gruppo, integrerà i contenuti di OpenAI Academy per costruire competenze diffuse.
Le soluzioni sviluppate copriranno ambiti chiave: customer experience, software engineering, operations e gestione dei talenti. L’idea è quella di creare strumenti verticali, calibrati sulle esigenze specifiche di industry diverse.
Cosa significa l’accordo per l’Italia
Teodoro Lio – AD Accenture Italia
Per l’Italia, la partnership assume un significato particolare. Teodoro Lio, Amministratore Delegato di Accenture Italia, inquadra l’opportunità in termini netti: “Le organizzazioni italiane hanno oggi un’occasione decisiva: utilizzare l’intelligenza artificiale per creare nuovo valore nei processi, nei servizi e nelle esperienze dei clienti.“
La chiave, secondo Lio, sta nell’accelerare la digitalizzazione del patrimonio di conoscenza che rende unico il sistema industriale italiano, colmando il divario nell’adozione dell’AI e valorizzando la combinazione tra capacità umane e intelligenza aumentata.
“Questa è la leva che può rafforzare la competitività delle nostre eccellenze – industriali, creative, scientifiche – e trasformare la conoscenza in valore per un’innovazione duratura.”
Grazie alla collaborazione con OpenAI, conclude Lio, Accenture continuerà a mettere a disposizione tecnologie e competenze per accompagnare le organizzazioni italiane nel loro percorso di reinvenzione e nel consolidamento della competitività internazionale.
Un accordo in un momento particolare per la IA Generativa
L’accordo tra Accenture e OpenAI si inserisce in una fase in cui il mercato dell’AI generativa sta rapidamente maturando. La corsa non è più solo alla tecnologia migliore, ma alla capacità di implementarla in modo efficace nei contesti reali.
Le grandi società di consulenza diventano così attori chiave di questa transizione, fungendo da ponte tra i laboratori di ricerca e le sale riunioni dove si prendono le decisioni di business.
Per le aziende italiane, la domanda da porsi è relativamente semplice: come sfruttare questa finestra di opportunità senza restare spettatori? La risposta, probabilmente, sta proprio in quel mix di competenze umane e intelligenza artificiale che Lio descrive. Il patrimonio di conoscenza c’è e gli strumenti per valorizzarlo, adesso, anche.
Tre anni fa OpenAI lanciava ChatGPT. E tre anni dopo, un articolo del Financial Times e i dati Similarweb fotografano un cambio di scenario che nessuno avrebbe immaginato. Google sorpassa OpenAI e Altman dichiara “code red”.
Tre anni fa, esattamente il 30 novembre 2022, OpenAI lanciava ChatGPT introducendo a tutti la IA Generativa. In cinque giorni raggiunse un milione di utenti, esattamente il 5 dicembre 2022.
In due mesi arrivò a cento milioni di utenti attivi mensili, una velocità di crescita mai vista prima per nessuna piattaforma digitale.
Per capire la portata di quel fenomeno, basta un veloce confronto: TikTok ha impiegato 9 mesi per raggiungere 100 milioni di utenti, Instagram due anni e mezzo, Facebook quattro anni e mezzo. ChatGPT ha polverizzato ogni record, diventando il simbolo stesso dell’intelligenza artificiale generativa accessibile a tutti.
Con questi numeri ChatGPT è entrato in un club ristrettissimo, quello dei colossi digitali che hanno trasformato il modo in cui le persone interagiscono con la tecnologia. E lo ha fatto in soli tre anni, con una crescita che non ha precedenti nella storia di internet.
Il sorpasso di Google su OpenAI a tre anni dal lancio di ChatGPT
Il grafico di Similarweb che mostra il sorpasso
Partiamo da un dato concreto. Similarweb, una delle fonti più affidabili per l’analisi del traffico web, mostra l’evoluzione del tempo medio per visita sui tre principali chatbot AI: ChatGPT, Gemini di Google e Claude di Anthropic.
Ora, non stiamo parlando di numero di utenti, dove ChatGPT mantiene ancora il vantaggio assoluto con 800 milioni di utenti settimanali contro i 650 milioni mensili di Gemini. Stiamo parlando di coinvolgimento, quindi di engagemente. Ossia di quanto tempo le persone investono, in termini di tempo e attenzione, effettivamente usando questi strumenti.
E qui la differenza si fa interessante. Il tempo per visita misura la qualità dell’interazione, non solo la curiosità iniziale. Significa che gli utenti trovano ragioni concrete per restare, che le risposte reggono conversazioni più lunghe, che il valore percepito giustifica l’investimento di attenzione.
La rimonta di Google su OpenAI
E qui è utile fare un passo indietro.
Un anno fa molti analisti avevano messo in discussione gli sforzi di Google nell’AI generativa. Il lancio disastroso di Bard, gli errori nelle demo pubbliche, la paura che ChatGPT cannibalizzasse il motore di ricerca, la novità che potesse addirittura mettere in crisi l’impero Google.
Poi è successo qualcosa. La svolta è arrivata quest’anno, con la conferenza Google IO di maggio. Google ha presentato una serie di aggiornamenti convincenti, ha mostrato muscoli tecnologici che erano rimasti nascosti, ha dimostrato di avere una strategia integrata.
E poi è arrivato Nano Banana, il tool di editing fotografico con AI che è diventato virale durante l’estate. Sembra un dettaglio, ma non lo è: ha portato l’app mobile di Gemini da 400 milioni di utenti mensili a maggio a 650 milioni a ottobre.
La settimana scorsa Google ha lanciato Gemini 3, il suo ultimo modello di linguaggio. E, secondo le valutazioni tecniche, Gemini 3 ha superato GPT-5 di OpenAI su diversi benchmark chiave. Ha ottenuto miglioramenti nel processo di training che hanno eluso OpenAI negli ultimi mesi.
Marc Benioff, CEO di Salesforce, ha scritto su X: “Ho usato ChatGPT ogni giorno per tre anni. Ho appena passato due ore su Gemini 3. Non torno indietro. Il salto è folle, sembra che il mondo sia cambiato di nuovo.”
Holy shit. I’ve used ChatGPT every day for 3 years. Just spent 2 hours on Gemini 3. I’m not going back. The leap is insane — reasoning, speed, images, video… everything is sharper and faster. It feels like the world just changed, again. ❤️ 🤖 https://t.co/HruXhc16Mq
Ma qual è il vero vantaggio di Google? La risposta sta nell’approccio “full stack”, come viene definito.
Google ha addestrato Gemini 3 usando i propri chip personalizzati, le Tensor Processing Unit. Non ha dovuto dipendere dai costosissimi chip Nvidia che il resto dell’industria AI deve comprare, spesso con lunghe liste d’attesa.
Koray Kavukcuoglu, chief technology officer di DeepMind, lo spiega al Financial Times: “Essere in grado di connettersi con consumatori, clienti, aziende a quella scala è qualcosa che possiamo fare grazie all’approccio full stack integrato che abbiamo.“
E questo approccio include: chip proprietari, il motore di ricerca dominante al mondo, l’infrastruttura cloud di Google Cloud, gli smartphone Android, YouTube, Gmail. Un ecosistema completo dove integrare l’AI in miliardi di touchpoint già esistenti con gli utenti.
Il risultato? La capitalizzazione di mercato di Alphabet si sta avvicinando ai 4 trilioni di dollari per la prima volta.
Il sorpasso di Google su OpenAI a tre anni dal lancio di ChatGPT
La scommessa impossibile di OpenAI
E OpenAI? OpenAI è sotto pressione come mai prima.
Sam Altman, il CEO, ha inviato un memo interno allo staff già prima del lancio di Gemini 3. Il contenuto? “Dovremo restare concentrati attraverso la pressione competitiva a breve termine. Aspettatevi che le vibes là fuori siano difficili per un po’.” Il memo è stato riportato da The Information. E ora capiamo perché.
Sam Altman dichiara “code red”, cosa significa
Ma le “vibes difficili” sono diventate qualcosa di più concreto. Lunedì 2 dicembre 2025, appena tre giorni fa, Altman ha dichiarato uno stato di allerta interno. The Information riporta che il CEO ha inviato un nuovo memo ai dipendenti dichiarando “code red”: tutte le risorse devono concentrarsi sul miglioramento di ChatGPT di fronte alla crescente minaccia competitiva di Google e altri concorrenti AI.
Nel memo, Altman annuncia che altre iniziative, inclusa l’introduzione della pubblicità in ChatGPT, verranno ritardate per concentrarsi sul prodotto core.
L’ironia della situazione è evidente. L’analisi del codice della versione beta Android di ChatGPT (1.2025.329) mostra che il sistema pubblicitario è già pronto: ci sono riferimenti espliciti a “ads feature”, “search ad”, “search ads carousel” e “bazaar content”. OpenAI ha persino assunto oltre 600 ex dipendenti Meta, molti dei quali specializzati proprio in advertising.
La posizione di Altman sulla pubblicità è cambiata radicalmente nel tempo. Nel 2024 l’aveva definita “particolarmente inquietante” e una soluzione da “ultima spiaggia”. A giugno 2025 aveva ammorbidito il giudizio: “Non sono totalmente contrario. Penso che gli annunci su Instagram siano piuttosto interessanti.”
Ma proprio ora che tutto è tecnicamente pronto per lanciare gli ads, Altman dichiara “code red” e li rimanda. Ecco la pressione competitiva di Google, considerata come una minaccia che richiede di mettere in pausa tutto il resto, inclusa una fonte di ricavi già pronta.
Eppure il problema della monetizzazione resta urgente. OpenAI ha impegnato 1,4 trilioni di dollari nei prossimi otto anni per la potenza di calcolo. Ha stretto accordi enormi con Nvidia, Oracle, AMD, Broadcom. Un investimento che è ordini di grandezza superiore ai ricavi attuali dell’azienda.
Per finanziare questo progetto, i partner devono usare debito. Si tratta di una scommessa molto rischiosa per qualsiasi azienda.
OpenAI e gli ingenti investimenti
Ma il problema più grande è un altro. OpenAI deve trovare flussi di cassa sufficienti per sostenere quella scala di investimento. E al momento il modello di business non li garantisce.
Secondo le analisi finanziarie più recenti, OpenAI non ha una strada chiara verso la redditività fino al 2030 e necessiterebbe di oltre 207 miliardi di dollari aggiuntivi per sostenere i suoi sviluppi tecnologici.
L’azienda crede di poter attrarre centinaia di milioni di abbonati paganti a ChatGPT nei prossimi anni. Ma il piano a breve termine per generare più ricavi passa attraverso la pubblicità, qualcosa che ora viene rimandato proprio per rispondere alla pressione competitiva.
Il punto è che questo li porta dritti in un mercato già saturo, dominato da Meta e Alphabet. ChatGPT non ha ancora scalfito il dominio di Google nel mercato pubblicitario. E sta solo iniziando a integrare pubblicità e funzionalità di shopping nel chatbot.
Alcuni esperti dicono che OpenAI si è estesa troppo. Nell’ultimo anno hanno lanciato nuovi prodotti a ritmo frenetico: strumenti di programmazione automatizzata, l’app video Sora.
“OpenAI si sta disperdendo troppo,” dice un partner di un venture capital della Silicon Valley. “È impossibile per loro fare tutto bene.”
Anthropic, il terzo incomodo
E poi c’è Anthropic. Fondata nel 2021 da ex membri di OpenAI, sta raccogliendo un nuovo round di finanziamento che dovrebbe valutarla oltre 300 miliardi di dollari.
Claude, il chatbot di Anthropic, è rimasto nell’ombra rispetto al successo di massa di ChatGPT. Ma il focus storico di Anthropic sulla sicurezza dell’AI ha aiutato a creare uno strumento più affidabile per i clienti corporate, sostengono i suoi investitori. E i loro strumenti di coding sono considerati tra i migliori.
Anthropic vede il suo business in grande crescita in questo momento. Mentre OpenAI inseguiva i numeri assoluti di utenti consumer, Anthropic ha lavorato sul valore per cliente, sulla stabilità, sull’affidabilità.
La fase di maturazione della IA Generativa
Tre anni dopo il lancio di ChatGPT, il mercato dell’AI generativa sta uscendo da quella che era la fase pionieristica. Oggi non basta più essere stati i primi. Siamo nella fase di maturazione. Serve infrastruttura. Serve integrazione. Serve sostenibilità economica.
OpenAI adesso deve dimostrare che la sua scommessa da 1,4 trilioni ha senso economico, non solo tecnologico.
Come abbiamo visto, il tempo che le persone investono usando questi strumenti conta. L’engagement conta. E quel grafico di Similarweb lo racconta chiaramente: il sorpasso è già avvenuto.
Certo, concentrarsi sul coinvolgimento al momento è la strada quasi obbligata da seguire ma non è detto che sia quella giusta. L’esperienza delle piattaforme digitali è lì che ce lo dimostra chiaramente. Il rischio di snaturare perdendo di vista l’obiettivo è praticamente dietro l’angolo.
[L’immagine di copertina è stata realizzata da Franz Russo usando il modello di IA Generativa Gemini 3 – Nano Banana]
Dalla violenza online alla prevenzione clinica, la tecnologia offre strumenti concreti per proteggere le donne. La giornata contro la violenza sulle donne è l’occasione per conoscere chatbot e Intelligenza Artificiale che trasformano il digitale in alleato.
Quasi duemila casi sospetti di violenza sulle donne, rimasti invisibili ai registri ufficiali del sistema sanitario, sono stati identificati da un algoritmo. La verifica manuale su un campione ha confermato la correttezza delle predizioni nel 96% dei casi.
Non è fantascienza, è il progetto ViDeS (Violence Detection System) dell’Università di Torino, presentato proprio oggi, 25 novembre 2025, nella Giornata internazionale per l’eliminazione della violenza contro le donne.
La notizia, rilanciata da Euronews e Il Sole 24 Ore, rappresenta plasticamente il punto in cui ci troviamo. E cioè, la tecnologia, e in particolare l’intelligenza artificiale, dal ruolo di potenziale minaccia (deepfake, stalkerware, molestie online) passa anche a quello di alleato concreto nella prevenzione e nel contrasto della violenza di genere.
In pratica, la tecnologia e quindi anche la IA rivestono questo duplice ruolo di minaccia e alleato. E in questa giornata guardiamo insieme cosa davvero possono fare come alleati.
La violenza digitale comprende un ventaglio di comportamenti: diffusione non consensuale di immagini intime, cyberstalking, deepfake pornografici, discorsi d’odio, tracciamento delle attività tramite stalkerware.
Secondo le Nazioni Unite, il 95% degli abusi online avviene contro le donne, e nel 70% dei casi chi subisce violenza digitale subisce anche violenza fisica o sessuale dal partner.
Ma il costo umano, naturalmente, resta incalcolabile.
Violenza sulle donne: tecnologia e IA, i nuovi alleati
L’AI che “legge” i referti: il caso italiano ViDeS e PAUSE
Parlando di Intelligenza Artificiale in una giornata come questa, è il caso di segnalare progetti che nascono come valido aiuto per contrastare il fenomeno della violenza contro le donne.
Il sistema analizza automaticamente i referti del pronto soccorso per identificare lesioni di probabile origine violenta, anche quando l’anamnesi non lo dichiara esplicitamente.
Il modello è stato addestrato su circa 350-390mila referti dell’ospedale Mauriziano relativi al periodo 2015-2024. Il risultato? Un’accuratezza del 96-98% nell’identificare casi sospetti. Mentre nei registri ufficiali l’ospedale aveva annotato solo 900 casi di violenza, l’algoritmo ne ha segnalati quasi 2.000.
Il progetto si integra con PAUSE (Prevention of Assault Under Scientific Evidence), che aggiunge una dimensione dinamica. Infatti, non si limita a leggere un singolo referto, ma ricostruisce la cronologia degli accessi e dei traumi, analizzando frequenza, tipologia e variabilità delle spiegazioni fornite. Lo scopo è distinguere la fisiologia clinica dai segnali precoci di violenza domestica.
Come sottolinea Anna Maria Poggi, presidente della Fondazione CRT: “La tecnologia, quando è guidata da responsabilità e da una visione etica, può diventare un alleato prezioso nella tutela delle persone più vulnerabili.”
Chatbot e app: l’aiuto silenzioso che non lascia tracce
Se l’AI applicata ai dati sanitari lavora sulla prevenzione “a monte”, esiste un altro fronte: quello del supporto diretto alle donne in difficoltà.
E qui il digitale ha sviluppato strumenti che rispondono a un’esigenza concreta. Ossia quella di poter chiedere aiuto in silenzio, senza telefonate che possano essere intercettate dal maltrattante.
#NonPossoParlare
Sviluppato dall’Associazione Save the Woman in collaborazione con SPX Lab, Dotvocal e diversi centri antiviolenza liguri, #NonPossoParlare è un chatbot pensato per le donne che vivono con un maltrattante.
Funziona su smartphone, tablet o computer, simula una conversazione naturale con un operatore di centro antiviolenza, ed è disponibile 24 ore su 24, 7 giorni su 7. Soprattutto, non lascia tracce sul dispositivo.
Il sistema è stato sviluppato grazie all’esperienza diretta delle operatrici dei centri antiviolenza, che hanno “istruito” l’intelligenza artificiale sulle domande più frequenti delle donne che chiedono aiuto. La Città di Alessandria è stata il primo capoluogo di provincia in Italia ad adottarlo.
Durante il lockdown del 2020, i contatti via chat sono triplicati, passando da 829 a oltre 3.300 messaggi. Nel primo trimestre 2025 sono arrivate oltre 14.000 chiamate, ma il dato da tenere in considerazione è che il 75% delle vittime non ha poi sporto denuncia per paura delle reazioni dell’aggressore.
Come spiega Arianna Gentili, responsabile 1522 di Differenza Donna: “Una chat che non devo scaricare e che posso aprire e chiudere senza lasciare traccia va oltre la paura di essere rintracciate. L’anonimato aiuta a scardinare il pregiudizio che andare in un centro antiviolenza equivalga a sporgere denuncia.”
Mama Chat e YouPol
Mama Chat è il primo sportello europeo ad offrire assistenza psicologica online tramite chat gratuita e anonima, con psicologhe volontarie pronte all’ascolto.
YouPol, l’app della Polizia di Stato nata nel 2017 per contrastare bullismo e spaccio, ha aggiunto durante la pandemia la possibilità di segnalare violenza domestica.
Il caso spagnolo VioGén: 17 anni di valutazione del rischio
Il sistema valuta il grado di rischio delle donne che hanno denunciato violenza domestica, assegnando un punteggio che va da “trascurabile” a “estremo” e determinando l’intensità degli interventi di protezione.
Secondo le autorità spagnole, VioGén ha contribuito a una riduzione del 25% delle aggressioni.
Ma non è infallibile: un’inchiesta del New York Times ha riportato che su 98 casi di omicidio successivi a violenza domestica, 55 vittime erano state valutate come a rischio trascurabile o basso. Occorre quindi ricordare, ancora una volta, che l’AI può supportare il lavoro umano, ma non sostituirlo del tutto.
Il fronte della violenza digitale: deepfake, revenge porn e la risposta tecnologica
Se la tecnologia può essere alleata, può essere anche arma. I deepfake pornografici, le immagini manipolate con AI, i siti di “nudify” che spogliano virtualmente qualsiasi donna a partire da una foto. Sono fenomeni in crescita esponenziale che colpiscono soprattutto donne e ragazze e di recente ne sono stati scoperti diversi.
In Italia, la legge 132/2025 sull’intelligenza artificiale, in vigore dal 10 ottobre, ha introdotto il reato di diffusione illecita di contenuti generati o alterati con sistemi di AI (art. 612-quater del Codice penale).
PermessoNegato: 3,5 milioni di contenuti rimossi dal 2019
L’associazione PermessoNegato, nata nel 2019, è diventata una delle principali realtà europee nel contrasto alla diffusione non consensuale di materiale intimo.
L’associazione ad oggi ha gestito oltre 5.000 casi, di cui 2.500 solo nell’ultimo anno, per un totale di 3,5 milioni di contenuti rimossi dal web. PermessoNegato offre supporto tecnologico gratuito per l’identificazione, la segnalazione e la rimozione dei contenuti dalle piattaforme online.
La comunicazione che ribalta la narrativa: Una Nessuna Centomila e l’AI “buona”
La Fondazione Una Nessuna Centomila ha lanciato per il 2025 la campagna “La violenza virtuale è reale“, che usa per la prima volta l’intelligenza artificiale in modo creativo: una donna generata dall’AI per mostrare che “Questa donna non esiste, ma la violenza che subisce sì”.
È un ribaltamento intelligente. In un momento in cui l’AI viene usata per creare deepfake e sessualizzare le donne senza consenso, la campagna trasforma la stessa tecnologia in uno strumento di denuncia.
La campagna mira a veicolare il messaggio che se si può inventare, manipolare e sessualizzare un’immagine con un click, allora è necessario prendersi cura del linguaggio e degli sguardi, non dei corpi.
Oltre i confini: dall’Africa agli Stati Uniti
Il fenomeno è globale e le risposte si moltiplicano.
In Sudafrica, dove il tasso di femminicidi è cinque volte superiore alla media mondiale, l’imprenditrice Leonora Tima ha sviluppato Grit (Gender Rights in Tech), una delle prime app gratuite basate sull’AI per affrontare la violenza di genere, creata interamente da sviluppatori africani. Include un pulsante d’emergenza, una cassaforte digitale per conservare prove, e un chatbot chiamato Zuzi che offre ascolto e orientamento ai servizi.
Negli Stati Uniti, il Take It Down Act firmato nel maggio 2025 impone alle piattaforme online di rimuovere entro 48 ore immagini intime non consensuali, incluse quelle generate dall’AI.
In Europa, la Direttiva 2024/1385 introduce un quadro giuridico comune contro la violenza sulle donne, mentre il Digital Service Act impone obblighi più stringenti alle piattaforme sulla rimozione di contenuti illegali.
I numeri italiani: uno scenario che non migliora
Mentre la tecnologia avanza, i numeri della violenza in Italia restano drammatici.
Secondo l’Osservatorio di Non Una di Meno, al 22 novembre 2025 sono stati registrati 77 femminicidi nel 2025. L’Istat ricorda che circa 6,4 milioni di donne italiane tra i 16 e i 75 anni (il 31,9% della popolazione femminile in quella fascia d’età) ha subito almeno una violenza fisica o sessuale nella vita.
Gli autori della violenza sono italiani in 3 casi su 4, il 47,8% ha un lavoro stabile, e nella quasi totalità dei casi sono partner, ex partner o familiari.
Nel 2024 sono attive 60 case rifugio, in calo rispetto al 2023 a causa dell’instabilità dei finanziamenti.
Oltre la tecnologia, serve un cambiamento culturale
La tecnologia, da sola, non basta. Lo dicono tutti gli esperti che sono stati interpellati: l’AI può supportare, ma non sostituire la relazione di cura.
Può identificare pattern, segnalare rischi, rimuovere contenuti dannosi, offrire un primo ascolto anonimo. Ma la violenza di genere resta “un problema strutturale nella nostra società“, come ricorda Giulia Minoli, presidente di Una Nessuna Centomila, “ed è necessario avere un approccio sistemico e costruire un’alleanza con tutti i mondi possibili“.
La psicoterapeuta Gloriana Rangone, commentando il fenomeno dei deepfake, lo dice con chiarezza: “La tecnologia amplifica ciò che già esiste. Se una cultura è violenta, sessista, intrisa di disuguaglianza, l’IA non fa che renderla più visibile e più potente. La responsabilità resta nostra: di come educhiamo, di quali modelli di relazione trasmettiamo, di come trattiamo il corpo e il consenso.”
In questo 25 novembre 2025, la sfida è doppia. Usare ogni strumento tecnologico disponibile per proteggere le donne, e al tempo stesso lavorare su quel cambiamento culturale profondo senza il quale nessun algoritmo potrà mai essere sufficiente.
La tecnologia può riconoscere i segnali d’allarme quando c’è ancora tempo per intervenire. Ma spetta a noi decidere in che direzione vogliamo andare.
Risorse utili
1522 – Numero antiviolenza e antistalking (attivo 24/7, anche via chat e app)
PermessoNegato.it – Supporto gratuito per vittime di revenge porn e violenza online
Il down di Cloudflare ha bloccato gran parte del web, evidenziando ancora una volta la fragilità dell’infrastruttura digitale nell’era dell’intelligenza artificiale e della sua crescente pressione.
Nuovi messaggi di errore 500, pagine bianche e servizi inaccessibili. Non si trattava di un problema locale o di singole piattaforme in difficoltà. Il problema, stavolta, era causato da Cloudflare, l’infrastruttura invisibile che gestisce circa il 20% di tutto il traffico internet mondiale.
Quando in Italia erano circa le 12:20, un’ondata di down ha colpito nello stesso momento X, ChatGPT, Canva, Discord, League of Legends, PayPal, Spotify e centinaia di altri servizi. Per oltre un’ora, una porzione significativa del web è rimasta paralizzata, in quello che si configura come uno dei blackout più estesi degli ultimi mesi.
Un incidente che arriva a meno di un mese dal down di Amazon Web Services del 20 ottobre, e che solleva nuovamente interrogativi urgenti sulla fragilità dell’infrastruttura digitale nell’era dell’intelligenza artificiale.
Cronaca di un blackout annunciato
La prima segnalazione ufficiale è arrivata alle 11:48 UTC sulla pagina Cloudflare Status: “Cloudflare è consapevole di un problema che potrebbe impattare diversi clienti e sta indagando”. Una comunicazione vaga che nascondeva la portata reale del disastro.
Nel giro di pochi minuti, le segnalazioni su Downdetector sono schizzate a oltre 12.000 per la sola piattaforma X. E a quel punto, anche Downdetector stesso, il servizio che monitora i disservizi online, era irraggiungibile perché si appoggia all’infrastruttura Cloudflare.
Gli utenti che cercavano conferme sul blackout si ritrovavano davanti a una schermata bianca con un messaggio surreale. Rendendo quindi impossibile verificare se internet funzionasse, perché il sistema di verifica stesso era offline.
I problemi tecnici erano i soliti ed evidenti, come errori 500 (Internal Server Error) diffusi, loop infiniti nei controlli di sicurezza che verificano se l’utente è umano, dashboard di Cloudflare inaccessibile persino per gli amministratori di sistema che cercavano di capire cosa stesse accadendo.
Anche la stessa pagina di stato del servizio mostrava segni di malfunzionamento, con la formattazione CSS che si sgretolava lasciando solo testo grezzo.
Per comprendere l’ampiezza del blackout, basta guardare l’elenco dei servizi rimasti offline o gravemente rallentati.
Il down di Cloudflare e la fragilità crescente di Internet
Social media e comunicazione: X (ex Twitter) ha registrato picchi di 12.374 segnalazioni su Downdetector, con accessi intermittenti per oltre un’ora. Discord, utilizzato da milioni di gamer e community online, è rimasto inaccessibile.
Intelligenza artificiale e produttività: ChatGPT di OpenAI ha mostrato il messaggio “please unblock challenges.cloudflare.com to proceed”, impedendo l’accesso al chatbot più utilizzato al mondo. Anche Sora, l’applicazione per video brevi di OpenAI, è rimasta offline.
La pagina di stato di OpenAI ha confermato: “un problema con uno dei nostri fornitori di servizi di terze parti”. Canva, la piattaforma di design utilizzata da milioni di professionisti, era completamente irraggiungibile. Persino Claude AI ha sofferto di un’interruzione importante.
Gaming e intrattenimento: League of Legends ha registrato problemi di connessione diffusi. I siti di modelli 3D per la stampa come Printables e Thangs mostravano errori HTTP 500. Letterboxd, il social network per cinefili, era offline.
Finanza e crypto: Coinbase, la principale piattaforma di trading crypto, ha subito interruzioni. BitMEX ha confermato un’interruzione legata ai problemi Cloudflare. Arbiscan, il block explorer di Arbitrum, era inaccessibile. DefiLlama, piattaforma fondamentale per i dati DeFi, mostrava errori intermittenti. PayPal e le app di pagamento hanno registrato problemi.
Servizi quotidiani: Uber e Uber Eats hanno mostrato difficoltà intermittenti con pagamenti e ordini. Persino i chioschi McDonald’s per gli ordini hanno smesso di funzionare in diverse località, come segnalato su Reddit. Spotify ha registrato problemi separati ma contemporanei.
Infrastruttura Web: Siti di informazione, portali aziendali, piattaforme e-commerce. Hardware Upgrade, tra i principali siti tech italiani, era irraggiungibile. The Register, Notebookcheck e Videocardz mostravano errori 500.
Cos’è Cloudflare e perché un suo problema blocca internet
Per comprendere la portata di questo ennesimo down, serve capire cosa fa realmente Cloudflare e perché la sua posizione nel web moderno è così cruciale.
Questo sistema offre vantaggi enormi. Cloudflare distribuisce i contenuti attraverso una Content Delivery Network (CDN) con server in oltre 200 città in più di 100 paesi, rendendo il caricamento delle pagine molto più veloce. Protegge i siti da attacchi DDoS (Distributed Denial of Service), filtrando il traffico malevolo prima che possa raggiungere i server reali. Gestisce in media 81 milioni di richieste HTTP al secondo, secondo i dati ufficiali dell’azienda.
I numeri della concentrazione sono impressionanti. Secondo W3Techs, circa l’80,7% di tutti i siti web che utilizzano una CDN si appoggiano a Cloudflare. In termini di quota di mercato assoluta delle CDN, Cloudflare detiene il 39,24%, seguita da Amazon CloudFront con il 24,22%. Tra i top 10.000 siti più popolari al mondo, il 32,8% utilizza Cloudflare.
Nel 2024, l’azienda ha registrato ricavi per 1,3 miliardi di dollari, con una crescita del 32% anno su anno. Ha 4,1 milioni di clienti totali, di cui 119.206 paganti e 945 grandi aziende che generano ciascuna oltre 100.000 dollari di ricavi annui.
La struttura dei prezzi di Cloudflare spiega in parte questa diffusione: offre un piano gratuito generoso che ha permesso a milioni di piccoli siti di adottare la piattaforma senza costi iniziali. Una strategia che ha creato una dipendenza strutturale difficile da invertire.
Le cause: traffico anomalo e altri da verificare
Alle 13:09 UTC, Cloudflare ha pubblicato l’aggiornamento più significativo: “Il problema è stato identificato e una soluzione è in fase di implementazione”. Ma cosa era successo realmente?
Un portavoce dell’azienda ha dichiarato ai media: “Abbiamo rilevato un picco di traffico insolito verso uno dei servizi Cloudflare a partire dalle 11:20 UTC. Questo ha causato errori per parte del traffico che passa attraverso la rete Cloudflare. Non conosciamo ancora la causa del picco di traffico insolito”.
La comunicazione ufficiale parla di un “picco di traffico insolito” verso uno dei servizi Cloudflare, che ha innescato errori a cascata nel traffico che transitava attraverso la rete. L’azienda ha sottolineato di essere al lavoro per garantire che tutto il traffico venga servito senza errori, rimandando l’analisi delle cause dopo il ripristino del servizio.
Le ipotesi circolate nell’immediatezza hanno considerato diversi scenari. Cloudflare aveva programmato manutenzioni ordinarie in alcuni datacenter. In ogni caso, le manutenzioni programmate di solito prevedono il reindirizzamento del traffico verso altre località, rendendo improbabile che siano state la causa diretta.
Un attacco DDoS coordinato resta una possibilità, anche se Cloudflare è specializzata proprio nella mitigazione di questo tipo di minacce. Solo due mesi prima, l’azienda aveva bloccato un attacco DDoS record da 11,5 Tbps. L’ipotesi di un attacco sufficientemente sofisticato da superare le difese di Cloudflare potrebbe risultare inquietante riguardo alla sicurezza dell’infrastruttura globale.
Alan Woodward, esperto di cybersecurity dell’Università del Surrey, ha commentato: “Un servizio così grande raramente ha un singolo punto di fallimento”, sottolineando come sia improbabile che si tratti di un attacco coordinato ma evidenziando la complessità del sistema.
Un errore di configurazione interna, magari legato al DNS o ai sistemi di routing, è l’ipotesi più probabile secondo molti osservatori tecnici. Un errore di configurazione nei sistemi che traducono i nomi di dominio in indirizzi IP potrebbe spiegare l’effetto a cascata osservato.
Durante i tentativi di rimedio, Cloudflare ha dovuto disabilitare temporaneamente l’accesso WARP a Londra, il servizio simile a una VPN che instrada il traffico attraverso la rete dell’azienda. Una mossa drastica che indica la gravità dei problemi di routing riscontrati.
Il down di Cloudflare e la fragilità crescente di Internet
Il ripristino graduale e lo stato attuale
Circa due ore dopo l’inizio del blackout, Cloudflare ha annunciato progressi significativi: “Abbiamo apportato modifiche che hanno consentito il ripristino di Cloudflare Access e WARP. I livelli di errore per gli utenti di Access e WARP sono tornati ai livelli precedenti all’incidente. Abbiamo riattivato WARP Access a Londra. Stiamo continuando a lavorare per ripristinare altri servizi”.
Il ripristino è avvenuto in modo graduale e geograficamente disomogeneo. Nel Regno Unito, dove i problemi erano particolarmente acuti, il miglioramento è stato evidente da subito. Negli Stati Uniti, con la costa est che si svegliava proprio durante il picco del blackout, le segnalazioni hanno continuato ad aumentare fino alle prime ore del pomeriggio ora locale.
Alle 13:35 UTC, l’azienda ha confermato: “Stiamo continuando a lavorare per ripristinare il servizio per i clienti dei servizi applicativi”, indicando che alcuni servizi richiedevano ancora interventi specifici.
Le azioni Cloudflare hanno reagito immediatamente al blackout, perdendo oltre il 5% nelle contrattazioni pre-mercato, poi il calo si è ridotto al 3,5% con l’avanzare della giornata e il graduale ripristino dei servizi.
Nel pomeriggio italiano, la maggior parte dei servizi risultava nuovamente accessibile, anche se Cloudflare ha avvertito che “i clienti potrebbero continuare a osservare tassi di errore superiori alla norma mentre continuano gli sforzi di ripristino”. Una coda di problemi destinata a persistere mentre gli ingegneri completavano la stabilizzazione completa della rete.
Sfilza di down ora preoccupanti: da AWS a Cloudflare
Questo blackout non è un episodio isolato. Come dicevamo all’inizio, arriva a distanza di poche settimane dal down di Amazon Web Services del 20 ottobre 2025, che aveva paralizzato servizi come Perplexity, Canva, Snapchat, Roblox, Fortnite, Signal, Coinbase e Venmo. In quel caso, un problema DNS nella regione US-EAST-1 in Virginia aveva innescato un effetto domino globale.
Le analogie sono inquietanti. Entrambi gli incidenti hanno coinvolto problemi a livello di infrastruttura di base (DNS e routing), non attacchi esterni o errori applicativi.
Entrambi hanno colpito simultaneamente servizi apparentemente non correlati, rivelando quanto estesa sia la dipendenza da pochi provider. In entrambi i casi, anche i sistemi di monitoraggio degli outage (come Downdetector) sono finiti offline, creando un vuoto informativo paradossale.
La differenza principale riguarda il ruolo che svolgono nell’architettura di internet. AWS fornisce l’infrastruttura cloud sottostante (server, storage, database), mentre Cloudflare gestisce il layer di rete e sicurezza, quella parte posizionata davanti ai siti.
Ma alla fine, il risultato pratico è lo stesso: quando uno dei due giganti cade, una fetta enorme di internet diventa inaccessibile.
I numeri della concentrazione sono allarmanti. Nel cloud computing, come ricordato qui sul questo blog, AWS detiene circa il 30% del mercato globale IaaS, Microsoft Azure il 20% e Google Cloud il 13%. Insieme controllano oltre il 60% dell’infrastruttura cloud mondiale. Sul fronte delle CDN, Cloudflare domina con quasi l’80% dei siti che usano CDN appoggiate alla sua rete.
Questo significa che una manciata di aziende, letteralmente tre o quattro player, gestiscono l’infrastruttura critica di internet. E quando una di queste inciampa, gli effetti si propagano istantaneamente a livello globale.
Perché le interruzioni stanno diventando sempre più frequenti
La domanda che molti si stanno ponendo dopo questo ennesimo blackout è legittima: perché sembra che internet si stia rompendo così spesso? I dati confermano che non è solo una percezione.
In termini assoluti, le interruzioni legate alle applicazioni sono aumentate dell’8% nei primi cinque mesi del 2024 rispetto allo stesso periodo del 2023. Ma è la natura di queste interruzioni a raccontare la storia più inquietante: la maggior parte dei blackout maggiori del 2024 è stata causata da errori di configurazione backend o dal fallimento di sistemi automatizzati, non da attacchi esterni o guasti hardware.
Le cause di questa tendenza sono molteplici e interconnesse.
L’esplosione della domanda legata all’IA
Il 2024-2025 rappresenta il momento di massima pressione infrastrutturale mai visto. La spesa per l’infrastruttura cloud è cresciuta del 99,3% anno su anno nel quarto trimestre del 2024, raggiungendo 67 miliardi di dollari. Ma non è crescita ordinaria: è trainata dall’intelligenza artificiale.
La domanda di infrastruttura AI sta crescendo a ritmi tre volte superiori rispetto ai carichi di lavoro tradizionali. Il mercato dell’infrastruttura IA è passato da 26,18 miliardi di dollari nel 2024 a proiezioni di 221,4 miliardi entro il 2034, con una crescita del 23,8% annuo. Microsoft ha annunciato investimenti per 80 miliardi di dollari in CapEx per il 2025, Alphabet 75 miliardi, Amazon 100 miliardi. Tutti concentrati su datacenter AI, chip personalizzati e piattaforme di training.
I carichi computazionali sono aumentati in modo esponenziale. I datacenter che prima gestivano 8-10 kW di potenza ora devono sostenere 17 kW, con picchi fino a 100 kW per i deployment AI più avanzati. Questo richiede sistemi di raffreddamento a immersione liquida e infrastrutture elettriche completamente riprogettate.
Secondo Gartner, entro il 2027 il 40% dei datacenter AI subirà limitazioni operative a causa di carenze energetiche. I datacenter negli Stati Uniti hanno consumato il 4,4% dell’elettricità totale nel 2023, con proiezioni che arrivano al 12% entro il 2028. Il fabbisogno di raffreddamento potrebbe raggiungere 275 miliardi di litri d’acqua all’anno.
La corsa alla scalabilità sacrifica la resilienza
La pressione competitiva per rilasciare nuove funzionalità AI, lanciare nuovi servizi, espandere la capacità, è intensa. I cicli di rilascio si accorciano. L’automazione aumenta. Ma l’automazione introduce nuovi punti di fallimento.
CrowdStrike nel luglio 2024 ha mandato offline 8,5 milioni di dispositivi Windows con un aggiornamento difettoso del Falcon Sensor. Microsoft a novembre 2024 ha causato interruzioni a Outlook per un “cambio di configurazione” che ha generato un’ondata di retry request. Cloudflare nell’aprile 2024 aveva già avuto un blackout causato da un deployment di un nuovo servizio di telemetria che aveva sovraccaricato il control plane di Kubernetes.
Insomma, sistemi sempre più complessi, modifiche sempre più frequenti, testing sempre meno esaustivo rispetto alla scala reale di deployment. Il risultato sono incidenti che solo pochi anni fa sarebbero stati impensabili.
L’invecchiamento dell’architettura sotto stress dell’IA
Molte delle infrastrutture cloud e CDN sono state progettate in un’era pre-AI generativa. I pattern di traffico dell’AI sono diversi: burst intensi di richieste, carichi di inferenza che richiedono bassa latenza, training distribuito che genera traffico inter-datacenter massiccio.
Adattare architetture esistenti a questi nuovi pattern senza riprogettarle da zero crea stress points. I sistemi di routing, i load balancer, le configurazioni di rete sono ottimizzati per carichi tradizionali. Quando l’AI genera “picchi di traffico insolito” come quelli che hanno colpito Cloudflare, i sistemi faticano a gestirli senza degradazione o failure.
La concentrazione amplifica ogni singolo errore
Con il 20% di internet che transita attraverso Cloudflare, con AWS che gestisce il 30% del cloud, con tre hyperscaler che controllano oltre il 60% dell’infrastruttura globale, ogni singolo punto di fallimento diventa un blackout globale.
Se dieci anni fa un errore di configurazione avrebbe impattato qualche migliaio di siti, oggi lo stesso errore può mandare offline milioni di servizi simultaneamente. La scala amplifica l’impatto di ogni problema tecnico in modo non lineare.
E non ci sono segnali che questa tendenza si inverta. Anzi. Con l’AI che continua a crescere, con i carichi che aumentano, con la pressione competitiva che spinge verso deployment sempre più aggressivi, è ragionevole aspettarsi che le interruzioni non solo continueranno, ma potrebbero diventare più frequenti e più gravi.
Questo è il prezzo nascosto dell’infrastruttura centralizzata nell’era dell’intelligenza artificiale. Non è sostenibile tecnicamente, non è sostenibile energeticamente, e come stiamo vedendo con sempre maggiore evidenza, non è sostenibile operativamente.
Le conseguenze economiche e reputazionali
Quantificare il costo esatto di un blackout come quello di Cloudflare, ma alcuni dati aiutano a comprendere l’ordine di grandezza.
Durante il down di AWS di ottobre, le stime hanno calcolato perdite superiori a 75 milioni di dollari all’ora considerando solo i principali servizi impattati. Amazon stessa perde circa 220.000 dollari al minuto quando il suo e-commerce è offline. Applicando parametri simili a Cloudflare, con milioni di siti e servizi offline per oltre due ore, si parla di centinaia di milioni di dollari in perdite aggregate.
I costi diretti includono transazioni e-commerce non completate, abbonamenti SaaS non accessibili, pubblicità non visualizzate, sessioni di gaming interrotte con relativi acquisti in-app saltati. I costi indiretti sono ancora più significativi: interruzioni dei processi aziendali, perdita di produttività, necessità di supporto clienti straordinario, impatto sulle SLA (Service Level Agreement) con i clienti business.
Poi c’è la dimensione reputazionale. Per le aziende che dipendono da Cloudflare, ogni minuto di downtime erode la fiducia degli utenti. Per Cloudflare stessa, un incidente di questa portata solleva domande sulla resilienza dell’infrastruttura proprio mentre l’azienda cerca di espandersi nei servizi enterprise e nell’AI.
L’intelligenza artificiale generativa sta amplificando una forte pressione infrastrutturale. I modelli di IA richiedono elaborazione intensiva, storage massiccio, bassa latenza per applicazioni real-time. Cloudflare gestisce già milioni di richieste per applicazioni AI attraverso i suoi Worker. AWS, Azure e Google Cloud ospitano i principali modelli foundation del settore.
Quando l’infrastruttura che supporta l’IA si blocca, non si fermano solo chatbot e generatori di immagini. Si interrompono sistemi di rilevamento frodi, assistenti virtuali per customer service, sistemi di raccomandazione, automazioni aziendali. La dipendenza diventa sempre più profonda e pervasiva.
Cosa possono fare le aziende (e gli utenti)
Nell’attesa di eventuali framework regolatori, cosa possono fare concretamente le organizzazioni che dipendono da questi servizi?
La prima risposta è diversificazione. Progettare sistemi che possano funzionare con provider alternativi, anche a costo di maggiore complessità. Utilizzare multi-CDN, distribuire applicazioni su cloud diversi, implementare fallback verso infrastrutture on-premise per funzioni critiche.
La seconda è monitoraggio proattivo. Non affidarsi solo ai sistemi di status dei provider, ma implementare controlli indipendenti. Avere registri dettagliati per scenari di disaster recovery che includano esplicitamente i blackout dei provider esterni.
La terza è trasparenza verso i propri utenti. Comunicare chiaramente le dipendenze infrastrutturali, avere piani di comunicazione pre-definiti per gli outage, gestire le aspettative realisticamente.
Per gli utenti finali, la consapevolezza è il primo passo. Comprendere che il web moderno, per quanto appaia solido, poggia su fondamenta più fragili di quanto sembri. Avere piani B per attività critiche: contatti alternativi per comunicazioni urgenti, backup locali di documenti importanti, metodi di pagamento diversificati.
In conclusione, questo nuovo blackout di Cloudflare si aggiunge a una serie di incidenti che stanno mappando i punti di fragilità dell’infrastruttura digitale globale. Dopo AWS a ottobre, dopo il down di CrowdStrike nel luglio 2024 che aveva paralizzato voli e ospedali, dopo le interruzioni di Microsoft Azure, tutto questo inizia ad essere preoccupante. Proprio in relazione a tutto quello che abbiamo visto fin qui.
La concentrazione in pochi hyperscaler ha senso dal punto di vista dell’efficienza e dei costi. Ma ha un prezzo nascosto in termini di resilienza sistemica che paghiamo collettivamente quando questi nodi critici falliscono.
Con 35 milioni di siti che dipendono da Cloudflare, con il 20% del web che transita attraverso la sua rete, con l’intelligenza artificiale che spinge la domanda di infrastruttura a livelli senza precedenti, la domanda non è se ci saranno altri blackout. È quando, e quanto saranno gravi.
La buona notizia è che questi incidenti raramente durano giorni. Il ripristino avviene in termini di ore, a volte, quando va bene, anche in minuti. Ma la cattiva notizia è che la fragilità resta. E in un’epoca in cui la dipendenza dal digitale diventa sempre più totale, ogni blackout è un piccolo collasso che ci ricorda quanto sia precario l’equilibrio su cui poggiamo.
Un guasto in Virginia può fermare il mondo, come abbiamo visto a ottobre. Un picco di traffico anomalo verso Cloudflare può rendere invisibile un quinto di internet, come abbiamo visto oggi. E la prossima volta? Non lo sappiamo. Ma sappiamo che ci sarà una prossima volta.
Perchè alla fine, abbiamo costruito un’infrastruttura digitale straordinariamente potente ed efficiente, ma abbiamo dimenticato di chiederci cosa succede quando si ferma. E continuiamo a scoprirlo sempre nel modo più doloroso possibile.
Uno studio di Accenture su 1.928 organizzazioni rileva che il 62% delle aziende europee cerca soluzioni di IA sovrana. L’Italia si piazza seconda in Europa con il 71% pronta ad aumentare investimenti. I settori chiave: banking, energia, PA.
C’è un dato che più di ogni altro fotografa il momento che l’Europa sta vivendo con l’intelligenza artificiale: il 62% delle organizzazioni europee è attivamente alla ricerca di soluzioni sovrane.
In realtà, si tratta di una tendenza che non sorprende, se si considera l’attuale incertezza geopolitica. E se si considera la crescente consapevolezza che il controllo su dati e infrastrutture tecnologiche rappresenta oggi un asset strategico fondamentale.
Un nuovo studio di Accenture, condotto tra luglio e agosto 2025 su 1.928 organizzazioni in 28 Paesi e 18 settori, evidenzia come la sovranità nell’intelligenza artificiale stia rapidamente passando da concetto teorico a priorità concreta per le imprese europee.
E l’Italia si colloca ai primi posti di questa trasformazione.
Cosa significa IA sovrana e perché è importante
L’IA sovrana si riferisce alla capacità di un paese di sviluppare e implementare sistemi di intelligenza artificiale utilizzando infrastrutture, dati, modelli e talenti locali.
Non si tratta solo di un concetto tecnico, ma di un vero approccio strategico che consente di proteggere i dati da accessi esterni, rafforzare la competitività economica e ridurre la dipendenza da fornitori tecnologici non europei.
In un contesto geopolitico caratterizzato da crescenti tensioni commerciali e tecnologiche, questa autonomia assume un valore, appunto, fondamentale.
La sovranità digitale diventa la risposta europea a un paradosso sempre più evidente: come accelerare l’adozione dell’intelligenza artificiale per stimolare innovazione e crescita, senza dipendere eccessivamente da tecnologie provenienti da fuori regione.
L’Europa accelera sulla sovranità IA, Italia tra le protagoniste
I numeri della svolta e l’Italia protagonista
Dallo studio di Accenture emerge che, nei prossimi due anni, il 60% delle organizzazioni europee prevede di aumentare gli investimenti in tecnologie di IA sovrana. L’Italia si distingue con il 71% delle aziende intenzionate a potenziare gli investimenti in questo ambito, posizionandosi come secondo paese europeo subito dopo la Germania (73%) e davanti a Svizzera (64%), Spagna (63%) e Regno Unito (62%).
Le preoccupazioni legate alla sovranità tecnologica sono particolarmente rilevate in alcuni paesi: Danimarca (80%), Irlanda (72%) e Germania (72%) guidano la classifica delle nazioni più attente al controllo dei propri dati e infrastrutture.
Sovranità IA investimenti per Paese
Sovranità IA, settori strategici in prima linea
Come prevedibile, i settori con requisiti regolatori stringenti e che gestiscono dati sensibili sono i più inclini ad adottare soluzioni sovrane. Il settore bancario si colloca in testa con il 76% delle organizzazioni alla ricerca di queste soluzioni, seguito dall’energia (70%) e dalla pubblica amministrazione (69%). Questi numeri riflettono la necessità di proteggere informazioni critiche e rispettare normative sempre più stringenti in materia di privacy e sicurezza dei dati.
In pratica, settori come la finanza devono garantire che i dati dei clienti rimangano sotto controllo locale, mentre nel comparto energetico – considerato infrastruttura critica – la sovranità tecnologica diventa una questione di sicurezza nazionale.
Il paradosso europeo, tra controllo e innovazione
Mauro Macchi CEO Accenture EMEA
“L’Europa si trova davanti ad un paradosso”, sottolinea Mauro Macchi, CEO Accenture EMEA. “Da una parte i suoi leader comprendono la necessità di accelerare l’adozione dell’intelligenza artificiale per stimolare innovazione e crescita, ma dall’altra, poiché la maggior parte delle tecnologie proviene da fuori regione, ritengono che ciò rappresenti un rischio”.
La soluzione a questo dilemma emerge chiaramente dallo studio. Ossia, un approccio ibrido che bilancia controllo dei dati e accesso all’innovazione mondiale.
Secondo la ricerca, nelle organizzazioni europee solo un terzo dei progetti di IA (il 36%) richiede effettivamente un approccio sovrano, principalmente per motivi regolatori o per la sensibilità dei dati trattati.
Il restante 65% delle organizzazioni riconosce di non poter restare competitivo senza la collaborazione di fornitori tecnologici non europei, mentre il 57% valuta l’utilizzo di soluzioni sovrane offerte sia da provider europei sia extraeuropei.
Vale a dire, la sovranità non significa isolamento, ma scelta consapevole del giusto livello di controllo.
Dall’architettura tecnologica alla strategia di business
“Un approccio di IA sovrana non significa centralizzare tutto”, precisa Mauro Capo, Digital Sovereignty Lead Accenture EMEA. “L’obiettivo è scegliere il giusto livello di controllo su dati, infrastruttura e modelli, mantenendo al contempo i vantaggi di scala e la velocità d’innovazione offerti da alcuni provider globali”.
In alcuni casi è sufficiente garantire la residenza locale dei dati, in altri – come nel settore della difesa – serve una piena sovranità su tutti i componenti dell’intelligenza artificiale. Questa flessibilità architettonica rappresenta la chiave per massimizzare il valore dell’IA sovrana senza sacrificare competitività e innovazione.
Accenture è già attiva nel supportare questo percorso, con progetti concreti come quello realizzato in Svezia con Telia Cygate per aiutare le organizzazioni locali ad adottare soluzioni di intelligenza artificiale scalabili e sicure.
In Europa, l’azienda collabora con diversi partner infrastrutturali come Nebius, piattaforma cloud di IA basata ad Amsterdam, per creare le fondamenta delle fabbriche di IA sovrana dei clienti.
Da rischio a vantaggio competitivo, il cambio di prospettiva necessario
Oggi solo il 19% delle organizzazioni considera l’IA sovrana un vero vantaggio competitivo, mentre quasi la metà (il 48%) la adotta principalmente per motivi di conformità normativa. Inoltre, appena il 16% delle imprese europee ha portato il tema della sovranità dell’IA all’attenzione del CEO o del Consiglio di Amministrazione.
Questi numeri rivelano un gap significativo tra l’importanza strategica della sovranità digitale e la sua percezione attuale nelle organizzazioni.
In ogni caso, la consapevolezza sta crescendo. Infatti, il 73% delle organizzazioni ritiene che governi e istituzioni, come l’Unione Europea, debbano svolgere un ruolo attivo nel rafforzare la sovranità digitale europea, attraverso regolamentazione, incentivi e investimenti pubblici.
Anche le PMI sono considerate cruciali in questo percorso: il 70% delle imprese ritiene essenziale favorirne l’accesso a soluzioni sovrane, riconoscendo che la sovranità tecnologica non può essere un privilegio riservato solo alle grandi corporation.
Roadmap per il futuro
Accenture identifica quattro pilastri fondamentali per massimizzare il valore dell’intelligenza artificiale sovrana:
Guidare la sovranità dell’IA: rendere la sovranità dell’IA una priorità strategica per i CEO, allineando innovazione, gestione del rischio e crescita aziendale.
Ripensare la sovranità: passare da una visione di mera conformità normativa a una di vantaggio competitivo e creazione di valore tangibile.
Espandere l’ecosistema: costruire architetture ibride che uniscano la fiducia e il controllo locale con l’accesso all’innovazione globale.
Ridefinire l’architettura tecnologica: integrare la sovranità in ogni livello – dati, infrastrutture, modelli e applicazioni – per garantire resilienza e adattabilità nel lungo termine.
L’Italia e la sfida della sovranità tecnologica
Il posizionamento dell’Italia al secondo posto tra i Paesi europei per investimenti previsti in IA sovrana rappresenta un segnale incoraggiante. Con il 71% delle aziende pronte ad aumentare gli investimenti nei prossimi due anni, il Paese dimostra di aver compreso l’importanza strategica di questa trasformazione.
Si tratta di un’opportunità per rafforzare il tessuto produttivo nazionale, attrarre investimenti e talenti, e posizionarsi come hub europeo per l’innovazione tecnologica sovrana. La sfida ora è tradurre questa intenzione in azioni concrete, progetti implementati e competenze sviluppate.
Prospettive future, tra autonomia e competitività
La sovranità nell’intelligenza artificiale rappresenta oggi per l’Europa molto più di una risposta difensiva alle tensioni geopolitiche. È l’opportunità di ridefinire il proprio ruolo nell’ecosistema tecnologico globale, bilanciando l’apertura all’innovazione mondiale con la protezione degli interessi strategici nazionali ed europei.
Come sempre, il successo dipenderà dalla capacità di passare dalle intenzioni ai fatti: investimenti concreti in infrastrutture, sviluppo di competenze locali, collaborazione tra pubblico e privato, e soprattutto la volontà politica di fare della sovranità digitale una vera priorità strategica.
Il momento di agire è adesso. I dati Accenture dimostrano che le organizzazioni europee hanno compreso la posta in gioco. Resta da vedere se questa consapevolezza si tradurrà in quella leadership tecnologica che l’Europa ambisce a riconquistare.
Fonte: Studio Accenture condotto tra luglio e agosto 2025 su 1.928 organizzazioni in 28 Paesi e 18 settori
Gestisci Consenso
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.