Tag: impatto IA

  • L’IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet

    L’IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet

    L’intelligenza artificiale sta cambiando il mondo più in fretta di qualsiasi tecnologia prima. Il rapporto annuale dell’AI Index 2026 di Stanford HAI fotografa lo stato di adozione, investimenti, capacità dei modelli, impatto sul lavoro e costo ambientale. Ne emerge una situazione complesso.

    C’è una frase con cui Stanford HAI ha aperto la comunicazione del suo rapporto 2026 che vale la pena riportare, perché contiene già la chiave di lettura di tutto il resto: “Se state seguendo le notizie sull’IA, probabilmente avete il capogiro. L’IA è una corsa all’oro. L’IA è una bolla. L’IA vi sta rubando il lavoro. L’IA non sa ancora leggere un orologio analogico.”

    E il rapporto, nelle sue 400 pagine, prova a rispondere a tutte queste domande insieme, con dati verificati.

    È il nono anno consecutivo che lo Stanford HAI, istituto di ricerca sull’intelligenza artificiale fondato all’interno dell’università californiana, pubblica questo documento. Ed è probabilmente, al momento, la fonte più autorevole e indipendente che esista su questo tema, perché non è prodotta da un laboratorio con un interesse diretto nei risultati. Per questo assume una notevole importanza.

    L'IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet
    L’IA generativa ha conquistato il mondo in tre anni, più in fretta di Internet

    IA, una velocità di adozione mai vista prima

    Partiamo dal dato più impressionante, quello che ci permette di mettere in prospettiva tutto il resto del rapporto

    Secondo l’AI Index 2026, l’IA generativa ha raggiunto il 53% di adozione globale in soli tre anni dal suo lancio di massa. Per capire cosa significa, basta un confronto: il personal computer ha impiegato molto più tempo per raggiungere una penetrazione analoga nella popolazione mondiale. Internet anche. Gli smartphone, che pure avevano trasformato la vita quotidiana di miliardi di persone, ci hanno messo circa un decennio.

    Il personal computer ha impiegato circa 16 anni per raggiungere il 50% di adozione nei paesi industrializzati, internet circa 7 anni.

    L’IA generativa ci è arrivata in tre anni, e lo ha fatto quasi gratis. La maggior parte degli strumenti che la gente usa ogni giorno, va detto, è accessibile in forma gratuita o quasi gratuita.

    Ma, va detto, l’adozione non è uniforme e non segue le logiche che ci si potrebbe aspettare.

    Singapore guida la classifica con il 61%, gli Emirati Arabi si collocano secondi al 54%. Gli Stati Uniti, con tutti i loro investimenti e con tutti i modelli che producono, si trovano “solo” al 24° posto con il 28,3%.

    Questo ci suggeriscie che non è detto che chi costruisce la tecnologia sia chi la adotta più in fretta. Spesso chi parte con meno vincoli strutturali si muove con più agilità.

    Velocità adozione Intelligenza Artificiale Generativa - The 2026 AI Report | Stanford HAI

    IA e la crescita degli investimenti, l’assenza dell’UE

    Gli investimenti globali in intelligenza artificiale nel 2025 hanno raggiunto i 581,7 miliardi di dollari, più che raddoppiando rispetto all’anno precedente. Gli investimenti privati sono cresciuti del 127,5%, arrivando a 344,7 miliardi, e le sole aziende di IA generativa hanno assorbito quasi la metà di quel totale.

    Ma quello che è più interessante è la distribuzione geografica di questi investimenti.

    Gli Stati Uniti guidano con 285,9 miliardi di dollari di investimenti privati, una cifra 23 volte superiore a quella della Cina, che si ferma a 12,4 miliardi. Anche qui, però, il rapporto invita alla cautela: i fondi governativi cinesi, che non compaiono nelle statistiche degli investimenti privati, avrebbero immesso nell’IA circa 184 miliardi di dollari solo tra il 2000 e il 2023. Il confronto diretto, quindi, rischia di essere fuorviante.

    E l’Europa? Qui i numeri sono sensibilmente inferiori.

    Tra il 2013 e il 2024, il capitolo dedicato alla governance e alle politiche pubbliche cita gli investimenti statali in IA dei principali paesi: il Regno Unito con 1,6 miliardi di dollari, la Germania con 505 milioni, la Francia con 320 milioni. L’Italia non compare.

    Quello che colpisce non è solo la modestia delle cifre europee rispetto agli Stati Uniti, ma è la frammentazione con cui ci si muove su questo terreno. Ogni paese va per conto suo, con strategie nazionali che si sovrappongono, senza coordinarsi in modo efficace.

    L’UE ha una voce autorevole sulla regolamentazione, ha prodotto l’AI Act, gode di un livello di fiducia più elevato rispetto agli USA e alla Cina nella capacità di governare il fenomeno. Ma sul fronte degli investimenti e della produzione di modelli, l’Europa rimane largamente assente.

    IA e i modelli europei che non ci sono

    Ed è qui che arriviamo al punto più dolente per chi guarda il fenomeno dall’Europa.

    Tra i modelli più rilevanti del 2025, quelli che il rapporto identifica come “rilevanti”notable” per le loro capacità, gli Stati Uniti ne hanno rilasciati 50, la Cina 30. L’Europa non compare.

    Si tratta di modelli di frontiera, quelli che spostano le capacità verso l’alto e che definiscono lo stato dell’arte. E in quella classifica, il continente europeo semplicemente non esiste come attore.

    Più del 90% di tutti i modelli rilevanti è prodotto da aziende private, e tra quelle aziende non ce n’è nessuna con sede in Europa che riesca a competere con OpenAI, Anthropic, Google, xAI o DeepSeek.

    Mistral, l’unica azienda europea che produce modelli di frontiera, non compare nella lista dei modelli più significativi dell’anno secondo la classificazione Epoch AI utilizzata dal rapporto Stanford.

    Modelli di IA generativa rilevanti - Yhe 2026 AI Report | Stanford HAI

    Cosa sa fare l’IA, e cosa non sa ancora fare

    Il rapporto offre su questo punto una lettura molto più sfumata di quanto i comunicati stampa dei vari laboratori lascino intendere.

    Stanford definisce la situazione attuale con una formula: “jagged frontier”, frontiera frastagliata.

    I modelli di punta battono i professionisti umani su domande di scienze a livello di dottorato, vincono medaglie d’oro alle olimpiadi internazionali di matematica, risolvono problemi di coding su SWE-bench con prestazioni che in un solo anno sono passate dal 60% a quasi il 100% del livello umano.

    Ma, nonostante tutto, lo stesso modello che vince quella medaglia d’oro riesce a leggere correttamente un orologio analogico solo il 50,1% delle volte.

    Una contraddizione che in realtà ci dice molto sula natura stessa di questi sistemi. E quindi eccellono in domini ben definiti, su compiti che assomigliano a quelli su cui sono stati addestrati, e faticano su altri che sembrano banali per un bambino di dieci anni.

    Questo non significa che siano inutili, anzi. Significa che chi li usa deve sapere dove funzionano meglio e dove no. E significa che i benchmark di marketing, quelli che le aziende usano per annunciare prestazioni record, spesso misurano cose molto lontane da ciò che conta davvero nel lavoro e nella vita reale.

    C’è un altro elemento che il rapporto segnala. Secondo il Foundation Model Transparency Index, l’indice che misura il grado di apertura dei laboratori sui propri sistemi, il punteggio medio è sceso da 58 a 40 nell’arco di un anno.

    Google, Anthropic e OpenAI hanno smesso di comunicare le dimensioni dei dataset e la durata degli addestramenti per i loro ultimi modelli. In buona sostanza: i modelli più capaci sono anche quelli che rivelano di meno su come funzionano.

    IA e il lavoro, chi perde e chi guadagna

    Il rapporto dedica ampio spazio all’impatto dell’IA sul lavoro, e anche qui la lettura è meno lineare di quanto la narrazione diffusa suggerisca.

    Da una parte, i guadagni in termini di produttività documentati sono reali: 14-15% nell’assistenza clienti, 26% nello sviluppo software, fino al 73% nei team di marketing.

    Dall’altra, quei guadagni non sono distribuiti in modo uniforme. Gli sviluppatori statunitensi tra i 22 e i 25 anni hanno visto la propria occupazione calare di quasi il 20% in un anno, mentre i colleghi più senior ha fatto registrare il dato opposto. Il discorso è sempre lo stesso: l’IA sostituisce l’ingresso, non l’esperienza di lavoro. E un terzo delle organizzazioni intervistate dichiara di aspettarsi riduzioni del personale nei prossimi dodici mesi.

    In aggiunta a questo, il 73% degli esperti di IA è ottimista sull’impatto della tecnologia sul lavoro. Ma solo il 23% delle persone in generale condivide questa visione.

    Questa frattura tra chi costruisce il futuro e chi ne subisce in qualche modo le conseguenze non è un problema di comunicazione, è solo un problema di fiducia.

    IA e lavoro - The 2026 AI Report | Stanford HAI

    IA e il costo che nessuno vuole calcolare

    C’è infine un capitolo del rapporto su cui mi soffermo, perché è quello che rischia di passare in secondo piano rispetto alle notizie sulle prestazioni e sugli investimenti. A dire il vero, è uno dei temi più trascurati in questa fase, anche se è quello forse più importanti. Perché riguarda davvero tutti.

    L’impronta ambientale di questa evoluzione tecnologica trainata dalla IA non è più un incidente di percorso, ma una costante strutturale.

    Addestrare Grok 4, il modello di xAI, ha generato un’emissione stimata di 72.816 tonnellate di CO2 equivalente, pari alle emissioni di 17.000 automobili che circolano per un intero anno.

    L’addestramento di GPT-4 è stimato a 5.184 tonnellate di CO2 equivalente, quello di Llama 3.1 405B di Meta a 8.930 tonnellate.

    IA e costo ambientale - The 2026 AI Report | Stanfor HAI

    La capacità installata dei data center dedicati all’IA ha raggiunto i 29,6 gigawatt, all’incirca la stessa quantità di energia necessaria per alimentare l’intero stato di New York al picco della domanda.

    E il solo consumo d’acqua per il raffreddamento dei server legato all’inferenza di GPT-4o potrebbe superare il fabbisogno idrico annuo di 12 milioni di persone.

    Per dare un riferimento ancora più concreto e diretto: la domanda energetica cumulativa di tutti i sistemi di IA nel mondo è oggi paragonabile al consumo elettrico nazionale di Svizzera o Austria.

    Questi numeri crescono insieme ai modelli. E il rapporto di Stanford osserva che i miglioramenti nell’efficienza hardware non hanno tenuto il passo con la scala delle nuove distribuzioni.

    In buona sostanza: stiamo diventando più bravi a costruire modelli più potenti molto più in fretta di quanto stiamo diventando bravi a farlo in modo sostenibile.

    Resta da vedere come il dibattito pubblico e politico saprà reggere il confronto con questa velocità.

    Per adesso, il rapporto di Stanford ci dice che la tecnologia sta correndo mentre le istituzioni camminano. E il divario tra le due andature è, in questo momento, il problema più grande di tutti da affrontare.


  • L’intelligenza artificiale non ruba il lavoro, lo ridisegna

    L’intelligenza artificiale non ruba il lavoro, lo ridisegna

    Il report di Anthropic, pubblicato di recente, ci offre dati reali su quello che è l’impatto dell’IA sul lavoro. I dati smentiscono l’allarme sui licenziamenti e rivelano il vero problema: l’accesso nel mondo del lavoro dei più giovani e il fenomeno dell’AI-washing nelle aziende.

    Il tema del rapporto tra intelligenza artificiale e lavoro continua a tenere banco. E probabilmente non smetteremo di occuparcene, perché tocca la vita di tutti noi, tocca il lavoro che facciamo, tocca il modo in cui questa società sta prendendo forma nell’era dell’IA.

    È un tema che suscita schieramenti netti, chi è contrario e chi è favorevole a questo sviluppo. Ma troppo spesso viene trattato in termini teorici, di quello che potrebbe essere. In realtà avremmo bisogno di confrontarci con i dati reali. E i dati reali ce li offre l’ultimo rapporto di Anthropic, pubblicato il 5 marzo 2026 e firmato dagli economisti Maxim Massenkoff e Peter McCrory.

    I numeri si IA e lavoro del report Anthropic

    Anthropic è la società di Dario Amodei, al centro di tante discussioni in questi giorni per le vicende che legano il modello Claude al Pentagono e sollevano questioni anche dal punto di vista etico. Lo stesso Amodei, a luglio dello scorso anno, aveva previsto che il lavoro sarebbe stato fortemente influenzato dall’intelligenza artificiale già nei prossimi cinque anni. Ne avevo parlato anche in questo canale.

    Ma vediamo cosa dice questo rapporto. La novità è nel metodo: invece di stimare cosa l’IA potrebbe fare in teoria, Anthropic ha misurato cosa sta effettivamente facendo nella pratica, analizzando milioni di conversazioni reali con Claude in contesti lavorativi. Ha introdotto una nuova metrica, chiamata “esposizione osservata”, che misura quali compiti vengono effettivamente svolti con l’aiuto dell’IA, non quali potrebbero essere svolti in teoria.

    L’analisi ha riguardato circa 800 professioni. Le più esposte secondo lo studio sono i programmatori informatici, con il 75% dei compiti già coperti dall’IA, seguiti dagli addetti al servizio clienti, dagli addetti all’inserimento dati con il 67%, dagli specialisti di cartelle cliniche e dagli analisti finanziari.

    L'intelligenza artificiale non ruba il lavoro, lo ridisegna
    L’intelligenza artificiale non ruba il lavoro, lo ridisegna

    Il divario tra capacità teorica e uso reale

    Ma all’atto pratico, tutto questo come si traduce? Qui emerge il dato centrale del report.

    Prendiamo il lavoro della programmazione informatica. I modelli linguistici potrebbero teoricamente gestire il 94% dei compiti. Ma nella pratica, oggi, Claude ne copre il 33%. Prendiamo i ruoli amministrativi e d’ufficio. La capacità teorica è del 90%, ma l’uso reale è una frazione di quel numero.

    Il report lo visualizza con due aree: una blu, che rappresenta ciò che l’IA potrebbe fare, e una rossa, molto più piccola, che rappresenta ciò che l’IA sta effettivamente facendo. Man mano che le capacità avanzano e l’adozione si diffonde, l’area rossa crescerà fino a coprire quella blu. Ma oggi siamo ancora lontani.

    Chi invece non ha praticamente esposizione? Il 30% dei lavoratori. Cuochi, meccanici di moto, bagnini, baristi, lavapiatti, addetti ai camerini. Tutti lavori che richiedono presenza fisica, manualità, interazione diretta. L’IA non sa friggere un uovo, non sa riparare un motore, non sa servire un cliente guardandolo negli occhi.

    rapporto IA lavoro athropic
    Capacità teorica ed esposizione osservata per categoria professionale Quota di compiti lavorativi che gli LLM potrebbero teoricamente svolgere (area blu) e la misura di copertura occupazionale derivata dai dati di utilizzo (area rossa)

    Ecco il profilo di chi rischia di più

    Il report traccia anche il profilo dei lavoratori nelle professioni più esposte. E qui emerge un ribaltamento rispetto a quello che ci si potrebbe aspettare.

    Non sono i lavoratori meno qualificati a rischiare di più. Sono quelli più istruiti, più pagati, più specializzati. I lavoratori nelle professioni più esposte guadagnano in media il 47% in più rispetto a quelli nelle professioni non esposte. Hanno livelli di istruzione più alti: i laureati con titoli post-laurea sono il 17,4% nelle professioni esposte, contro il 4,5% in quelle non esposte. Una differenza di quasi quattro volte.

    E c’è un dato che riguarda le donne. I lavoratori nelle professioni più esposte all’IA hanno una probabilità maggiore di 16 punti percentuali di essere donne. Questo conferma quanto già emerso in altri studi: le professioni a prevalenza femminile, come i ruoli amministrativi, il servizio clienti, l’inserimento dati, sono tra le più vulnerabili.

    Il vero problema non sono i licenziamenti

    E quindi non regge più quel tema dell’intelligenza artificiale che ci ruba il lavoro. Non è quello il punto. Il report di Anthropic è chiaro: non c’è un aumento sistematico della disoccupazione nelle professioni esposte all’IA. Dal rilascio di ChatGPT a fine 2022 a oggi, chi lavora in questi settori non sta perdendo il posto.

    Ma c’è un segnale che non va ignorato. I ricercatori hanno trovato evidenza che l’assunzione di giovani lavoratori, nella fascia tra i 22 e i 25 anni, sta rallentando nelle professioni più esposte. Un calo del 14% nel tasso di ingresso rispetto al 2022.

    Questo dato trova conferma in altri studi. La Federal Reserve di Dallas ha rilevato che la quota di occupazione per i giovani tra i 20 e i 24 anni nelle professioni esposte all’IA è scesa dal 16,4% nel novembre 2022 al 15,5% nel settembre 2025. I ricercatori di Stanford, usando i dati delle buste paga di ADP su 25 milioni di lavoratori americani, hanno misurato un calo del 6% nell’occupazione dei giovani tra i 22 e i 25 anni nelle professioni ad alta esposizione. Nel frattempo, l’occupazione dei lavoratori dai 30 anni in su è cresciuta tra il 6% e il 13%.

    Il dato più preoccupante riguarda i programmatori: l’occupazione per i più giovani è del 20% sotto il picco del 2022. Revelio Labs ha calcolato che le offerte di lavoro per posizioni entry-level negli Stati Uniti sono calate del 35% da gennaio 2023. SignalFire, analizzando le grandi aziende tech, ha rilevato un calo del 50% nelle nuove assunzioni di persone con meno di un anno di esperienza post-laurea.

    Il meccanismo è chiaro: non sono licenziamenti. Chi lavora già non viene cacciato, perché quelle competenze servono per guidare l’introduzione dell’IA nei processi di lavoro. Le aziende stanno chiudendo le porte d’ingresso. Eliminano le posizioni entry-level, quelle da cui tradizionalmente si iniziava la carriera.

    Il caso Dorsey e il fenomeno dell’AI-washing

    E qui arriviamo a una vicenda recente che illumina un altro aspetto della questione.

    Il 26 febbraio 2026, Jack Dorsey, fondatore di Twitter e amministratore delegato di Block, la società che controlla Square e Cash App, ha annunciato il taglio di 4.000 dipendenti. Quasi metà della forza lavoro. La motivazione dichiarata: l’intelligenza artificiale permette di fare di più con meno persone. Il mercato ha reagito con entusiasmo e il titolo è salito del 24%.

    Ma la narrazione di Dorsey regge alla prova dei fatti?

    I dati raccontano un’altra storia. Block impiegava 3.835 persone alla fine del 2019. Durante la pandemia l’organico è esploso fino a superare i 10.000 dipendenti. Un aumento di quasi tre volte in pochi anni. Lo stesso Dorsey, rispondendo alle critiche, ha ammesso di aver assunto troppo perché aveva costruito due strutture aziendali separate invece di una sola.

    Nel marzo 2025, meno di un anno prima dei grandi licenziamenti, Dorsey aveva scritto in un memo interno che i tagli di quel periodo non avevano nulla a che fare con l’IA e non miravano a sostituire persone con l’intelligenza artificiale. Undici mesi dopo, il racconto era cambiato completamente.

    Quello che sta emergendo ha un nome: AI-washing. Le aziende usano l’intelligenza artificiale come giustificazione per ristrutturazioni che hanno ben altre origini.

    I dati lo confermano. Solo il 4,5% dei licenziamenti del 2025 ha effettivamente citato l’IA come causa. Nel frattempo, il 59% dei responsabili delle assunzioni ammette di usare l’IA come copertura per tagli guidati da eccesso di assunzioni, pressione sui costi e problemi organizzativi.

    La Harvard Business Review, sulla base di un sondaggio su oltre mille dirigenti condotto a dicembre 2025, ha concluso che i licenziamenti attribuiti all’IA sono quasi completamente in anticipazione del suo impatto, non per capacità già dimostrate.

    C’è un precedente istruttivo. Klarna aveva annunciato che l’IA aveva contribuito a ridurre la forza lavoro del 40%. Poi ha dovuto riassumere lavoratori perché le capacità dell’intelligenza artificiale non erano sufficientemente robuste per sostituirli davvero. Forrester Research prevede che metà dei licenziamenti attribuiti all’IA verranno riassorbiti, spesso con assunzioni offshore o a stipendi più bassi. E che il 55% dei datori di lavoro già rimpiange i tagli fatti in nome dell’IA.

    Cosa si intende per AI-washing

    Il termine è stato coniato nel 2019 dall’AI Now Institute, un centro di ricerca della New York University, e deriva direttamente dal greenwashing, la pratica con cui le aziende fanno affermazioni false o fuorvianti sull’impatto ambientale positivo dei loro prodotti.

    Così come alcune aziende esagerano le proprie credenziali ecologiche attraverso il greenwashing, l’AI-washing consiste nell’esagerare l’uso dell’intelligenza artificiale a fini di marketing senza che dietro alle affermazioni ci sia alcuna sostanza.

    Il fenomeno esiste da anni. Uno studio del 2019 della società di investimenti MMC Ventures ha rilevato che il 40% delle nuove aziende tecnologiche europee che si definivano “startup di intelligenza artificiale” in realtà non usava praticamente alcuna IA: era puro marketing per raccogliere capitali.

    Il fenomeno è stato paragonato alla bolla delle dot-com, quando le aziende aggiungevano “.com” al proprio nome per gonfiare le valutazioni.

    La differenza è che oggi l’AI-washing non riguarda solo i prodotti, ma anche le decisioni aziendali: i licenziamenti spesso vengono attribuiti all’intelligenza artificiale per renderli più accettabili agli occhi del mercato e dell’opinione pubblica.

    Cosa è giusto chiedersi adesso

    In chiusura, il report di Anthropic ci dice che l’IA non sta ancora distruggendo posti di lavoro. Ma ci dice anche che il divario tra capacità teorica e uso reale si sta restringendo. Oggi Claude copre il 33% dei compiti dei programmatori, ma potrebbe coprirne il 94%. Quando quel divario si chiuderà, e si chiuderà, l’impatto sarà diverso da quello che vediamo oggi.

    Il tema su cui interrogarsi non è se l’intelligenza artificiale ci sta rubando il lavoro. Il tema è un altro: stiamo davvero costruendo un mercato del lavoro che funziona solo per chi è già dentro? E se la risposta è sì, quanto tempo abbiamo prima che diventi un problema strutturale? Siamo in grado oggi di costruire un mercato del lavoro che sappia garantire un accesso adeguato ai più giovani, alle donne?