In questa categoria troverete articoli su Intelligenza Artificiale e Machine Learning, soprattutto su come queste tecnologie stanno evolvendosi, con esempi concreti
Duolingo ha annunciato una svolta “AI-first”: meno collaboratori esterni, più automazione nei processi e nuovi criteri per assunzioni e valutazioni. Un segnale concreto di un cambiamento profondo nel rapporto tra IA e lavoro umano. Cosa comporta davvero questa decisione?
Duolingo, popolare piattaforma per l’apprendimento delle lingue, ha comunicato ai dipendenti un importante cambio di rotta: la società diventerà “AI-first” (cioè darà priorità all’intelligenza artificiale) e smetterà gradualmente di utilizzare collaboratori esterni per i compiti che l’IA è in grado di svolgere.
L’annuncio, diffuso dal co-fondatore e CEO Luis von Ahn in un’email interna poi pubblicata su LinkedIn, sottolinea la necessità di “ripensare gran parte del nostro modo di lavorare” nell’era dell’IA.
In altre parole, i piccoli aggiustamenti ai metodi tradizionali non bastano più. Occorre una revisione più radicale dei processi per sfruttare appieno le nuove tecnologie.
Nella comunicazione ai dipendenti, von Ahn ha delineato alcune misure concrete per guidare questa transizione “AI-first”:
Stop a collaborazioni esterne: Duolingo smetterà di usare collaboratori esterni per le attività che possono essere gestite dall’IA.
IA come requisito nelle assunzioni: l’uso efficace dell’IA diventerà un fattore valutato nelle nuove assunzioni.
Valutazioni di performance con l’IA: l’abilità di utilizzare l’IA inciderà anche sulle revisioni delle performance dei dipendenti esistenti.
Assunzioni solo se l’IA non basta: nuovi inserimenti in organico (headcount) saranno approvati solo se un team non può automatizzare di più il proprio lavoro.
Riorganizzazione dei processi: ogni area dell’azienda lancerà iniziative specifiche per cambiare alla radice il modo di operare, integrando l’IA dove possibile.
Lavoro e intelligenza artificiale, il caso duolingo
Le motivazioni di Duolingo: efficienza e mission aziendale
L’obiettivo dichiarato è piuttosto “rimuovere colli di bottiglia” e liberare il potenziale del personale, permettendo ai team di “concentrarsi su lavoro creativo e problemi reali, non su compiti ripetitivi”. Per riuscirci, l’azienda promette formazione, mentorship e strumenti AI adeguati a tutti i livelli, così che i dipendenti possano aggiornare le proprie competenze.
Dal punto di vista strategico, Duolingo vede nell’IA un mezzo per accelerare la sua mission educativa. “L’IA non è solo un incremento di produttività. Ci aiuta ad avvicinarci alla nostra missione”, afferma von Ahn.
La piattaforma offre corsi in decine di lingue e per insegnare efficacemente ha bisogno di una quantità enorme di contenuti, dagli esercizi alle traduzioni. Creare tutto manualmente richiederebbe anni: “farlo a mano non è scalabile… senza l’IA ci vorrebbero decenni per offrire questi contenuti a tutti i nostri studenti. Abbiamo il dovere di fornire loro questo materiale il prima possibile”.
In quest’ottica, l’adozione di sistemi AI serve a scalare l’offerta didattica in modo rapido, raggiungendo più utenti senza sacrificare la qualità dell’insegnamento. L’azienda paragona questa scelta a quando, nel 2012, decise di puntare tutto sul mobile prima di altri: allora fu la chiave del suo successo, e oggi la nuova piattaforma da cavalcare è l’Intelligenza Artificiale.
La collaborazione con ChatGPT
Negli ultimi anni la società ha integrato diverse soluzioni di IA generativa all’interno della sua app per migliorare l’esperienza utente. Già a marzo 2023, ad esempio, Duolingo ha annunciato una partnership con OpenAI per sfruttare GPT-4, lanciando un piano in abbonamento chiamato Duolingo Max.
Oltre alle funzioni rivolte direttamente agli studenti, Duolingo sta usando l’IA anche dietro le quinte, per creare e tradurre i contenuti didattici. Un portavoce dell’azienda ha confermato che Duolingo ha intensificato gli investimenti in strumenti di AI generativa come ChatGPT e ora li impiega per produrre contenuti a un ritmo molto più veloce di prima.
In concreto, la società ha iniziato a generare automaticamente frasi, dialoghi ed esercizi nella lingua di destinazione, attività che in precedenza richiedevano il lavoro paziente di traduttori e linguisti umani. L’IA viene addestrata sul vasto patrimonio di dati linguistici di Duolingo e poi supervisionata da esperti in carne e ossa per assicurare che le traduzioni e gli esempi siano accurati e naturali.
Proprio questa automazione ha consentito a Duolingo di ridurre il bisogno di traduttori umani esterni, aprendo la strada al taglio dei contratti annunciato di recente. Von Ahn ha citato come “una delle migliori decisioni recenti” quella di aver sostituito un processo lento e manuale di creazione dei contenuti con uno alimentato dall’IA, grazie al quale si possono proporre materiali che prima avrebbero richiesto anni di lavoro.
Inoltre, l’IA sta sbloccando nuove funzionalità: il CEO ha rivelato che stanno sviluppando funzionalità innovative (come una modalità “Video Call” educativa) che prima erano “impossibili da realizzare senza le capacità dell’AI”.
Impatto su lavoratori interni ed esterni: nuove competenze
La scelta di abbracciare l’AI-first ha ricadute dirette sul personale di Duolingo, sia interno che esterno.
Sul fronte degli impiegati a tempo indeterminato, l’azienda assicura che nessuno perderà il posto in favore di un robot. L’idea è di far evolvere i ruoli, non di eliminarli. Anzi, i vertici insistono che i loro “Duos” (dipendenti) sono e saranno valorizzati, liberati dai compiti noiosi e supportati nel l’apprendimento delle nuove tecnologie.
È chiaro che le nuove assunzioni saranno più selettive. D’ora in poi chi entra in azienda dovrà dimostrare di saper sfruttare l’IA come acceleratore del proprio lavoro, poiché questa abilità diventa un’aspettativa di base (lo stesso concetto è stato ribadito di recente anche dal CEO di Shopify).
Anche le valutazioni del personale esistente cambieranno. Usare l’IA efficacemente farà parte dei criteri di performance, spingendo tutti a integrare questi strumenti nel flusso di lavoro quotidiano. In sintesi, in Duolingo il collaboratore ideale è destinato a diventare un “operatore aumentato dall’IA”, capace di moltiplicare la propria produttività affiancando al proprio know-how umano le capacità delle macchine.
Diverso è il discorso per i lavoratori esterni e collaboratori a progetto, che sono i primi a subire i tagli.
Ciò non toglie che il risultato sia stato un alleggerimento dell’organico esterno: meno traduttori umani e più traduzioni affidate all’IA.
Un ex-collaboratore, che aveva lavorato per Duolingo per cinque anni, ha raccontato in un post diventato virale su Reddit come il suo team di quattro traduttori sia stato ridotto a due persone dopo questa svolta strategica.
I pochi traduttori rimasti ora hanno principalmente il compito di revisionare i contenuti generati dall’intelligenza artificiale, controllando che siano accettabili e correggendo eventuali errori.
Questa testimonianza illustra bene la nuova situazione. L’IA produce la bozza iniziale di esercizi e traduzioni, mentre l’occhio umano interviene come supervisore di qualità.
Per i lavoratori coinvolti, interni o esterni che siano, la transizione non è indolore. Adattarsi significa acquisire competenze completamente nuove, cambiare abitudini e — comprensibilmente — affrontare l’incertezza sul proprio futuro professionale.
Duolingo insiste che il cambiamento sarà positivo e di stimolo per i dipendenti, ma c’è chi teme che, in prospettiva, una volta superati i “colli di bottiglia” iniziali, l’azienda possa scoprire di poter fare a meno di un numero crescente di persone. Del resto, la politica sulle nuove assunzioni (“prima prova con l’IA, poi eventualmente aggiungi una persona”) fa intuire che la crescita dell’organico umano rallenterà, puntando invece su soluzioni automatizzate.
Luis von Ahn, cofounder e CEO Duolingo
Reazioni e opinioni: entusiasmo per l’innovazione o rischio per il lavoro?
La notizia della svolta AI-first di Duolingo ha scatenato dibattiti accesi all’esterno, tra esperti del settore, utenti e gli stessi collaboratori coinvolti. Sui social media e forum online molte voci si sono levate criticando l’azienda per la decisione di sostituire i traduttori con “robot”.
Nel thread Reddit citato in precedenza, la maggioranza dei commenti esprimeva sdegno per l’operato di Duolingo, mostrando solidarietà verso i contrattisti lasciati a casa. Alcuni utenti hanno accusato la piattaforma di tradire la propria filosofia, dal momento che Duolingo ha sempre fatto leva su contenuti creati (e voci registrate) da madrelingua umani per garantire autenticità nelle lezioni.
Affidarsi ora alle traduzioni automatiche potrebbe, secondo questi critici, indebolire la qualità didattica e l’affidabilità percepita del prodotto.
Altri osservatori, pur dispiaciuti per la perdita di posti di lavoro, hanno inserito la vicenda in un contesto più ampio. “Vedremo storie del genere quasi ogni giorno. Renderà tutto molto più difficile per le persone che cercano di costruirsi una carriera” commenta amaramente un utente, alludendo al fatto che il trend di rimpiazzare lavoratori con alternative più veloci ed economiche basate sull’IA sta diventando generalizzato.
Il dibattito è aperto. Da un lato c’è chi accoglie con entusiasmo l’uso dell’IA per aumentare l’efficienza e liberare la creatività umana dai lavori noiosi; dall’altro c’è chi mette in guardia dai rischi sociali (disoccupazione, precarizzazione, perdita di competenze artigianali) e dai limiti attuali dell’IA stessa, che non può ancora sostituire pienamente il giudizio e la sensibilità umana.
Implicazioni per il settore tech e il futuro del lavoro con l’IA
L’approccio “AI-first” sposato da Duolingo solleva interrogativi importanti sul futuro del lavoro nell’industria tecnologica (e non solo). Se un tempo l’automazione minacciava soprattutto impieghi manuali o di catena di montaggio, l’avanzata dell’IA generativa punta direttamente a mansioni cognitive e creative, come scrivere testi, tradurre, programmare, progettare grafica e persino prendere decisioni basate su dati.
Il caso Duolingo mostra che le aziende sono sempre più disposte a ridefinire i ruoli professionali attorno a ciò che l’IA sa fare meglio, assegnando alle persone compiti dove il valore aggiunto umano è insostituibile (strategia, creatività, empatia, supervisione qualitativa).
In quest’ottica, potremmo assistere alla nascita di nuovi profili professionali, come l’esperto in prompt e IA (il cui lavoro è guidare e controllare i sistemi intelligenti), ma anche alla scomparsa graduale di figure tradizionali qualora le macchine dimostrino di poterle rimpiazzare in modo soddisfacente.
Per il settore tech, abbracciare l’IA in modo così pervasivo può portare un salto di produttività e innovazione. Duolingo, ad esempio, conta di sviluppare funzionalità didattiche rivoluzionarie e di moltiplicare i contenuti offerti grazie all’IA, guadagnando un vantaggio competitivo.
Anche altre aziende che adotteranno un modello simile potrebbero riuscire a offrire prodotti migliori a costi minori, beneficiando di algoritmi instancabili che lavorano 24/7. Si delinea un possibile scenario in cui le aziende “snelle” potenziate dall’IA diventano la norma: organici ridotti all’osso ma altamente specializzati, coadiuvati da un esercito silenzioso di agenti artificiali. Questo potrebbe mettere pressione sulle aziende più tradizionali, costrette a tenere il passo per non rimanere escluse dal mercato.
D’altro canto, le implicazioni sociali di questa trasformazione non possono essere ignorate. Se molte imprese seguissero la strada di Duolingo, interi settori potrebbero veder calare la domanda di lavoro umano.
I lavoratori dovranno puntare sempre più sulla formazione continua per acquisire competenze complementari all’IA; le aziende dovranno investire in riqualificazione del personale e gestire con responsabilità le transizioni, evitando approcci puramente estrattivi; le istituzioni potrebbero dover aggiornare le normative sul lavoro e i sistemi di welfare per far fronte a un mondo in cui la carriera di una persona potrebbe essere più volatile e interdipendente dalle disruption tecnologiche.
In conclusione, il “caso Duolingo” offre uno sguardo su ciò che sarà sul futuro prossimo. Da una parte, l’innovazione spinta dall’IA promette strumenti educativi più efficaci, servizi più accessibili e un mondo in cui le persone sono libere dai lavori più tediosi. Dall’altra, il rapporto fra lavoro e IA entra in una fase delicata, in cui sarà fondamentale trovare un nuovo equilibrio. La sfida è valorizzare l’apporto insostituibile dell’essere umano pur accogliendo i benefici dell’automazione.
L’equilibrio non è scontato e si costruirà attraverso scelte come quelle di Duolingo, che funge da laboratorio di questa convivenza tra lavoratori in carne e ossa e intelligenze artificiali.
Il modo in cui l’azienda gestirà questa transizione – e come risponderanno i suoi utenti e dipendenti – potrà fornire indicazioni preziose a tutte le realtà che si apprestano ad affrontare la medesima sfida.
OpenAI sta pensando ad un proprio social media. Tra rivalità con Elon Musk e bisogno di dati, ecco perché potrebbe cambiare il panorama delle piattaforme digitali.
Se davvero OpenAI realizzasse la sua piattaforma digitale, come si racconta in queste ore, allora sì che sarebbe uno stravolgimento delle piattaforme digitali, in particolare del panorama dei social media per come lo conosciamo oggi.
L’dea di OpenAI di un suo social media
Il primo a darne notizia è stato The Verge che ha lanciato un suo articolo con una notizia importante: OpenAI, la società guidata da Sam Altman che ha creato ChatGPT, starebbe pensando a una piattaforma digitale in stile X.
La piattaforma – guarda caso – è proprio quella di Elon Musk. E fra poco spiego cosa intendo per “guarda caso”.
Perché un social media proprio adesso?
Perché OpenAI starebbe pensando a una mossa del genere? E soprattutto: quale sarebbe la finalità per un’azienda di intelligenza artificiale?
Prima di rispondere a queste domande, riavvolgiamo un attimo il nastro e torniamo indietro di qualche anno.
Ecco perché OpenAI starebbe pensando ad un proprio social media
Un po’ di storia: dal 2015 a oggi
Siamo nel 2015, anno in cui nasce OpenAI come associazione senza scopo di lucro, con l’obiettivo di rendere l’intelligenza artificiale accessibile e utile a beneficio dell’umanità.
Tra i fondatori, c’era anche Elon Musk. Le cose vanno bene fino al 2018, quando Musk, stanco della leadership di Altman – secondo le informazioni che abbiamo – decide di uscire dal progetto. Se ne va, sbattendo la porta.
Poi conosciamo tutti l’evoluzione: Musk acquista Twitter nell’ottobre 2022, e nel frattempo i rapporti con OpenAI si fanno sempre più tesi.
Le tensioni con Musk e la nascita di Grok
Gli screzi tra i due non si sono mai sopiti. Anzi, si sono accentuati con la crescita di ChatGPT e con la trasformazione di OpenAI in azienda a scopo di lucro, una svolta non da poco. In parallelo, Elon Musk sviluppa xAI e poi Grok, il chatbot integrato su X.
Le tensioni si aggravano fino ad arrivare a cause legali. Proprio recentemente, OpenAI ha denunciato Musk, e la battaglia giudiziaria è in corso.
L’offerta di Musk e la risposta di Altman
A febbraio di quest’anno, Elon Musk ha provato a rilanciare. Ha offerto 97 miliardi di dollari per acquisire OpenAI. Una mossa per riportarla alle origini, secondo lui.
Altman ha risposto via X: “No, grazie. Semmai compreremo noi X per 9,7 miliardi”. Una battuta, forse, ma alla luce di ciò che sappiamo oggi, potrebbe nascondere molto di più.
Anche Meta spinge sull’AI, e OpenAI risponde
Quando Meta ha lanciato il suo Meta AI, Altman ha commentato: forse è arrivato il momento che anche OpenAI abbracci i social media. Tutti segnali che portano nella stessa direzione.
OpenAI contro X?
E adesso arriva questa notizia. Appunto, OpenAI potrebbe entrare direttamente nel mercato delle piattaforme digitali, in concorrenza diretta con X.
Perché proprio ora?
Primo: per la rivalità ormai conclamata con Elon Musk. Secondo: perché X sta consolidando la sua posizione e OpenAI potrebbe inserirsi proprio in questo contesto.
I dati, il vero obiettivo di OpenAI
Ma la motivazione più importante è un’altra. ChatGPT ha bisogno di dati. Ha bisogno di dataset sempre più grandi per migliorare. E qual è il modo più diretto per reperire dati, anche in tempo reale? Una piattaforma sociale, come appunto X.
Come fa Meta AI, che si nutre di dati pubblici degli utenti, nonostante l’opposizione. Come fa Grok, che accede a dati condivisi su X. OpenAI potrebbe fare lo stesso, se avesse una propria piattaforma.
Un esempio concreto: Studio Ghibli e action figures
Basti pensare al recente trend delle immagini generate in stile Studio Ghibli o alle action figures AI: se questi contenuti venissero condivisi su una piattaforma OpenAI, che tipo di dati ne emergerebbero?
Dati preziosi per addestrare i modelli, che diventerebbero sempre più efficaci, più evoluti. L’intelligenza artificiale si nutrirebbe di questi contenuti.
Pe un social media servono infrastrutture
Chiaramente, entrare nel mercato delle piattaforme digitali non è un gioco. Servono server, infrastrutture, investimenti. OpenAI è già attrezzata, ma dovrà fare di più.
E soprattutto dovrà progettare una piattaforma con un livello di engagement molto elevato, se vuole distinguersi in un mercato ormai segnato dall’“algoritmo del proprietario”.
Ascolta e guarda su Spotify
E se OpenAI ci riuscisse?
Non mi sorprenderebbe se OpenAI riuscisse davvero nel suo intento: realizzare una piattaforma digitale che alimenti il suo modello ChatGPT, che attiri utenti, ma che allo stesso tempo sia guidata da logiche di controllo algoritmico.
Non sarebbe nulla di nuovo, anzi: sarebbe perfettamente in linea con quello che stiamo già osservando in molte piattaforme.
Altman ci sta pensando, ma non c’è nulla di ufficiale
L’idea c’è, l’intento pure. Ma non ci sono ancora notizie ufficiali. Sam Altman sta raccogliendo feedback all’interno dell’azienda per capire se il progetto è davvero fattibile.
Non è solo una questione finanziaria: si tratta di comprendere come posizionarsi in un contesto dove X, Meta e altre stanno già giocando le loro carte.
Una sfida che cambierebbe tutto
Una mossa del genere farebbe saltare i nervi a Elon Musk, e sarebbe uno scenario che varrebbe la pena osservare da vicino. Perché cambierebbe davvero tutto.
Continuerò a raccontarvi ciò che succede. Se volete condividere pensieri e opinioni, lo spazio per farlo è aperto. E ci aggiorniamo alla prossima.
ChatGPT 4o ora consente di generare immagini di personaggi famosi in contesti realistici, ma mai avvenuti. Un passo avanti che solleva rischi concreti di disinformazione visiva. Ecco cosa sta cambiando, come riconoscerlo e perché serve essere responsabili.
Restando sul tema di intelligenza artificiale, vi sarete accorti anche voi che ultimamente si è potenziata la possibilità di generare immagini. E di generare queste immagini anche con personaggi noti, personaggi pubblici, personaggi famosi, politici… e addirittura ritrarli in situazioni che prima non era possibile fare.
Mi riferisco in particolare all’aggiornamento di ChatGPT, che ha potenziato il modello 4o al punto da far generare, da riuscire, da permettere agli utenti di generare immagini che prima non era possibile fare.
Ci concentriamo sempre sulle capacità dell’intelligenza artificiale, di questi modelli che sono sempre più aggiornati, sempre più potenti, ma non ci soffermiamo mai sul fatto che prima non era possibile fare una cosa, e invece oggi è possibile farlo.
Immagini IA, ChatGPT 4o e rischio disinformazione
Quali immagini può generare oggi ChatGPT 4o
Come appunto questa, che in realtà definisce ancora di più la vicinanza tra ciò che era lecito fare e ciò che in realtà è un rischio, un potenziale rischio di disinformazione che è alla portata di tutti.
Perché questo?
Perché in realtà le immagini sono, l’abbiamo visto anche in questi giorni, il contenuto più facilmente condivisibile, più facilmente condiviso sulle piattaforme, e che facilmente può diventare anche virale.
Lo diventa nel momento in cui noi abbiamo la possibilità di ritrarre personaggi noti, famosi. Faccio l’esempio di Trump che è sulla spiaggia di Copacabana con Elon Musk a bere un drink. Una situazione che prima su ChatGPT non era possibile fare e che adesso invece è alla portata di tutti.
Trump Musk spiaggia copacabana ChatGPT 4o realizzata da Franz Russo
Sono quelle situazioni in cui abbiamo questa sorta di voglia di vedere personaggi famosi in situazioni che molto probabilmente non vivrebbero mai, e che difficilmente sarebbero ritratte in quella situazione.
Questo significa che, in realtà, anche noi potremmo essere al centro di quel contenuto. E quindi, avendo la possibilità di poter ritrarre e permettendo anche agli utenti la possibilità di generare immagini come queste, nulla vieta che un giorno ci possa essere un Franz Russo, tanto per fare un esempio, che si trova in un determinato luogo, con una determinata situazione, ma in realtà tutta quell’immagine non esiste.
Il confine tra immagini reali e false è sempre più sottile
Quindi il confine tra ciò che è possibile, che è realistico, e ciò che è in realtà una potenziale disinformazione, si sta avvicinando sempre di più.
Ma perché ChatGPT arriva a trasferire questo senso di responsabilità un po’ più verso gli utenti?
La questione è molto semplice, ed è di natura commerciale.
Il caso Grok 3 di xAI
Sul mercato dell’intelligenza artificiale esiste già Grok 3, la terza versione di questa intelligenza artificiale realizzata da xAI, che è una delle società di Elon Musk.
Grok si trova all’interno della piattaforma X, e permette fin dall’inizio, da quando è stata generata la prima versione, di generare immagini che ritraggono personaggi famosi anche con un limite sempre più alto, con un’asticella sempre più alta, con possibilità di ritrarre personaggi famosi sempre più alla portata di chiunque.
L’immagine di Papa Francesco col piumino bianco
Ricordate quando nel 2023 si realizzarono quelle immagini con Papa Francesco, il famoso piumino? Ebbene, quell’immagine lì oggi ChatGPT la fa tranquillamente.
Papa Francesco piumino generata con la ChatGPT 4o da Franz Russo
L’immagine del falso arresto di Trump
Oppure un’altra famosa immagine di Donald Trump circondato da poliziotti che cerca di fuggire a un possibile arresto: ebbene, quell’immagine ChatGPT oggi la realizza tranquillamente, senza nessun problema.
Donald Trump falso arresto generato con ChatGPT 4o da Franz Russo
Questo significa che il confine, ripeto, di quello che noi possiamo generare rispetto a una potenziale disinformazione, si sta sempre di più assottigliando, sempre di più avvicinando. Non si riconosce più il rischio di quello che riusciamo a generare.
Ci sono addirittura delle immagini, tipo Bill Gates con una birra in mano, realizzata da me su ChatGPT, che alcuni strumenti di verifica, come Illuminarty, addirittura fanno fatica a definire se sia un’immagine realistica, umana, oppure se sia generata da intelligenza artificiale.
Bill Gates con birra in mano realizzata con Chatgpt-4o da Franz Russo
Questo già ci dice molto di come effettivamente anche questi strumenti di verifica possono essere utili o addirittura affidabili.
Piccoli suggerimenti per riconoscere immagini IA
Per cercare poi di offrire qualche suggerimento su come accorgerci del fatto che queste situazioni, alcune immagini, possono sembrare artefatte, ecco alcuni dettagli:
lo sfondo, magari un po’ confuso;
scritte non precise;
mani, che erano un grande problema per DALL·E 3;
oppure la pelle, che è sempre perfetta, molto liscia, e quindi già di per sé ti porta a pensare che sia un’immagine artefatta, anche se in alcuni casi anche questo dettaglio è in netto miglioramento,
o addirittura l’esposizione della luce, che in alcuni contesti è quasi irrealistica: quel tipo di luce difficilmente può essere naturale.
Oppure ancora, cercare di avvalersi sempre della ricerca inversa, quindi utilizzare motori di ricerca – ad esempio Google Immagini – sottoponendo i contenuti per avere una risposta dal motore di ricerca sul fatto che quell’immagine sia stata già utilizzata in altri contesti o meno.
Anche perché è capitato, anche di recente, che alcune immagini realizzate con intelligenza artificiale—quindi neanche con modelli di ricerca tanto evoluti, perché l’evoluzione l’abbiamo avuta molto molto di recente—siano stati confusi come contenuti realistici.
Quindi il senso di responsabilità, da parte nostra, ormai è imprescindibile. Non possiamo che fare affidamento a quel senso di responsabilità, alla consapevolezza del fatto che stiamo utilizzando strumenti che in alcuni contesti possono generare contenuti potenzialmente di disinformazione.
Guarda il video
Anche la ghilbizzazione aiutare a confondere
Anche lo stesso fenomeno della ghiblizzazione, di cui abbiamo parlato anche in un altro video, è uno di quegli elementi che ci porta a trasformare quella che è la realtà in un contesto diverso: più armonioso, più pastellato, più colorato, più dolce.
Ma anche quello diventa una situazione per mascherare altre situazioni irrealistiche. Condividerle in un contesto completamente diverso, anche quello è un potenziale rischio di disinformazione.
Celebre meme con ghiblizzazione
Quindi, rispetto anche alla potenzialità, al modo in cui noi possiamo effettivamente affrontare questo, è sicuramente importante conoscere meglio i modelli. E quindi avvalerci di quella competenza, AI Literacy, conoscenza approfondita dei modelli. Dobbiamo prestare attenzione su come utilizziamo questi modelli e per cosa li vogliamo usare.
Che sia per uso personale, per lavoro, per tutte le attività che facciamo, dobbiamo prestare sempre molta attenzione e affidarci a un senso di responsabilità. Chiederci sempre: qual è la motivazione che mi porta a usare questo modello? Cosa voglio davvero fare?
E imparare, anche noi utenti, a riconoscere sempre meglio queste immagini, a sapere che tipo di immagine abbiamo davanti, a saperle riconoscere ed evitare che diventiamo anche noi potenziali diffusori di disinformazione.
Meta AI è arrivata da poco in Italia. Ma ci sono due aspetti che vanno approfonditi: l’uso dei dati pubblici degli utenti e l’impossibilità di disattivare l’IA. In questo articolo provo a verificare le implicazioni, tra privacy, consenso. E anche un confronto con Grok di X.
Come sapete, Meta AI è attivo anche in Italia da qualche giorno. È arrivato anche su WhatsApp, dove praticamente tutti gli utenti hanno visto questa iconcina circolare che, una volta attivata, risponde a delle domande e a dei problemi.
Per cercare di chiarire il motivo di questa considerazione, che si basa essenzialmente su due elementi, provo ad essere un po’ più chiaro, per farvi entrare nella logica di ciò che dirò più tardi, soprattutto su questi due punti.
Un assistente a tratti invadente
Immaginiamo di essere in una grande stanza e di osservare ciò che accade, accompagnati da una persona che chiameremo il nostro assistente particolare.
Quando abbiamo qualcosa da chiedere, ci rivolgiamo a questo assistente che risponde alle nostre domande in maniera molto precisa e dettagliata, offrendo anche la possibilità di approfondire successivamente.
Intanto, continuiamo il nostro giro in questo palazzo osservando tutte le stanze: in ogni stanza c’è qualcosa che ci incuriosisce, e chiediamo al nostro assistente.
Il problema è che questo assistente ci segue in continuazione, anche quando non lo interpelliamo: ci osserva, ascolta le nostre azioni, guarda con chi parliamo e ascolta cosa diciamo con le altre persone che incontriamo.
Il problema sorge quando ci accorgiamo che questa presenza diventa, ad un certo punto, pesante e vorremmo mandarla via, ma non riusciamo a trovare un modo per farlo. Non c’è la possibilità, per così dire, di disattivarla.
MetaAI usa i nostri dati e non si può disattivare, alcune considerazioni
Il primo problema di Meta AI: l’uso dei dati pubblici
Ed è qui che entro sul tema, cercando di spiegare i due elementi cardine che riguardano Meta AI (e non solo).
Intanto, MetaAI è presente in Unione Europea dal 20 marzo, dopo aver – per così dire – migliorato la sua aderenza, la sua compliance, al GDPR.
Il GDPR, questo regolamento sulla protezione dei dati entrato in vigore in Unione Europea nel 2018, ha rivoluzionato il modo in cui vengono gestiti i dati.
Ebbene, ci sono due aspetti che meritano attenzione.
Il primo è che, inizialmente, avevo creduto che Meta AI non usasse i nostri dati per allenare la sua intelligenza. In realtà, le cose sono diverse. Se provate a chiedere a MetaAI, su Facebook, Instagram o WhatsApp, se utilizza i vostri dati, la risposta standard è: “No, non utilizzo i dati“. Tuttavia, la realtà è più complessa.
Questo approccio non va proprio nella direzione del GDPR, il cui fondamento è il consenso informato e la capacità di controllo da parte dell’utente all’interno delle piattaforme digitali.
Cosa c’è all’interno del Privacy Center
All’interno del Privacy Center non è ben spiegato se e come si debbano pubblicare i nostri contenuti. Meta non dà spazio a questo aspetto; il link di riferimento, che fornirò in calce al video, spiega che se non volete che MetaAI utilizzi i vostri dati, dovete passare in modalità privata. Questa soluzione, però, può essere valida per alcuni e meno per altri.
Parliamo di consapevolezza: è importante che, da un lato, la piattaforma fornisca l’informazione corretta e, dall’altro, che ciascuno adotti l’atteggiamento giusto nella condivisione dei contenuti. Solo in questo modo possiamo essere consapevoli e responsabili dell’uso dei nostri dati.
Secondo problema di Meta AI: non può essere disattivata
Il secondo elemento, che cozza maggiormente con il GDPR, è il fatto che l’intelligenza artificiale non può essere disattivata. Non esiste un tasto o un’opzione che permetta all’utente di scegliere se utilizzare o meno l’IA.
L’unica cosa possibile, in assenza di una modalità di disattivazione, è di non utilizzarla: di non interpellarla, di non fare in modo che possa entrare nelle vostre conversazioni. Ma l’IA si alimenta delle richieste (i cosiddetti prompt), dei risultati e delle risposte, continuando a prelevare dati.
Da tutte le piattaforme – Instagram, Messenger, WhatsApp e Facebook – le risposte pubbliche attingono anche ai risultati pubblici, senza possibilità di disattivare l’IA. Questo ulteriore elemento non collima con il GDPR, perché non offre la possibilità di scegliere.
Il confronto con Grok di X
Se volessimo fare un paragone, ci riferiremmo a Grok di X (la piattaforma che prima era Twitter, di proprietà di Elon Musk). Grok, che è l’IA di X, funziona in maniera simile: è integrato nella piattaforma, usabile anche senza abbonamento (con alcune limitazioni) fino alla versione Premium+. Anche Grok, comunque, utilizza di default i dati pubblici degli utenti, non appena si attiva un account.
L’unica azione possibile è quella di andare nelle impostazioni della privacy, nella sezione dedicata a Grok, e disattivare l’opzione di raccolta dati pubblici. Attenzione: se si effettua questa operazione, Grok continuerà a utilizzare i dati già condivisi, mentre solo i dati futuri non verranno più prelevati.
Un ulteriore elemento è la possibilità di eliminare la cronologia delle conversazioni con l’IA. Pur essendo un aspetto leggermente più in linea con il GDPR, sul consenso informato rimane comparabile a MetaAI.
In sintesi, stiamo parlando di due esperienze molto simili che, da un lato, permettono un minimo di controllo. Anche Grok suggerisce, come ultima ipotesi, di passare in modalità privata per evitare che i propri dati vengano prelevati. Tuttavia, questo comporta una significativa riduzione nella visibilità e nelle condivisioni dei propri contenuti.
Grok (X)
Meta AI
Opt-out disponibile
✅ Sì
⚠️ Sì, ma difficile da trovare
Disattivazione IA
✅ Parziale (nessuna interazione)
❌ No
Consenso esplicito
❌ No
❌ No
Trasparenza IA
⚠️ Media
❌ Bassa
GDPR compliance
🟡 In dubbio, ma più avanzato
🔴 Più problematico
La IA entra nelle piattaforme digitali per cambiarle
Quindi, si tratta di un passaggio inevitabile: l’intelligenza artificiale sta entrando nelle piattaforme digitali e, come già anticipato in un mio video precedente, questo cambierà radicalmente il nostro modo di interagire non solo con le piattaforme ma anche tra di noi.
Le relazioni e le conversazioni tra utenti saranno inevitabilmente influenzate dall’uso dell’IA. Dobbiamo farlo in maniera informata e consapevole, sapendo se i nostri dati saranno dati in pasto all’intelligenza artificiale e avendo la possibilità di scegliere, in linea con il consenso informato richiesto dal GDPR.
Il GDPR poggia la sua intera esistenza su questo principio: anche se non c’è un obbligo esplicito, la dichiarazione di consenso dovrebbe far parte dell’esperienza dell’utente, permettendogli di scegliere se concedere i propri dati.
Questi sono, in sostanza, i due elementi che rendono Meta AI un caso particolare.
Adesso bisognerà osservare se Meta intende, in questo scenario globale – complicato da aspetti geopolitici, finanziari e normativi – adeguarsi pienamente al regolamento europeo. Vedremo anche come reagirà l’Unione Europea a questi due punti critici, soprattutto considerando le tensioni nei rapporti con gli Stati Uniti e l’eventuale questione dei dazi e della web tax che colpiranno le big tech.
Non è uno scenario facile, e vedremo come evolveranno le cose. Ci interrogheremo se Meta AI diventerà più conforme al GDPR.
Condividete le vostre esperienze e i vostri pensieri: se Meta AI è stata utilizzata, se eravate informati sull’uso dei vostri dati. Fatemelo sapere nei commenti.
Come sta cambiando il mondo del lavoro nell’era della IA? I dati diffusi da LinkedIn sulle skill professionali in crescita, ci aiutano a scoprire le competenze necessarie per affrontare questo grande cambiamento.
In un momento in cui si parla, quasi quotidianamente, di come cambierà il lavoro nell’era della IA, ecco che LinkedIn ci offre una bussola per orientarci tra i cambiamenti in atto.
Con il recente rapporto Skills on the Rise 2025, la piattaforma di social business media più grande al mondo ha definito le 15 competenze che domineranno il mercato, negli Usa e in Europa, nei prossimi mesi.
Anche se l’Italia non è citata esplicitamente, queste tendenze emerse parlano chiaro. L’intelligenza artificiale e le soft skills saranno il cuore del mercato del lavoro anche da noi.
E c’è una sorpresa – o forse no – al primo posto: l’AI Literacy, ovvero la capacità di comprendere e utilizzare l’intelligenza artificiale.
Si tratta di un segnale chiaro. Il futuro è già qui, e chi vuole rimanere competitivo deve imparare a parlare la lingua della IA.
Un panorama in trasformazione
Il dato che colpisce di più arriva da una previsione: entro il 2030 (dal 2015), il 70% delle competenze richieste per la maggior parte dei lavori sarà diverso da oggi.
Non è fantascienza, ma una realtà spinta dall’adozione sempre più accelerata e capillare dell’IA in ogni settore.
LinkedIn, analizzando i profili dei suoi utenti e le offerte di lavoro pubblicate, ha stilato una classifica che mescola hard e soft skills. E il messaggio è evidente: non basta più essere specialisti in un solo campo, serve una visione d’insieme.
Dopo l’AI Literacy, troviamo competenze come la gestione del cambiamento, il pensiero critico e la leadership. Ma anche skill più tecniche come la gestione dei dati e la sicurezza informatica.
Il mondo del lavoro nell’era della IA, secondo LinkedIn
Perché l’AI Literacy è la regina del 2025
Non è un caso che l’alfabetizzazione all’intelligenza artificiale sia in cima alla lista, un po’ ovunque.
Oggi l’IA non è più un optional. Dalle aziende che ottimizzano i processi produttivi ai professionisti che usano tool come ChatGPT per scrivere report o analizzare dati, questa tecnologia sta ridefinendo il modo in cui lavoriamo.
Ma attenzione, non si tratta solo di sapere “premere un pulsante”. L’AI Literacy significa capire come funzionano questi strumenti, interpretarne i risultati e integrarli in modo etico e strategico nel proprio flusso di lavoro. È una competenza trasversale, che tocca tanto il marketer quanto l’ingegnere. Tanto per chiarirci.
Non solo tecnologia: il ritorno delle soft skills
Accanto alle abilità tecniche, il rapporto di LinkedIn dà spazio a quelle che abbiamo sempre definito “soft skills” – e che oggi sono tutt’altro che secondarie.
Comunicazione, problem solving e capacità di adattamento al cambiamento sono tra le protagoniste.
Un esempio? La gestione del cambiamento, seconda in classifica, riflette la necessità di navigare in un contesto lavorativo sempre più fluido, dove le certezze di ieri non valgono più. È un invito a essere resilienti, un tema che torna spesso quando si parla di futuro del lavoro.
La “competenza” del pensiero critico
Tra queste si fa strada anche la capacità di “pensiero critico”. Ho già detto in altre occasioni che questa soft skill assume, e assumerà, uno spazio sempre più rilevante.
In un mondo dove l’intelligenza artificiale (IA) domina i processi e i dati inondano ogni decisione, la capacità di analizzare, valutare e prendere decisioni consapevoli diventa una sorta di ancora di salvezza. Ma cosa significa davvero nel contesto europeo?
L’IA può elaborare dati e suggerire soluzioni, ma non sa “pensare fuori dagli schemi” né mettere in discussione i propri output. Il pensiero critico serve a interpretare i risultati dell’IA, valutarne l’affidabilità e adattarli a contesti locali.
Pensiamo a un responsabile marketing che usa un tool di analisi predittiva: senza la capacità di chiedersi “questi dati sono davvero rappresentativi?” o “questa strategia ha senso per il mio pubblico?”, l’automazione rischia di diventare un boomerang.
Il pensiero critico entra in gioco come abilità per affrontare problemi complessi. Non si tratta solo di trovare risposte, ma di fare le domande giuste.
In Europa, la digitalizzazione dei processi, la spinta verso modelli ibridi di lavoro e l’urgenza climatica stanno cambiando profondamente le priorità aziendali.
Come cambieranno le competenze
In questo scenario, secondo il World Economic Forum, entro il 2027 il 44% delle competenze dei lavoratori dovrà essere aggiornato, e oltre il 75% delle aziende in Europa ha dichiarato di voler investire in upskilling e reskilling nei prossimi due anni.
Ma c’è di più: la conoscenza nei modelli linguistici di grandi dimensioni (LLM) è oggi tra le skill in crescita in Germania e Regno Unito. È un segnale chiaro del ruolo che strumenti come ChatGPT, Gemini o Claude stanno giocando non solo nella creazione di contenuti, ma anche nei processi di decision-making, ricerca, assistenza e relazione con il cliente.
L’IA non sostituisce, ma ridisegna
Il dibattito su come l’intelligenza artificiale stia impattando il lavoro resta aperto. Se da una parte c’è chi teme la sostituzione, dall’altra emerge un’interpretazione più concreta e matura: l’IA non elimina il lavoro, ma lo ridisegna.
Serve quindi un cambio di mentalità.
I lavoratori che sapranno collaborare con l’IA, comprenderne la logica, sfruttarne le potenzialità nei contesti giusti, saranno più preparati ad affrontare un mercato del lavoro in continua evoluzione. Ecco perché l’AI literacy è diventata una skill diffusa non solo tra i tecnici, ma anche tra chi lavora nel marketing, nella comunicazione, nelle vendite, nel customer service.
Differenze per paese
LinkedIn adatta le classifiche in base alle specificità dei mercati del lavoro locali. Ad esempio:
India: la lista dà più peso a competenze tecniche come Code Review (2° posto), Debugging, e Prompt Engineering, oltre a soft skills come Creativity and Innovation (1° posto) e Strategic Thinking. AI Literacy è presente ma non al primo posto.
Germania: competenze legate all’ingegneria e alla manifattura (es. Software Design, Process Optimization) sono più prominenti, insieme a Cybersecurity, vista l’importanza della protezione dati nell’UE.
Francia: soft skills come Comunicazione e Adattamento salgono in classifica, insieme a Customer Engagement, per il focus su servizi e relazioni con i clienti.
Regno Unito: AI Literacy e Data Management sono alte, ma anche Regulatory Compliance emerge per via del contesto normativo post-Brexit.
Una “media” delle 15 competenze
Ecco una media delle competenze, considerando la frequenza con cui una competenza appare nelle prime posizioni tra i vari paesi e la sua rilevanza globale:
AI Literacy – sempre tra le prime, fondamentale ovunque per l’impatto dell’IA.
Communication – ricorre in tutte le liste, essenziale in contesti ibridi e multiculturali.
Adaptability – alta priorità per la rapidità dei cambiamenti globali.
Critical Thinking – valutata ovunque per risolvere problemi complessi.
Creativity and Innovation – spicca in India e compare spesso altrove.
Leadership – costante per guidare team in transizione.
Problem Solving – universale, soprattutto in India e USA.
Data Management – cresce con la digitalizzazione, rilevante in UK e Germania.
Cybersecurity – priorità in Europa (es. Germania) e USA.
Change Management – frequente per gestire trasformazioni aziendali.
Process Optimization – importante in contesti industriali (es. Germania).
Stakeholder Management – ricorre in India e UK per relazioni strategiche.
Large Language Model (LLM) Development – specifica ma in crescita, specie in tech hub.
Market Analysis – rilevante per strategie di business globali.
Conflict Resolution – emerge in USA e Francia per dinamiche lavorative.
Le competenze che contano nel 2025 per la IA
Come cambierà il lavoro nei prossimi anni
La trasformazione è già in atto. Le professioni stanno cambiando forma, alcune si ibridano, altre spariscono o si trasformano profondamente. Allo stesso tempo, ne stanno emergendo di nuove.
Ciò che sta accadendo oggi non è solo un aggiornamento delle competenze, ma una ristrutturazione dei modelli professionali. Le organizzazioni più lungimiranti stanno già investendo per costruire team capaci di:
apprendere in modo continuo;
integrare strumenti digitali e umani;
gestire il cambiamento come una costante;
lavorare in contesti multiculturali e distribuiti.
In tutto questo, torna centrale una visione più ampia della formazione: non più solo tecnica, ma culturale e umana. La capacità di imparare, di leggere la complessità, di agire con consapevolezza e senso critico diventa la vera risorsa scarsa del futuro.
Alla fine per abbracciare il cambiamento non resta che imparare, imparare sempre. Studiare, approfondire per abbracciare il cambiamento.
Guarda e ascolta il video
[L’immagine di copertina, come quelle che accompagnano le condivisioni sui canali social media, è stata realizzata da Franz Russo usano il modello di generazione delle immagini Chatgpt-4o]
Meta AI debutta in Europa e Italia, precisamente in 41 paesi. Integra le piattaforme Meta senza usare dati utenti, rispettando GDPR. Segna l’evoluzione dei social media verso ecosistemi più intelligenti. Le piattaforme digitali si evolvono.
Al momento, sarà attivo in 41 paesi, risponderà in italiano e si integrerà nelle piattaforme di Meta: Facebook, Instagram, WhatsApp e Messenger.
Un lancio atteso, ma non privo di limitazioni, che riflette il rispetto delle norme europee sulla privacy e offre uno spunto per riflettere sulla trasformazione dei social media.
Il modello di Meta AI distribuito in Europa non utilizza i dati degli utenti di Facebook e Instagram, una scelta obbligata per conformarsi al GDPR e all’AI Act, entrato di recente in vigore. Non permetterà la generazione di immagini né sfrutterà le conversazioni degli utenti per generare contenuti in risposta alle loro richieste.
Meta AI arriva anche in Italia, la IA cambia i social media
Si tratta di restrizioni che spiegano il ritardo nell’espansione europea. A giugno 2024, Meta aveva già pianificato il debutto di Meta AI in Unione Europea, ma le istituzioni, in particolare l’Autorità irlandese per la protezione dei dati, avevano imposto un fermo, richiedendo il rispetto di una serie di regole. Ora, dopo mesi di adeguamenti, l’assistente è pronto a operare.
Come si usa Meta AI?
Meta AI sarà accessibile in diversi modi all’interno delle piattaforme Meta:
Su Instagram e Messenger, l’AI potrà essere attivata nei messaggi diretti.
Nei gruppi WhatsApp, gli utenti potranno menzionare @MetaAI per porre domande e ricevere risposte contestualizzate.
Nei commenti su Facebook, Meta AI potrà essere interpellata per fornire approfondimenti.
Sul sito meta.ai, l’assistente sarà disponibile come chatbot.
L’icona blu di Meta AI segnalerà chiaramente la sua presenza, e per attivarlo basterà digitare @MetaAI seguito da una richiesta.
Gli esempi di utilizzo più comuni? Si potrà chiedere all’AI di fornire informazioni in tempo reale all’interno di conversazioni su WhatsApp o di intervenire in discussioni su Instagram e Facebook.
Per attivarlo, comparirà un’icona blu nei messaggi di Instagram e nei gruppi WhatsApp, oppure basterà scrivere “@MetaAI” seguito da un prompt, una richiesta esplicita. L’intelligenza artificiale risponderà a domande o interverrà nelle conversazioni, come chiedere suggerimenti in un gruppo WhatsApp o fornire informazioni rapide su Instagram. Ogni contenuto generato da Meta AI sarà chiaramente identificato, in linea con le disposizioni dell’AI Act.
Le piattaforme digitali cambiano con la IA
Questa novità non è solo un aggiornamento tecnologico, ma la dimostrazione di un cambiamento profondo nelle piattaforme digitali. L’intelligenza artificiale non è più confinata a un algoritmo che decide cosa mostrare, il cosiddetto “algoritmo del proprietario”, che sempre più spesso privilegia i contenuti graditi alla piattaforma stessa, trascurando gli interessi reali degli utenti.
Ora, l’AI diventa un elemento attivo nella generazione di contenuti all’interno delle conversazioni tra utenti. Meta AI alimenterà un’ulteriore chiusura degli spazi digitali, trattenendo gli utenti all’interno delle piattaforme con risposte immediate e personalizzate, rafforzando il fenomeno delle bolle informative.
MetaAI e l’addio al fact-checking
Il lancio di Meta AI coincide con un altro sviluppo significativo: Meta ha abbandonato il fact-checking tradizionale e sta testando, negli Stati Uniti, le Community Notes, un sistema che affida agli utenti la validazione delle informazioni nei post. Questo approccio arriverà anche in Italia e vedrà probabilmente un ruolo per l’intelligenza artificiale.
In Europa, va precisato, le regole sulla privacy limiteranno l’impatto di queste innovazioni, mantenendo un equilibrio tra tecnologia e protezione dei dati.
Le piattaforme digitali, con Meta AI, si trasformano in assistenti in tempo reale e motori di ricerca integrati. Gli utenti potranno interrogare l’AI senza uscire dalle app, un modello che espanderà il loro ruolo oltre la semplice comunicazione.
Guarda il video
In futuro, Meta AI potrebbe generare contenuti automatici, incluse immagini, come già accade fuori dall’Unione Europea.
L’esempio di Grok su X
Un esempio parallelo è X, dove Grok, l’AI di Elon Musk, interviene direttamente nelle conversazioni quando richiamato con “@Grok”, rispondendo su argomenti specifici. A differenza di Grok, che opera come un bot con una sezione dedicata e un’app stand-alone negli Stati Uniti, Meta AI si integra nativamente nelle conversazioni, un aspetto che sottolinea la direzione verso una presenza sempre più pervasiva dell’AI.
Le piattaforme social media, con la IA da strumenti ad assistenti
Questo cambiamento ridefinisce le piattaforme digitali, nate come strumenti per connettere gli utenti, ma ora sempre più orientate a diventare ecosistemi autonomi.
Lo sviluppo di Meta AI in Italia dipenderà da come gli utenti lo accoglieranno: sarà un intervento minimo, senza impatto sulle conversazioni, o un elemento centrale nella loro evoluzione?
Nei prossimi mesi, osserveremo come tutto questo si inserirà nel nostro contesto e quale percorso prenderà.
Google celebra la Giornata Internazionale della Donna 2025 con un Doodle dedicato alle donne nelle STEM, ricordando c’è ancora molto da fare per colmare il divario.
Come ogni anno, anche oggi 8 marzo 2025, Google dedica un Doodle speciale alla Giornata Internazionale della Donna, un momento che celebra i contributi delle donne in ogni ambito della società.
Il doodle che accompagna il Doodle mette in evidenza: un atomo (fisica); una doppia elica di DNA e una provetta (biologia e chimica); un teschio fossile (paleontologia e archeologia); e un’astronauta (esplorazione spaziale).
Il doodle di Google per le donne STEM
Si tratta di simboli che rappresentano in modo efficace e visivo l’importanza dei contributi femminili nei vari settori STEM, celebrando la loro presenza e i loro risultati. Evocando il loro impatto straordinario sulla scienza e sulla tecnologia.
Giornata Internazionale della Donna: il Doodle Google dedicato alle STEM
Google, attraverso questo Doodle vuole lanciare un messaggio chiaro per il futuro, richiamando l’attenzione su un tema ancora critico: la presenza femminile nel settore STEM (Science, Technology, Engineering and Mathematics).
La scelta di Google non è casuale, ma riflette la necessità di sensibilizzare l’opinione pubblica sulla presenza femminile nelle discipline STEM, un ambito in cui la partecipazione delle donne è ancora inferiore rispetto a quella maschile.
Ricorderete l’articolo che avevo dedicato proprio al divario, tra donne e uomini, proprio parlando di intelligenza artificiale.
Un divario rischia di tradursi in tecnologie meno inclusive, con algoritmi e sistemi che riflettono pregiudizi e stereotipi esistenti.
Il divario tra donne e IA
I dati ci dicono, infatti, che solo il 22% dei professionisti dell’Intelligenza Artificiale sono donne. Se restringiamo l’analisi alla produzione scientifica, la situazione peggiora: appena il 13,83% degli autori di pubblicazioni AI sono donne e solo il 18% dei relatori nelle principali conferenze internazionali sul tema è di sesso femminile.
La scelta di Google di dedicare questo Doodle alle donne nelle STEM diventa così un’occasione importante non solo per celebrare ma anche per sensibilizzare tutti su questi temi.
Per contrastare l’attuale situazione, è necessario un impegno continuo da parte di istituzioni, aziende e organizzazioni educative per aumentare la partecipazione femminile, attraverso iniziative concrete come borse di studio, programmi di mentorship e campagne di sensibilizzazione mirate.
Solo attraverso un investimento reale nell’inclusione femminile sarà possibile assicurare un futuro più equo e tecnologicamente avanzato.
La diversità è un valore aggiunto fondamentale per l’innovazione. Ed è proprio l’innovazione, insieme alla passione e alla determinazione, che caratterizza il cammino di tante donne straordinarie, capaci di sfidare i limiti imposti da una società che, troppo spesso, fatica ancora a riconoscerne pienamente il talento.
La Giornata Internazionale della Donna è quindi anche un momento di riflessione sul presente e sul futuro.
Investire oggi nell’inclusione femminile in ambito STEM significa infatti investire nel progresso sociale e tecnologico di domani.
Ancora una volta Google, con un semplice Doodle, ci invita non solo a celebrare, ma soprattutto a riflettere.
Buona Giornata Internazionale della Donna a tutte e a tutti.
L’IA non è più solo un supporto, ma una forza autonoma che trasforma il business. Dalla creazione del software alla robotica, fino alla personalizzazione dei brand, la Technology Vision 2025 di Accenture mostra come affrontare questa rivoluzione.
L’Intelligenza Artificiale (IA) oggi non è più solo un’innovazione tecnologica, ma rappresenta la struttura portante attorno alla quale si costruiscono le strategie di business del futuro. Lo evidenzia Accenture nel nuovo report Technology Vision 2025, un’analisi approfondita delle tendenze digitali emergenti e del loro impatto sulle imprese a livello globale e in Italia.
Il rapporto di quest’anno – il 25° annuale di Accenture – è incentrato sull’idea di un’IA sempre più autonoma, capace di agire per conto delle persone, e pone al centro una questione cruciale: la fiducia nelle performance dell’IA come condizione fondamentale per realizzarne appieno il potenziale.
L’IA generativa e gli agent autonomi stanno infatti ridefinendo il modo in cui le aziende operano e crescono, diventando alleati strategici per produttività e innovazione.
Al contempo, senza un adeguato livello di fiducia da parte di dipendenti e clienti, le organizzazioni rischiano di non sfruttare queste nuove capacità – non a caso, l’88% dei dirigenti italiani ritiene fondamentale comunicare chiaramente la strategia aziendale sull’IA per rafforzare la fiducia dei propri dipendenti.
Nonostante tutto, emerge anche un gap da colmare: solo il 46% dei leader in Italia prevede di rendere accessibili strumenti di IA generativa ai lavoratori nei prossimi tre anni, evidenziando la necessità di maggiore consapevolezza e pianificazione per integrare l’IA nelle organizzazioni.
Il report Accenture identifica quattro trend chiave che delineano questa nuova era digitale dominata dall’IA autonoma. Si va dall’esplosione dell’AI nei sistemi informatici (“Big Bang Binario”) alla personalizzazione dell’AI come nuovo volto del brand, dall’integrazione dei modelli generativi nella robotica fisica fino alla collaborazione virtuosa tra AI e forza lavoro umana.
In questo articolo analizziamo in dettaglio ciascuno di questi trend, con un focus particolare sul contesto italiano: quali opportunità economiche si prospettano, quali aziende e settori possono trarre vantaggio da queste tendenze, e quali sfide dovranno affrontare le imprese italiane per abbracciare la trasformazione tecnologica in atto.
Technology Vision 2025, la IA è una forza autonoma
Big Bang Binario: l’IA espande i sistemi e rivoluziona l’automazione
Il primo trend evidenziato è denominato “Il Big Bang Binario”, a indicare un punto di svolta in cui l’IA genera un’espansione esponenziale dei sistemi digitali, trasformandone radicalmente natura e sviluppo. Grazie ai foundation model (modelli di AI di base, addestrati su enormi quantità di dati) e alla diffusione dell’IA generativa, le aziende stanno sperimentando un vero big bang tecnologico: la crescente autonomia degli agent digitali accelera la creazione di nuovo software, riduce i costi e i tempi di sviluppo e rende la tecnologia più accessibile tramite il linguaggio naturale.
In altri termini, l’IA sta passando da strumento di automazione a protagonista nella progettazione e nell’esecuzione dei sistemi software stessi.
Questo fenomeno – il “Big Bang Binario” – sta portando verso un ecosistema IT fondato su tre pilastri: abbondanza (molti più sistemi e soluzioni digitali creati con facilità), astrazione (interfacce più intuitive, come la conversazione in linguaggio naturale, che democratizzano l’uso della tecnologia) e autonomia (sistemi in grado di agire e ottimizzarsi quasi da soli). Le tradizionali applicazioni statiche lasciano il posto ad architetture basate sulle intenzioni e a sistemi composti da molteplici agenti AI capaci di interagire fra loro e con gli utenti.
In questo contesto, le imprese più lungimiranti stanno già ampliando la propria visione oltre le implementazioni immediate dell’IA, per cogliere il cambiamento profondo nelle fondamenta tecnologiche. Ad esempio, i codice generato dall’IA sta innalzando il ruolo degli sviluppatori a ingegneri di sistemi, mentre agent autonomi consentono agli utenti di interagire con software complessi semplicemente dialogando.
Si tratta di una trasformazione che offre opportunità uniche di competizione: chi adotta per tempo queste innovazioni potrà godere di vantaggi in termini di velocità di innovazione e flessibilità dei sistemi. Il 77% dei dirigenti a livello globale concorda che gli agenti AI rivoluzioneranno il modo di creare applicazioni e sistemi digitali, e molti riconoscono che presto dovremo costruire ecosistemi digitali “tanto per gli agenti AI quanto per le persone”.
In Italia, in particolare, si prevede un forte impatto: il 33% dei top manager italiani stima un incremento significativo di produttività grazie all’adozione di agenti AI, e ben l’85% ritiene che questi strumenti ridefiniranno i sistemi digitali aziendali nei prossimi anni.
In pratica, stiamo entrando in un’era di “abbondanza digitale” in cui sarà molto più facile e rapido sviluppare nuovi servizi basati sull’IA; le decisioni che i leader prendono oggi su come implementare queste tecnologie determineranno la competitività delle loro aziende nel prossimo decennio.
Dal Big Bang Binario derivano anche nuove responsabilità. Se le tecnologie odierne sono un mezzo e non un fine ultimo, le imprese devono prepararsi fin d’ora a gestire ecosistemi popolati da agenti autonomi in modo sicuro e affidabile.
Accenture sottolinea l’importanza di preservare la fiducia durante questa transizione: occorre implementare meccanismi di monitoraggio dell’AI, definire chiare linee guida di governance e addestrare i sistemi a decisioni trasparenti, così da allineare l’autonomia dell’IA con gli obiettivi di business e la fiducia degli utenti.
Le aziende italiane all’avanguardia si stanno già muovendo in questa direzione; le altre dovranno rapidamente adeguarsi, definendo una strategia su come integrare gli agenti AI nel proprio digital core (il nucleo digitale dei processi) e iniziando a sperimentarli in progetti pilota.
In sintesi, il Big Bang Binario prospetta un futuro imminente in cui i sistemi saranno molto più numerosi, potenti e autonomi – una grande opportunità per chi saprà evolvere i propri modelli tecnologici e organizzativi in tempo.
Technology Vision 2025 Accenture
Il tuo volto in futuro: l’AI come nuova identità di marca
Il secondo trend, chiamato “Il tuo volto in futuro”, riguarda la personalizzazione dell’IA e l’identità del brand. Man mano che le aziende integrano chatbot e assistenti virtuali nelle interazioni con i clienti, si pone una domanda strategica: qual è la personalità della tua AI? Oggi molte esperienze basate su AI generativa sono piuttosto generiche – basti pensare ai vari assistenti virtuali e bot conversazionali che, utilizzando modelli linguistici di larga scala (LLM) simili, tendono ad avere tutti lo stesso tono “neutro”. Questo rischia di diluire l’identità del brand e offrire ai clienti un’esperienza impersonale.
Accenture evidenzia quindi la necessità di differenziarsi attraverso l’AI, sviluppando agenti conversazionali e assistenti virtuali che riflettano i valori, il linguaggio e lo stile unici di ciascun marchio. In altri termini, l’AI del futuro non dovrà essere anonima, ma diventare una sorta di ambasciatore digitale del brand.
Dotare l’AI di una “voce” e una personalità coerente con il marchio può rafforzare il legame con i consumatori e costruire una nuova forma di fiducia. Ad esempio, un’assistente virtuale di una banca potrebbe parlare con il tono rassicurante e autorevole tipico di quell’istituto, mentre il bot di un’azienda di moda adotterà uno stile più vivace e creativo, in linea con il brand.
Questa personificazione dell’AI offre alle aziende un nuovo terreno su cui competere: l’80% dei dirigenti teme che LLM e chatbot possano rendere tutte le interazioni col cliente simili tra loro, ma al contempo il 77% è convinto che si possa risolvere il problema creando proattivamente esperienze AI “personificate”, infondendo nell’AI elementi distintivi del brand (cultura, valori, tono di voce).
In Italia la sensibilità su questo tema è ancora maggiore: il 94% dei dirigenti italiani concorda sull’importanza di sviluppare AI personalizzate, con una personalità in linea con il brand, e considera prioritario nei prossimi tre anni creare assistenti AI capaci di rappresentare al meglio l’identità aziendale.
Inoltre, quasi tutte le aziende (95%) riconoscono che definire e mantenere una personalità coerente per i propri agenti AI diventerà cruciale nel prossimo triennio.
Le implicazioni pratiche di questo trend sono significative. Le imprese dovranno investire nella progettazione della “user experience” conversazionale, andando oltre la pura funzionalità tecnica: tone of voice, carattere, persino un volto o avatar per l’assistente virtuale – ogni elemento contribuirà a rendere l’AI riconoscibile e allineata al marchio.
Ciò comporta nuove sfide, come bilanciare la creatività con la coerenza (garantire che l’AI non esca dai binari della brand identity) e assicurare che l’AI personificata agisca in modo etico e affidabile, perché qualsiasi errore o comportamento inappropriato avrebbe un impatto diretto sulla reputazione aziendale.
Su quest’ultimo punto, il 77% dei dirigenti italiani afferma che la propria organizzazione dovrà impegnarsi proattivamente nel creare un rapporto di fiducia tra l’AI personificata e i clienti– ad esempio, essendo trasparenti sul fatto che si sta interagendo con un agente automatizzato e monitorandone attentamente le prestazioni.
In definitiva, “Il tuo volto in futuro” suggerisce che ogni azienda avrà la sua AI con un volto e una voce unici, e che questa diventerà parte integrante dell’esperienza cliente, al pari di un venditore in carne e ossa o dell’interfaccia di un’app. Le imprese italiane che sapranno sfruttare l’IA per esprimere la propria identità potranno differenziarsi nettamente nel mercato, offrendo esperienze su misura e rafforzando la propria brand equity nell’era digitale.
Un corpo per gli LLM: l’AI entra nel mondo fisico attraverso la robotica
Il terzo trend della Technology Vision 2025 è intitolato “Un corpo per gli LLM” (Large Language Models), e riguarda l’evoluzione della robotica grazie ai modelli generativi. Finora l’IA generativa è stata principalmente una tecnologia software (si pensi a chatbot, generatori di testo o immagini), ma ora sta estendendo la propria portata al mondo fisico.
In pratica, gli stessi avanzamenti che hanno permesso ai modelli di linguaggio di capire e generare testo stanno venendo applicati ai robot, dando origine a macchine più intelligenti e adattabili. I foundation model integrati nei sistemi robotici consentono infatti ai robot di apprendere nuovi compiti in modo molto più rapido e flessibile, senza la necessità di essere riprogrammati da zero per ogni nuova funzione.
Grazie all’IA generativa e alla capacità di comprendere istruzioni in linguaggio naturale, i robot possono interpretare meglio il contesto, interagire con gli esseri umani in maniera più intuitiva e affrontare situazioni complesse con maggiore autonomia.
Questa evoluzione sta rivoluzionando settori come la manifattura, la logistica e la sanità, aprendo nuove opportunità di collaborazione uomo-macchina. Ad esempio, in un magazzino logistico, si prospettano robot generici in grado prima di svolgere compiti vari e poi specializzarsi “al volo” in nuove mansioni, imparando dall’esperienza sul campo.
Nella produzione industriale, l’IA può dotare i bracci robotici di maggiore “intelligenza” per riconoscere oggetti o adattarsi a piccole variazioni nei pezzi da assemblare, riducendo fermi macchina e difetti.
In ambito sanitario, robot assistenti potrebbero apprendere procedure di assistenza ai pazienti o supporto in sala operatoria combinando visione artificiale e modelli linguistici (per seguire istruzioni del chirurgo in linguaggio naturale, ad esempio). In sintesi, stiamo passando da robot pre-programmati per compiti specifici a robot versatili e “generalisti”, dotati di un corpo fisico ma anche di un “cervello AI” addestrato su enormi dataset, capace di trasferire conoscenze da un ambito all’altro.
Queste prospettive sono entusiasmanti, ma pongono anche nuove sfide in termini di gestione e responsabilità. La maggior parte dei dirigenti si dichiara ottimista sulle potenzialità dei robot adattivi e intelligenti, ma al tempo stesso l’81% dei leader aziendali italiani segnala la necessità di ampliare l’applicazione dei principi di “IA responsabile” man mano che i robot verranno impiegati in contesti fisici.
In altre parole, più l’AI esce dallo schermo per entrare nel mondo reale, più diventa fondamentale garantire che il suo comportamento sia sicuro, etico e trasparente. Pensiamo alla sicurezza sul lavoro: robot più autonomi dovranno rispettare rigorosi standard per operare accanto alle persone senza rischi. Oppure al tema delle decisioni prese dai robot (ad esempio veicoli autonomi): è cruciale che siano comprensibili e allineate ai valori umani.
Le aziende dovranno quindi aggiornare le proprie politiche di governance dell’AI includendo i sistemi fisici, stabilendo regole chiare su controllo umano, privacy, e responsabilità in caso di malfunzionamenti. Un altro aspetto sarà l’accettazione da parte dei lavoratori: introdurre robot avanzati nei contesti produttivi richiederà formazione e change management, per far capire che questi strumenti sono alleati e non necessariamente minacce occupazionali.
Su questo fronte è incoraggiante notare che l’80% dei dirigenti crede che una collaborazione stretta e un apprendimento reciproco continuo tra persone e robot aumenterà la fiducia dei dipendenti verso le macchine.
In effetti, se i robot imparano dagli operatori umani e gli operatori imparano a sfruttare l’assistenza dei robot, si può instaurare un rapporto simbiotico positivo.
“Un corpo per gli LLM” ci proietta verso un futuro in cui le barriere tra digitale e fisico si assottigliano: i confini dell’AI si estendono oltre lo schermo, e le imprese italiane dovranno farsi trovare pronte ad abbracciare questa robotica di nuova generazione, cogliendone i benefici (efficienza, qualità, nuovi servizi) e gestendone responsabilmente i rischi.
Il nuovo ciclo di apprendimento: persone e IA crescono insieme
L’ultimo trend individuato da Accenture, “Il nuovo ciclo di apprendimento”, esamina come sta cambiando il rapporto tra IA e forza lavoro e il modo in cui si generano competenze nell’era dell’automazione avanzata.
Se in passato l’automazione tradizionale sostituiva l’uomo in compiti ripetitivi generando benefici una tantum (efficienza, costi ridotti), la nuova ondata di IA ha una caratteristica diversa: è in grado di apprendere e migliorare continuamente, instaurando con le persone un ciclo virtuoso di reciproco accrescimento.
In pratica, più le persone usano l’IA, più l’IA diventa efficace, e di conseguenza più le persone possono ottenere risultati migliori – creando un circolo di feedback positivo che incrementa nel tempo il valore sia per i singoli che per l’organizzazione.
Grazie all’IA generativa e agli strumenti cognitivo-assistivi, ogni dipendente può ormai disporre di un “copilota digitale” al proprio fianco, capace di fornire informazioni, automatizzare attività di routine e suggerire nuove soluzioni.
Questo significa che l’IA non si limita più ad automatizzare processi, ma sta ridefinendo il modo in cui i lavoratori apprendono nuove competenze e innovano sul lavoro.
Ad esempio, un analista di marketing può usare modelli di AI per esplorare enormi moli di dati e trovare idee di campagne creative, apprendendo a sua volta nuovi approcci dai risultati generati dall’IA; uno sviluppatore software junior può farsi assistere da un AI coding assistant (come GitHub Copilot) imparando dallo stile di codice suggerito e accelerando il proprio percorso di crescita.
L’IA diventa quindi un mentore virtuale oltre che uno strumento operativo. Accenture parla di “democratizzazione dell’innovazione”: rendendo accessibili tool avanzati a tutti i livelli dell’organizzazione, i dipendenti sono messi in condizione di contribuire attivamente alla crescita aziendale, non solo eseguendo compiti ma anche co-creando soluzioni insieme all’IA.
È importante sottolineare che questa evoluzione non elimina il ruolo umano, ma lo potenzia.
Le mansioni ripetitive e a basso valore aggiunto potranno essere automatizzate dall’AI, liberando tempo perché le persone si concentrino su attività più strategiche, creative e di relazione.
Il rapporto evidenzia come sia fondamentale gestire la transizione con trasparenza e coinvolgimento: i dipendenti devono comprendere la strategia dell’azienda sull’AI e sentirsi parte attiva del processo, così da non temere l’automazione ma abbracciarla come un’opportunità di crescita.
A livello globale, 80% dei leader indica come priorità garantire fin da subito una traiettoria positiva nelle relazioni tra persone e AI, prevenendo derive di timore o resistenza attraverso comunicazione e formazione adeguate.
Sul fronte delle competenze, la sfida è enorme: occorre riqualificare il personale su larga scala.
Dall’indagine Accenture emerge che il 73% dei dirigenti italiani considera essenziale investire nella formazione dei dipendenti sugli strumenti di IA nei prossimi tre anni, così da assicurarsi che la forza lavoro sia pronta a sfruttare appieno il potenziale tecnologico e a operare in sinergia con le nuove AI.
Questo dato va letto insieme a un altro insight significativo: il 95% dei leader aziendali prevede che i task svolti dai dipendenti cambieranno in modo moderato o significativo nei prossimi 3 anni, spostandosi verso attività a maggior valore aggiunto.
In Italia però solo una minoranza delle aziende ha già intrapreso programmi strutturati di upskilling sull’AI, il che indica un ritardo da colmare. Le imprese dovranno attivare percorsi formativi agili e continui, integrando l’AI training nelle normali attività (ad esempio, affiancando ai team dei coach interni o creando comunità di pratica sull’uso dell’AI). Alcune organizzazioni stanno anche valutando l’inserimento di metriche di “AI readiness” nelle valutazioni di performance, per incentivare il personale ad adottare gli strumenti AI messi a disposizione.
In sintesi, “Il nuovo ciclo di apprendimento” dipinge un futuro in cui l’IA diventa parte integrante della forza lavoro, elevandone le capacità invece di limitarle. Per le imprese italiane, ciò si traduce nell’opportunità di avere team più agili, creativi e produttivi, a patto di investire da subito nelle persone.
La sfida culturale è far comprendere che uomini e macchine non sono in competizione a somma zero, ma possono alimentarsi a vicenda: l’IA impara dagli utenti umani e ne amplifica le potenzialità, mentre i lavoratori traggono beneficio dall’AI e ne guidano l’evoluzione con feedback continui.
Chi saprà realizzare questa collaborazione virtuosa avrà un vantaggio competitivo notevole, traducendo l’innovazione tecnologica in reale valore di business.
Impatto economico per l’Italia: dati e opportunità
Dai quattro trend analizzati emerge chiaramente un messaggio: l’IA, se adottata strategicamente, può diventare un volano di crescita economica per l’Italia. Accenture stima che l’integrazione pervasiva dell’Intelligenza Artificiale nei processi produttivi e nei servizi potrebbe tradursi in un incremento del PIL italiano fino a 15 miliardi di euro nei settori tradizionali del Made in Italy nei prossimi anni.
Parliamo di comparti come il manifatturiero, l’agroalimentare, il tessile-moda, l’arredamento – ambiti in cui l’Italia è storicamente forte e dove l’AI può portare innovazione nei prodotti e nelle catene del valore.
Ad esempio, nel manifatturiero made in Italy (dalla meccanica di precisione all’automotive), l’adozione di robotica avanzata e sistemi di AI per la gestione della produzione potrebbe aumentare significativamente la produttività e la qualità, rafforzando la competitività delle nostre imprese sui mercati globali.
Allo stesso modo, nel settore moda e lusso, l’AI generativa può accelerare la progettazione creativa e personalizzare l’esperienza di acquisto, mentre nell’agroalimentare algoritmi intelligenti ottimizzano le filiere e garantiscono tracciabilità, migliorando sia l’efficienza che la sostenibilità.
Un altro ambito di investimento è quello dei software di AI generativa aziendale (ad esempio piattaforme di analisi dati aumentata, assistenti virtuali interni, tool di progettazione supportata dall’AI): adottare per prime queste soluzioni permette alle aziende di migliorare l’efficienza operativa e sviluppare nuovi prodotti/servizi prima della concorrenza.
Secondo un’altra ricerca Accenture, quasi il 70% degli executive globali ritiene che l’AI porti una nuova urgenza di reinventare i modelli operativi e i sistemi aziendali, data la velocità con cui si sta diffondendo rispetto a qualunque tecnologia precedente.
L’Italia non fa eccezione: chi saprà cavalcare l’onda dell’AI autonoma potrà colmare parte del gap di produttività che storicamente separa il nostro Paese da altri competitor europei.
Va evidenziato che le PMI italiane, ossatura del tessuto economico nazionale, potrebbero essere tra le principali beneficiarie della democratizzazione dell’IA. La Technology Vision 2025 sottolinea la crescente accessibilità dell’AI anche per le imprese di piccole e medie dimensioni, grazie a costi decrescenti e soluzioni cloud pronte all’uso.
Questo significa ridurre il divario tecnologico tra grandi e piccoli attori: ad esempio, oggi anche una PMI manifatturiera può permettersi un sistema di visione artificiale per il controllo qualità, o una PMI commerciale può implementare un chatbot sul proprio e-commerce con investimenti contenuti.
La conseguenza sarà un’innovazione più diffusa in tutti i settori, con miglioramenti che vanno dall’ottimizzazione dei processi interni fino alla creazione di nuovi modelli di business data-driven. Secondo Accenture, settori come la sanità potranno essere trasformati migliorando l’assistenza ai pazienti e accelerando la ricerca medica grazie a sistemi diagnostici AI e analisi predittive, mentre nei servizi finanziari l’AI potrà migliorare la valutazione dei rischi, la personalizzazione dei prodotti e il contrasto alle frodi.
Nel retail, l’AI renderà possibili esperienze d’acquisto iper-personalizzate e una gestione più efficiente degli inventari; nell’industria energetica, sistemi di AI aiuteranno a bilanciare le reti e integrare le fonti rinnovabili.
Insomma, ogni comparto avrà le sue applicazioni chiave dell’AI e trarrà vantaggi specifici – aumento dell’efficienza, riduzione dei costi, miglior servizio al cliente, o magari la creazione di servizi completamente nuovi prima impensabili senza l’AI.
Per concretizzare questo impatto economico positivo, sarà determinante la capacità delle aziende italiane di passare dalla consapevolezza all’azione. I dati del report mostrano un quadro incoraggiante sul fronte della consapevolezza (molti leader riconoscono l’importanza dell’AI e ne hanno compreso i trend principali), ma evidenziano anche aree in cui bisogna accelerare: in particolare, dotarsi di una visione strategica di lungo periodo e investire nelle risorse umane.
Teodoro Lio AD Accenture Italia
Le opportunità ci sono e sono significative – dal boost di produttività interno fino a nuove offerte per i clienti – ma richiedono un cambio di passo nella trasformazione digitale delle nostre imprese, affinché l’IA diventi parte integrante del modello operativo italiano. Come ha dichiarato Teodoro Lio, Amministratore Delegato di Accenture Italia, “per le aziende italiane l’IA rappresenta un imperativo strategico in grado di innovare i modelli di business, ottimizzare le operations e migliorare l’esperienza dei consumatori”, ma per sfruttarne a fondo il potenziale occorre integrarla efficacemente in tutti i processi aziendali, accelerare gli investimenti e colmare il gap di competenze, rafforzando al contempo il patto di fiducia verso questa rivoluzione tecnologica che deve avere l’uomo alla guida.
In queste parole c’è la sintesi di ciò che l’AI può fare per l’economia italiana (innovare, far crescere PIL e produttività) e di ciò che l’Italia deve fare per l’AI (investire, formare, fidarsi e governare il cambiamento).
Sfide e opportunità per le imprese italiane
L’adozione diffusa dell’Intelligenza Artificiale pone dunque una serie di sfide che le imprese italiane dovranno affrontare, ma anche molteplici opportunità da cogliere. Da un lato, come abbiamo visto, c’è l’urgenza di sviluppare strategie chiare e lungimiranti per integrare l’AI nei modelli di business; dall’altro c’è la promessa di notevoli benefici in termini di efficienza, innovazione e crescita. Vediamo i punti principali:
Definire una strategia chiara e olistica per l’AI: una prima sfida è passare dai progetti pilota estemporanei a una visione strategica complessiva. Il report di Accenture mette in guardia le aziende: l’IA pervaderà ogni area (operazioni, relazione con i clienti, prodotti, forza lavoro) e occorre quindi un approccio coordinato. Le imprese italiane sono chiamate a disegnare una roadmap di adozione dell’AI
Coltivare la fiducia e gestire il cambiamento culturale: come evidenziato, la fiducia è il fattore abilitante numero uno. Le aziende devono lavorare su due fronti. Internamente, vincere lo scetticismo o la paura dei dipendenti verso l’automazione, coinvolgendoli attivamente. Comunicare in modo chiaro gli obiettivi dell’AI (l’88% dei manager sa che deve farlo) e dimostrare con i fatti che l’AI può migliorare il lavoro di tutti aiuta a creare un clima di fiducia e collaborazione.
Formazione e skill gap: una sfida cruciale, come discusso, è dotare la forza lavoro delle competenze necessarie per utilizzare e governare l’AI. In Italia molte imprese accusano un ritardo nella formazione digitale: ad esempio, solo il 20% circa delle aziende ha formato almeno un quarto del proprio personale sulle tecnologie AI. Il rischio è di avere a disposizione potenti strumenti di AI che però rimangono sottoutilizzati per mancanza di know-how. Accenture evidenzia che il 68% dei dirigenti avverte la necessità di migliorare le competenze e riqualificare i dipendenti (inclusi quelli con disabilità) all’uso di strumenti AI. La buona notizia è che c’è consapevolezza: il 73% dei leader intende investire in questo ambito. L’opportunità da cogliere è quella di costruire una workforce “AI-proficient”.
Adeguare infrastrutture e processi: un aspetto spesso sottovalutato, ma essenziale, è l’aggiornamento dell’infrastruttura tecnologica e dei processi aziendali per accogliere l’AI. Le aziende italiane dovranno investire in dati, cloud e architetture modulari.
Innovazione responsabile e normativa: infine, una sfida trasversale è assicurare un’innovazione responsabile, in linea con normative e aspettative sociali. La regolamentazione sull’AI è in divenire (si pensi al progetto di EU AI Act in Europa) e le aziende dovranno mantenersi al passo, adeguando i propri sistemi agli standard di legge. Chi muove primi passi può addirittura contribuire a plasmare queste normative attraverso best practice settoriali. L’attenzione all’etica, alla trasparenza e all’inclusività dell’AI non deve essere vista solo come un obbligo, ma come un’opportunità per distinguersi.
L’Accenture Technology Vision 2025 traccia un panorama nel quale l’Intelligenza Artificiale sarà sempre più il motore dell’impresa del futuro.
I quattro trend – Big Bang Binario, Il tuo volto in futuro, Un corpo per gli LLM e Il nuovo ciclo di apprendimento – delineano insieme un mondo in cui l’AI permea ogni dimensione del business: dai sistemi informatici che diventano autonomi e “intelligenti per default”, all’esperienza cliente personalizzata da assistenti virtuali con un volto amico; dalla robotica evoluta che fonde digitale e fisico, alla collaborazione simbiotica tra persone e agenti AI in ogni ufficio e reparto.
Per le aziende italiane, questo scenario rappresenta una sfida epocale ma anche una straordinaria chance di trasformazione e crescita.
Il filo conduttore che lega tutte le tendenze è la necessità di un cambio di paradigma nella gestione aziendale.
Chi avrà la lungimiranza di investire in questa trasformazione oggi, potrà costruire l’impresa resiliente e competitiva di domani.
L’Italia ha tutte le carte in regola per essere protagonista in questo nuovo capitolo tecnologico: un tessuto imprenditoriale dinamico, eccellenze nella ricerca sull’AI e nella robotica, e settori di punta che potrebbero fare da traino nell’adozione (pensiamo alla robotica avanzata sviluppata nei nostri centri di ricerca, o alle sperimentazioni di AI nel campo medico).
Per massimizzare i benefici dell’AI, però, le imprese dovranno agire con un approccio equilibrato, che potremmo sintetizzare in alcune linee guida: visione, persone, tecnologia, fiducia.
Visione: sviluppare piani chiari su come l’AI reinventerà i propri prodotti e processi, senza aver paura di ripensare i modelli di business (ad esempio, offrire servizi “as a service” basati su AI dove prima si vendeva un prodotto fisico).
Persone: mettere le persone al centro, formandole e coinvolgendole perché diventino parte attiva del cambiamento – l’innovazione di successo è fatta da persone che credono nel progetto.
Tecnologia: investire nelle piattaforme e nelle partnership giuste – poche aziende potranno fare tutto da sole, sarà importante collaborare con fornitori tech, università, ecosistemi di startup per integrare le migliori soluzioni AI in modo rapido ed efficace.
Fiducia: instaurare un clima di fiducia attorno all’AI, sia internamente che esternamente, attraverso la trasparenza, la responsabilità e l’attenzione all’etica. Questo manterrà l’innovazione su binari sicuri e socialmente accettabili, evitando contraccolpi.
L’Intelligenza Artificiale si candida a essere il fattore decisivo del successo aziendale nei prossimi anni.
Non si tratta più di chiedersi se adottare l’AI, ma come farlo al meglio e quanto in fretta.
Le aziende italiane che sapranno unire la tradizionale creatività e capacità di adattamento “made in Italy” con la potenza dell’AI, svilupperanno un vantaggio unico. Potranno creare prodotti innovativi, esperienze clienti memorabili e organizzazioni agili, in grado di prosperare anche in un contesto competitivo e in rapido mutamento.
Al contrario, chi resterà fermo rischierà di subire un progressivo declino, man mano che i concorrenti augmented dall’AI guadagneranno terreno. “L’IA non sostituirà gli esseri umani, ma gli esseri umani che sapranno usare l’IA sostituiranno quelli che non la sanno usare” – questa citazione, spesso ripetuta nel dibattito, riassume bene la posta in gioco.
Il futuro delle imprese sarà scritto dalla collaborazione uomo-macchina: investire oggi per costruire questo sodalizio virtuoso significa assicurarsi un ruolo da protagonisti nell’economia di domani.
E, come ci ricorda la Technology Vision 2025 di Accenture, il momento di agire è adesso.
BuzzFeed lancia l’idea di una nuova piattaforma social contro i modelli dominati dall’algoritmo del proprietario e dalla logica SNARF. Ma davvero è possibile una via alternativa che utilizzi la IA per alimentare creatività e connessioni autentiche?
Negli ultimi anni, il mondo dei social media è cambiato profondamente. Se inizialmente piattaforme come Facebook e Twitter nascevano per connettere le persone, oggi l’esperienza dell’utente è dominata da sistemi algoritmici che decidono cosa vedere e quanto tempo rimanere sulle piattaforme.
Il cuore di questa trasformazione è l’intelligenza artificiale, che governa i feed personalizzando i contenuti, ma spesso con l’obiettivo primario di trattenere l’utente il più a lungo possibile. Questo processo, apparentemente neutrale, nasconde in realtà una dinamica più complessa che ho definito “algoritmo del proprietario”.
Algoritmo del proprietario e SNARF: la via di BuzzFeed per i social media
Cosa si intende per Algoritmo del Proprietario
L’algoritmo del proprietario non lavora più per mostrare all’utente ciò che davvero gli interessa. Adesso è impostato per favorire i contenuti che meglio rispondono agli obiettivi strategici della piattaforma e, quindi, dei suoi proprietari.
Che si tratti di trattenere il pubblico sulla piattaforma, di penalizzare i link esterni o di spingere temi più polarizzanti, l’utente non è più al centro delle decisioni.
La proposta dei contenuti da seguire è nelle mani dei gestori della piattaforma, e l’algoritmo diventa lo strumento attraverso cui orientare e condizionare il comportamento delle persone.
È la formula perfetta per creare dipendenza: contenuti che stimolano reazioni forti, senso di urgenza, indignazione, paura, e che spingono l’utente a restare il più a lungo possibile.
SNARF
Un sistema che alimenta il cosiddetto doomscrolling, quella pratica ormai quotidiana di scorrere senza sosta il feed in cerca di nuovi stimoli e cose interessanti.
Cosa si intende per doomscrolling
Nel contesto delle piattaforme social dominate dagli algoritmi, è emerso un comportamento sempre più diffuso e riconosciuto: il doomscrolling. Il termine, nato dall’unione delle parole doom (rovina, catastrofe) e scrolling (scorrere), indica l’abitudine compulsiva di scorrere senza sosta il feed dei social media, consumando notizie e contenuti negativi o carichi di tensione emotiva.
È una spirale in cui l’utente viene risucchiato, continuando a cercare nuovi aggiornamenti, spesso legati a crisi, conflitti, emergenze o polemiche. Questa pratica non è casuale: gli algoritmi delle piattaforme favoriscono proprio i contenuti che suscitano emozioni forti, come rabbia, paura e indignazione, perché sono quelli che generano maggiore coinvolgimento.
Come risultato porta senso di ansia e stress crescente per l’utente, ma anche più tempo speso sulla piattaforma, esattamente ciò che l’algoritmo del proprietario si propone di ottenere.
Proprio da questa riflessione, e come reazione a questo modello, nasce l’iniziativa di BuzzFeed.
Il digital media storico, che ha già rivoluzionato in passato il giornalismo digitale, sta ora lavorando a una nuova piattaforma social basata sull’intelligenza artificiale, ma con un approccio diverso rispetto ai modelli dominanti.
Il futuro dei social media, l’idea di BuzzFeed
L’idea di BuzzFeed, nelle parole del CEO Jonah Peretti, è di creare una piattaforma che metta al centro la creatività e le connessioni umane, anziché favorire l’addiction da contenuti ottimizzati per l’engagement.
Una piattaforma che utilizza l’IA non per sostituire le persone o per spingerle a restare online, ma per dare strumenti nuovi alla creatività degli utenti.
Credo che questa proposta si collochi nello scenario come una possibile “terza via” rispetto agli attuali sviluppi del panorama social.
Infatti, oggi, vediamo da una parte le piattaforme storiche, come Meta, che affinano sempre più i loro algoritmi e provato ad introdurre personaggi generati dall’IA per popolare i feed e creare interazioni automatizzate. Sempre ai fini di generare maggiore tempo di utilizzo.
Dall’altra, esperimenti estremi come SocialAI, una piattaforma dove non ci sono esseri umani, ma solo bot di intelligenza artificiale che interagiscono tra loro.
L’idea di BuzzFeed sembra voler andare in una direzione diversa: non l’algoritmo del proprietario che decide cosa è meglio per te, non una piattaforma popolata da bot che simulano l’umano, ma un social che sfrutta l’IA come strumento per facilitare l’espressione, la narrazione interattiva, la sperimentazione di nuovi formati e la costruzione di connessioni autentiche tra persone.
La domanda da porsi al momento è: questa visione riuscirà a concretizzarsi? Oppure anche questa piattaforma finirà per cedere alla logica della retention e dell’engagement esasperato? In fondo, il mercato dei social media oggi si regge proprio su quei modelli che hanno fatto la fortuna dei grandi colossi.
Ci troviamo di fronte a una svolta importante: se l’intelligenza artificiale può essere utilizzata per rafforzare l’autonomia e la creatività delle persone, oppure se continuerà a essere lo strumento per consolidare il potere delle piattaforme sui comportamenti degli utenti.
Il futuro dei social media si gioca anche qui. Tra l’algoritmo del proprietario e la possibilità di restituire alle persone il controllo sulle proprie esperienze digitali.
L’UE lancia InvestAI, un piano da 200 miliardi di euro per colmare il divario nell’IA rispetto a USA e Cina. Previste gigafactory con chip avanzati e investimenti pubblici e privati per la crescita del settore.
L’Unione Europea ha finalmente deciso di fare sul serio sull’Intelligenza Artificiale. Con un piano di investimenti da 200 miliardi di euro, Bruxelles vuole colmare il divario che la separa da Stati Uniti e Cina nella corsa alla costruzione dei modelli di IA sempre più avanzati.
Il progetto, chiamato InvestAI, prevede finanziamenti pubblici e privati per lo sviluppo di gigafactory dell’IA, strutture pensate per addestrare i modelli più complessi grazie a chip di ultima generazione.
Piano ambizioso per recuperare il ritardo sull’IA
L’Europa, come già ricordato, ha assistito da spettatrice agli ultimi grandi sviluppi nel settore dell’IA. Il lancio di ChatGPT da parte di OpenAI nel 2022 ha scatenato una corsa agli investimenti senza precedenti, con le big tech statunitensi e cinesi che hanno rapidamente monopolizzato il settore.
Il nuovo piano europeo punta a cambiare le carte in tavola, mirando a posizionare l’UE come un attore centrale in questo scenario.
UE, piano da 200 miliardi per recuperare il ritardo sulla IA
“Vogliamo che l’Europa sia uno dei continenti leader nell’intelligenza artificiale, e questo significa abbracciare una vita in cui l’IA sia ovunque“, ha dichiarato.
Nel dettaglio, il piano prevede 50 miliardi di euro di finanziamenti pubblici da parte della Commissione Europea, a cui si aggiungono 150 miliardi di euro provenienti da un consorzio di investitori privati, tra cui nomi di spicco come Blackstone, KKR & Co ed EQT.
Questo mix di fondi pubblici e privati mira a rendere il progetto sostenibile nel lungo periodo e a stimolare l’innovazione su larga scala.
Ursula von der Leyen A-Parigi AI Summit 2025/Reuters
Le nuove gigafactory per sviluppare l’IA
Uno degli elementi chiave del piano InvestAI è la creazione di gigafactory dell’IA, strutture progettate per addestrare i modelli di intelligenza artificiale più sofisticati.
Questi impianti saranno dotati di circa 100.000 chip avanzati, un numero quattro volte superiore rispetto a quello delle fabbriche attualmente in fase di realizzazione.
L’obiettivo è: fornire all’Europa un’infrastruttura tecnologica all’altezza dei colossi americani e cinesi.
Attualmente, gran parte dei modelli IA più potenti al mondo vengono sviluppati negli Stati Uniti, grazie all’accesso esclusivo a tecnologie avanzate fornite da aziende come Nvidia, Microsoft e OpenAI. Con le gigafactory, l’Europa punta a costruire un ecosistema autonomo e competitivo.
A dicembre, Bruxelles aveva già selezionato diversi consorzi per la creazione di sette fabbriche di IA, e altre cinque saranno annunciate a breve.
La Commissione finanzierà questi impianti attraverso un mix di sovvenzioni e investimenti in capitale, con l’obiettivo di attrarre sempre più imprese del settore.
La competizione sull’IA a livello globale
L’iniziativa europea arriva in un momento di grande fermento nel mondo dell’intelligenza artificiale. Gli Stati Uniti hanno recentemente annunciato Stargate, un’iniziativa da 100 miliardi di dollari, destinata a costruire data center per OpenAI, con la possibilità di raggiungere 500 miliardi di dollari entro il 2029.
Il progetto vede coinvolti giganti come SoftBank, Oracle, Arm e Nvidia, che stanno spingendo al massimo lo sviluppo dell’IA generativa.
Anche la Cina non è rimasta a guardare. DeepSeek ha recentemente sconvolto il settore IA che, nonostante l’uso di chip meno avanzati rispetto ai rivali statunitensi, riesce comunque a competere con le tecnologie americane.
Questo ha sollevato un interrogativo strategico: è davvero necessario spendere cifre astronomiche per restare competitivi?
L’UE, con il suo piano da 200 miliardi di euro, sembra aver dato una risposta chiara a questa domanda. Per recuperare terreno, non basta aspettare: bisogna investire su larga scala.
Le sfide che attendono InvestAI
Nonostante l’ambizione del progetto, le sfide da affrontare non sono poche. Il finanziamento iniziale per InvestAI verrà ricavato da programmi già esistenti dell’UE, ma sarà fondamentale il supporto degli Stati membri per garantire una continuità nel tempo.
Inoltre, il piano prevede una struttura finanziaria a livelli, con quote di investimento caratterizzate da differenti livelli di rischio e rendimento.
Un altro aspetto critico è la fornitura di chip avanzati. L’Europa dipende ancora fortemente dai produttori americani e asiatici per le tecnologie di base, e questo potrebbe rappresentare un collo di bottiglia per lo sviluppo delle gigafactory.
La Commissione dovrà quindi lavorare per costruire una filiera di produzione interna, riducendo la dipendenza da fornitori esterni.
Infine, resta aperta la questione della regolamentazione. L’UE ha adottato il primo AI Act, una normativa che impone regole stringenti sull’uso dell’intelligenza artificiale. Ma riuscirà questa regolamentazione a convivere con l’enorme spinta agli investimenti? Trovare un equilibrio tra innovazione e regole sarà una delle sfide cruciali per il futuro dell’IA in UE.
In conclusione, l’Unione Europea ha lanciato il guanto di sfida agli Stati Uniti e alla Cina nel settore dell’intelligenza artificiale.
Il futuro ci dirà di InvestAI
Il piano InvestAI è il tentativo più ambizioso mai realizzato prima per costruire un’infrastruttura tecnologica in grado di competere a livello globale.
Ma la strada è ancora lunga. Oltre agli investimenti, serviranno collaborazioni strategiche, una visione chiara e una capacità di esecuzione efficace.
Se l’Europa riuscirà a trasformare questo piano in realtà, potrà finalmente ambire a un ruolo di primo piano nel futuro dell’intelligenza artificiale.
Come in tutte le cose, il tempo saprà dirci se questa è la mossa giusta per colmare il divario con i giganti mondiali.
[L’immagine di copertina e quelle che sono allegate alle condivisioni sui canali social del post sono state realizzate da @franzrusso attraverso il modello di IA generativa Dall-E 3]
Gestisci Consenso
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.