Autore: Franz Russo

  • Ecco perché OpenAI starebbe pensando ad un proprio social media

    Ecco perché OpenAI starebbe pensando ad un proprio social media

    OpenAI sta pensando ad un proprio social media. Tra rivalità con Elon Musk e bisogno di dati, ecco perché potrebbe cambiare il panorama delle piattaforme digitali.

    Se davvero OpenAI realizzasse la sua piattaforma digitale, come si racconta in queste ore, allora sì che sarebbe uno stravolgimento delle piattaforme digitali, in particolare del panorama dei social media per come lo conosciamo oggi.

    L’dea di OpenAI di un suo social media

    Il primo a darne notizia è stato The Verge che ha lanciato un suo articolo con una notizia importante: OpenAI, la società guidata da Sam Altman che ha creato ChatGPT, starebbe pensando a una piattaforma digitale in stile X.

    La piattaforma – guarda caso – è proprio quella di Elon Musk. E fra poco spiego cosa intendo per “guarda caso”.

    Perché un social media proprio adesso?

    Perché OpenAI starebbe pensando a una mossa del genere? E soprattutto: quale sarebbe la finalità per un’azienda di intelligenza artificiale?

    Prima di rispondere a queste domande, riavvolgiamo un attimo il nastro e torniamo indietro di qualche anno.

    Ecco perché OpenAI starebbe pensando ad un proprio social media
    Ecco perché OpenAI starebbe pensando ad un proprio social media

    Un po’ di storia: dal 2015 a oggi

    Siamo nel 2015, anno in cui nasce OpenAI come associazione senza scopo di lucro, con l’obiettivo di rendere l’intelligenza artificiale accessibile e utile a beneficio dell’umanità.

    Tra i fondatori, c’era anche Elon Musk. Le cose vanno bene fino al 2018, quando Musk, stanco della leadership di Altman – secondo le informazioni che abbiamo – decide di uscire dal progetto. Se ne va, sbattendo la porta.

    Poi conosciamo tutti l’evoluzione: Musk acquista Twitter nell’ottobre 2022, e nel frattempo i rapporti con OpenAI si fanno sempre più tesi.

    Le tensioni con Musk e la nascita di Grok

    Gli screzi tra i due non si sono mai sopiti. Anzi, si sono accentuati con la crescita di ChatGPT e con la trasformazione di OpenAI in azienda a scopo di lucro, una svolta non da poco. In parallelo, Elon Musk sviluppa xAI e poi Grok, il chatbot integrato su X.

    Le tensioni si aggravano fino ad arrivare a cause legali. Proprio recentemente, OpenAI ha denunciato Musk, e la battaglia giudiziaria è in corso.

    L’offerta di Musk e la risposta di Altman

    A febbraio di quest’anno, Elon Musk ha provato a rilanciare. Ha offerto 97 miliardi di dollari per acquisire OpenAI. Una mossa per riportarla alle origini, secondo lui.

    Altman ha risposto via X: “No, grazie. Semmai compreremo noi X per 9,7 miliardi”. Una battuta, forse, ma alla luce di ciò che sappiamo oggi, potrebbe nascondere molto di più.

    Anche Meta spinge sull’AI, e OpenAI risponde

    Quando Meta ha lanciato il suo Meta AI, Altman ha commentato: forse è arrivato il momento che anche OpenAI abbracci i social media. Tutti segnali che portano nella stessa direzione.

    OpenAI contro X?

    E adesso arriva questa notizia. Appunto, OpenAI potrebbe entrare direttamente nel mercato delle piattaforme digitali, in concorrenza diretta con X.

    Perché proprio ora?

    Primo: per la rivalità ormai conclamata con Elon Musk. Secondo: perché X sta consolidando la sua posizione e OpenAI potrebbe inserirsi proprio in questo contesto.

    I dati, il vero obiettivo di OpenAI

    Ma la motivazione più importante è un’altra. ChatGPT ha bisogno di dati. Ha bisogno di dataset sempre più grandi per migliorare. E qual è il modo più diretto per reperire dati, anche in tempo reale? Una piattaforma sociale, come appunto X.

    Come fa Meta AI, che si nutre di dati pubblici degli utenti, nonostante l’opposizione. Come fa Grok, che accede a dati condivisi su X. OpenAI potrebbe fare lo stesso, se avesse una propria piattaforma.

    Un esempio concreto: Studio Ghibli e action figures

    Basti pensare al recente trend delle immagini generate in stile Studio Ghibli o alle action figures AI: se questi contenuti venissero condivisi su una piattaforma OpenAI, che tipo di dati ne emergerebbero?

    Dati preziosi per addestrare i modelli, che diventerebbero sempre più efficaci, più evoluti. L’intelligenza artificiale si nutrirebbe di questi contenuti.

    Pe un social media servono infrastrutture

    Chiaramente, entrare nel mercato delle piattaforme digitali non è un gioco. Servono server, infrastrutture, investimenti. OpenAI è già attrezzata, ma dovrà fare di più.

    E soprattutto dovrà progettare una piattaforma con un livello di engagement molto elevato, se vuole distinguersi in un mercato ormai segnato dall’“algoritmo del proprietario”.


    Ascolta e guarda su Spotify


    E se OpenAI ci riuscisse?

    Non mi sorprenderebbe se OpenAI riuscisse davvero nel suo intento: realizzare una piattaforma digitale che alimenti il suo modello ChatGPT, che attiri utenti, ma che allo stesso tempo sia guidata da logiche di controllo algoritmico.

    Non sarebbe nulla di nuovo, anzi: sarebbe perfettamente in linea con quello che stiamo già osservando in molte piattaforme.

    Altman ci sta pensando, ma non c’è nulla di ufficiale

    L’idea c’è, l’intento pure. Ma non ci sono ancora notizie ufficiali. Sam Altman sta raccogliendo feedback all’interno dell’azienda per capire se il progetto è davvero fattibile.

    Non è solo una questione finanziaria: si tratta di comprendere come posizionarsi in un contesto dove X, Meta e altre stanno già giocando le loro carte.

    Una sfida che cambierebbe tutto

    Una mossa del genere farebbe saltare i nervi a Elon Musk, e sarebbe uno scenario che varrebbe la pena osservare da vicino. Perché cambierebbe davvero tutto.

    Continuerò a raccontarvi ciò che succede. Se volete condividere pensieri e opinioni, lo spazio per farlo è aperto. E ci aggiorniamo alla prossima.

  • Meta rischia di perdere Instagram e WhatsApp, ecco perché

    Meta rischia di perdere Instagram e WhatsApp, ecco perché

    Il processo antitrust che vede FTC contro Meta è senza dubbio storico. Al centro le acquisizioni di Instagram e WhatsApp, con l’obiettivo di separarle dall’azienda. Un caso che potrebbe cambiare il futuro dei social media.

    È iniziato in questi giorni, a Washington, uno dei più importanti, proprio per la sua natura, processi antitrust della storia recente.

    Infatti, si è di fronte ad un processo il cui risultato potrebbe cambiare radicalmente lo scenario dei social media. Quelle piattaforme digitali che ormai stanno plasmando le nostre esistenze.

    Il caso investe direttamente Meta Platforms, l’azienda guidata – e co-fondata – da Mark Zuckerberg, chiamata a rispondere in tribunale alle accuse mosse dalla Federal Trade Commission (FTC).

    L’obiettivo dichiarato dell’agenzia governativa per il commercio è quello di spezzare il colosso dei social media, forzando la separazione delle sue due più celebri acquisizioni, Instagram e WhatsApp.

    Una vicenda che rimette al centro del dibattito il tema della concentrazione di potere tecnologico e che potrebbe ridefinire, come dicevamo prima, il nostro rapporto con le piattaforme digitali.

    Meta rischia di perdere Instagram e WhatsApp, ecco perché
    Meta rischia di perdere Instagram e WhatsApp, ecco perché

    Una lunga battaglia che arriva in aula

    Le acquisizioni di Instagram nel 2012 e di WhatsApp nel 2014 sono state approvate all’epoca senza opposizioni rilevanti. Ma nel corso dell’ultimo decennio, la crescente preoccupazione per il potere esercitato dalle big tech ha spinto le autorità a rivedere il passato con occhi diversi.

    La vicenda ha origine nel dicembre 2020, quando la Federal Trade Commission avvia la sua prima azione legale contro Meta (allora ancora Facebook), accusandola di pratiche anticoncorrenziali legate alle acquisizioni di Instagram e WhatsApp.

    Dopo un primo rigetto nel 2021, la FTC presenta una versione aggiornata della denuncia che viene accolta, aprendo così la strada al processo odierno.

    Ricorderete anche che nel 2020 c’era Donald Trump alla Casa Bianca. I rapporti all’epoca tra il presidente Usa e il fondatore di Facebook non erano idilliaci.

    La FTC accusa Meta di aver agito in modo deliberato per soffocare la concorrenza, acquisendo quelle che già allora erano considerate minacce emergenti.

    A sostegno di questa tesi, l’agenzia ha portato in aula messaggi interni in cui Zuckerberg scriveva: “Meglio comprarli che competere”- Buy or bury.

    Un passaggio che potrebbe diventare il simbolo stesso del caso.

    Secondo la FTC, quelle acquisizioni non hanno avuto lo scopo di innovare, ma di impedire che altri potessero farlo. Una visione che, se accolta dal tribunale, potrebbe portare a una sentenza storica: la separazione forzata di Instagram e WhatsApp da Meta.

    In buona sostanza, FTC contesta a Meta il fatto che questa espansione dell’azienda e delle piattaforme è andata oltre

    La difesa: “Non siamo un monopolio”

    Dal canto suo, Meta respinge ogni accusa. La linea difensiva è chiara: il mercato dei social media è oggi più competitivo che mai. TikTok, YouTube, X (l’ex Twitter), iMessage e nuove piattaforme emergenti rendono lo scenario attuale molto diverso da quello del 2012.

    Meta insiste anche sul fatto che le acquisizioni abbiano prodotto valore per i consumatori. Instagram, ad esempio, ha evoluto le proprie funzionalità, introducendo Stories, Reels, funzioni di e-commerce e strumenti per creator che difficilmente avrebbe potuto sviluppare in autonomia. WhatsApp è diventata una piattaforma globale, sicura e affidabile anche grazie agli investimenti di Meta.

    La difesa punta inoltre il dito contro la revisione postuma delle acquisizioni: “All’epoca furono approvate, ora vengono messe in discussione. Come possono le aziende operare in un clima simile di incertezza normativa?”, è l’obiezione di fondo.

    Una partita anche politica

    Non è un caso che il processo arrivi in un momento delicato anche dal punto di vista politico. L’amministrazione Trump ha rimosso recentemente due commissari democratici dalla FTC, alterandone l’equilibrio interno. Contestualmente, Meta ha intensificato le attività di lobbying, cercando un’intesa che potesse evitare il processo.

    Ma l’attuale presidente della FTC, Andrew Ferguson, ha deciso di andare avanti, dichiarando l’intenzione di portare fino in fondo la battaglia legale. A presiedere il caso è il giudice James Boasberg, che in passato si era mostrato scettico verso alcune argomentazioni della FTC, ma ha deciso di non bloccare il procedimento, ritenendo le accuse meritevoli di un processo completo.


    Guarda il video


    Le parole di Sheryl Sandberg

    Il dibattimento si annuncia lungo e articolato. Era attesa la testimonianza di Mark Zuckerberg, ma anche quella di Sheryl Sandberg (ex COO di Meta) e di altri alti dirigenti dell’azienda.

    Alla Sandberg, nella sua prima comparsa davanti alla commissione, è stato chiedo conto delle email in cui si parlava di Google+, oggi non più attivo. Nel 2011 Google voleva fare pubblicità su Facebook del suo social network, ma dalle email risulta che la Sandberg abbia scritto: “Bloccherei Google”.

    Tutte frasi ed espressioni che in questi contesti vengono usate contro dalla controparte e che possono delineare scenari evocati proprio dalla controparte. La Sandberg è attesa di nuovo davanti al giudice.

    Verranno poi ascoltate anche aziende concorrenti come Snap, Pinterest e TikTok, chiamate a spiegare come l’influenza di Meta abbia modellato — o limitato — l’ecosistema dei social media.

    Il processo proseguirà nei prossimi mesi e si prevede che durerà fino a luglio 2025. Una sentenza che imponga lo spacchettamento di Meta rappresenterebbe un evento senza precedenti dai tempi delle storiche battaglie antitrust contro AT&T e Microsoft.

    Una questione che va oltre Meta

    Ma al di là del destino di Instagram e WhatsApp, questo processo è anche un banco di prova per la regolamentazione delle grandi piattaforme tecnologiche. Quali limiti deve avere il potere di aziende private nel plasmare le nostre interazioni digitali? Quando un’acquisizione diventa un abuso? E quanto possiamo contare sulle istituzioni per vigilare su un settore che si evolve più rapidamente delle leggi?

    Il processo FTC contro Meta non è solo una questione giuridica.

    Rappresenta un serio momento di riflessione sul futuro dell’equilibrio tra innovazione, concorrenza e libertà digitale. Una riflessione che ci riguarda tutti.

  • Immagini IA, ChatGPT 4o e rischio disinformazione

    Immagini IA, ChatGPT 4o e rischio disinformazione

    ChatGPT 4o ora consente di generare immagini di personaggi famosi in contesti realistici, ma mai avvenuti. Un passo avanti che solleva rischi concreti di disinformazione visiva. Ecco cosa sta cambiando, come riconoscerlo e perché serve essere responsabili.

    Restando sul tema di intelligenza artificiale, vi sarete accorti anche voi che ultimamente si è potenziata la possibilità di generare immagini. E di generare queste immagini anche con personaggi noti, personaggi pubblici, personaggi famosi, politici… e addirittura ritrarli in situazioni che prima non era possibile fare.

    Mi riferisco in particolare all’aggiornamento di ChatGPT, che ha potenziato il modello 4o al punto da far generare, da riuscire, da permettere agli utenti di generare immagini che prima non era possibile fare.

    Ci concentriamo sempre sulle capacità dell’intelligenza artificiale, di questi modelli che sono sempre più aggiornati, sempre più potenti, ma non ci soffermiamo mai sul fatto che prima non era possibile fare una cosa, e invece oggi è possibile farlo.

    Immagini IA, ChatGPT 4o e rischio disinformazione
    Immagini IA, ChatGPT 4o e rischio disinformazione

    Quali immagini può generare oggi ChatGPT 4o

    Come appunto questa, che in realtà definisce ancora di più la vicinanza tra ciò che era lecito fare e ciò che in realtà è un rischio, un potenziale rischio di disinformazione che è alla portata di tutti.

    Perché questo?

    Perché in realtà le immagini sono, l’abbiamo visto anche in questi giorni, il contenuto più facilmente condivisibile, più facilmente condiviso sulle piattaforme, e che facilmente può diventare anche virale.

    Lo diventa nel momento in cui noi abbiamo la possibilità di ritrarre personaggi noti, famosi. Faccio l’esempio di Trump che è sulla spiaggia di Copacabana con Elon Musk a bere un drink. Una situazione che prima su ChatGPT non era possibile fare e che adesso invece è alla portata di tutti.

    Trump Musk spiaggia copacabana ChatGPT 4o franz russo
    Trump Musk spiaggia copacabana ChatGPT 4o realizzata da Franz Russo

    Sono quelle situazioni in cui abbiamo questa sorta di voglia di vedere personaggi famosi in situazioni che molto probabilmente non vivrebbero mai, e che difficilmente sarebbero ritratte in quella situazione.

    Questo significa che, in realtà, anche noi potremmo essere al centro di quel contenuto. E quindi, avendo la possibilità di poter ritrarre e permettendo anche agli utenti la possibilità di generare immagini come queste, nulla vieta che un giorno ci possa essere un Franz Russo, tanto per fare un esempio, che si trova in un determinato luogo, con una determinata situazione, ma in realtà tutta quell’immagine non esiste.

    Il confine tra immagini reali e false è sempre più sottile

    Quindi il confine tra ciò che è possibile, che è realistico, e ciò che è in realtà una potenziale disinformazione, si sta avvicinando sempre di più.

    Ma perché ChatGPT arriva a trasferire questo senso di responsabilità un po’ più verso gli utenti?

    La questione è molto semplice, ed è di natura commerciale.

    Il caso Grok 3 di xAI

    Sul mercato dell’intelligenza artificiale esiste già Grok 3, la terza versione di questa intelligenza artificiale realizzata da xAI, che è una delle società di Elon Musk.

    Grok si trova all’interno della piattaforma X, e permette fin dall’inizio, da quando è stata generata la prima versione, di generare immagini che ritraggono personaggi famosi anche con un limite sempre più alto, con un’asticella sempre più alta, con possibilità di ritrarre personaggi famosi sempre più alla portata di chiunque.

    L’immagine di Papa Francesco col piumino bianco

    Ricordate quando nel 2023 si realizzarono quelle immagini con Papa Francesco, il famoso piumino? Ebbene, quell’immagine lì oggi ChatGPT la fa tranquillamente.

    Papa Francesco piumino IA franz russo
    Papa Francesco piumino generata con la ChatGPT 4o da Franz Russo

    L’immagine del falso arresto di Trump

    Oppure un’altra famosa immagine di Donald Trump circondato da poliziotti che cerca di fuggire a un possibile arresto: ebbene, quell’immagine ChatGPT oggi la realizza tranquillamente, senza nessun problema.

    Donald Trump falso arresto generato con la IA
    Donald Trump falso arresto generato con ChatGPT 4o da Franz Russo

    Questo significa che il confine, ripeto, di quello che noi possiamo generare rispetto a una potenziale disinformazione, si sta sempre di più assottigliando, sempre di più avvicinando. Non si riconosce più il rischio di quello che riusciamo a generare.

    Ci sono addirittura delle immagini, tipo Bill Gates con una birra in mano, realizzata da me su ChatGPT, che alcuni strumenti di verifica, come Illuminarty, addirittura fanno fatica a definire se sia un’immagine realistica, umana, oppure se sia generata da intelligenza artificiale.

    Bill Gates con birra in mano realizzata con Chatgpt-4o da Franz Russo
    Bill Gates con birra in mano realizzata con Chatgpt-4o da Franz Russo

    Questo già ci dice molto di come effettivamente anche questi strumenti di verifica possono essere utili o addirittura affidabili.

    Piccoli suggerimenti per riconoscere immagini IA

    Per cercare poi di offrire qualche suggerimento su come accorgerci del fatto che queste situazioni, alcune immagini, possono sembrare artefatte, ecco alcuni dettagli:

    • lo sfondo, magari un po’ confuso;

    • scritte non precise;

    • mani, che erano un grande problema per DALL·E 3;

    • oppure la pelle, che è sempre perfetta, molto liscia, e quindi già di per sé ti porta a pensare che sia un’immagine artefatta, anche se in alcuni casi anche questo dettaglio è in netto miglioramento,

    • o addirittura l’esposizione della luce, che in alcuni contesti è quasi irrealistica: quel tipo di luce difficilmente può essere naturale.

    Oppure ancora, cercare di avvalersi sempre della ricerca inversa, quindi utilizzare motori di ricerca – ad esempio Google Immagini – sottoponendo i contenuti per avere una risposta dal motore di ricerca sul fatto che quell’immagine sia stata già utilizzata in altri contesti o meno.

    Anche perché è capitato, anche di recente, che alcune immagini realizzate con intelligenza artificiale—quindi neanche con modelli di ricerca tanto evoluti, perché l’evoluzione l’abbiamo avuta molto molto di recente—siano stati confusi come contenuti realistici.

    Quindi il senso di responsabilità, da parte nostra, ormai è imprescindibile. Non possiamo che fare affidamento a quel senso di responsabilità, alla consapevolezza del fatto che stiamo utilizzando strumenti che in alcuni contesti possono generare contenuti potenzialmente di disinformazione.


    Guarda il video


    Anche la ghilbizzazione aiutare a confondere

    Anche lo stesso fenomeno della ghiblizzazione, di cui abbiamo parlato anche in un altro video, è uno di quegli elementi che ci porta a trasformare quella che è la realtà in un contesto diverso: più armonioso, più pastellato, più colorato, più dolce.

    Ma anche quello diventa una situazione per mascherare altre situazioni irrealistiche. Condividerle in un contesto completamente diverso, anche quello è un potenziale rischio di disinformazione.

    meme ghiblizzazione franz russo
    Celebre meme con ghiblizzazione

    Quindi, rispetto anche alla potenzialità, al modo in cui noi possiamo effettivamente affrontare questo, è sicuramente importante conoscere meglio i modelli. E quindi avvalerci di quella competenza, AI Literacy, conoscenza approfondita dei modelli. Dobbiamo prestare attenzione su come utilizziamo questi modelli e per cosa li vogliamo usare.

    Che sia per uso personale, per lavoro, per tutte le attività che facciamo, dobbiamo prestare sempre molta attenzione e affidarci a un senso di responsabilità. Chiederci sempre:
    qual è la motivazione che mi porta a usare questo modello?
    Cosa voglio davvero fare?

    E imparare, anche noi utenti, a riconoscere sempre meglio queste immagini, a sapere che tipo di immagine abbiamo davanti, a saperle riconoscere ed evitare che diventiamo anche noi potenziali diffusori di disinformazione.

  • Meta AI usa i nostri dati e non si può disattivare, alcune considerazioni

    Meta AI usa i nostri dati e non si può disattivare, alcune considerazioni

    Meta AI è arrivata da poco in Italia. Ma ci sono due aspetti che vanno approfonditi: l’uso dei dati pubblici degli utenti e l’impossibilità di disattivare l’IA. In questo articolo provo a verificare le implicazioni, tra privacy, consenso. E anche un confronto con Grok di X.

    Come sapete, Meta AI è attivo anche in Italia da qualche giorno. È arrivato anche su WhatsApp, dove praticamente tutti gli utenti hanno visto questa iconcina circolare che, una volta attivata, risponde a delle domande e a dei problemi.

    Per cercare di chiarire il motivo di questa considerazione, che si basa essenzialmente su due elementi, provo ad essere un po’ più chiaro, per farvi entrare nella logica di ciò che dirò più tardi, soprattutto su questi due punti.

    Un assistente a tratti invadente

    Immaginiamo di essere in una grande stanza e di osservare ciò che accade, accompagnati da una persona che chiameremo il nostro assistente particolare.

    Quando abbiamo qualcosa da chiedere, ci rivolgiamo a questo assistente che risponde alle nostre domande in maniera molto precisa e dettagliata, offrendo anche la possibilità di approfondire successivamente.

    Intanto, continuiamo il nostro giro in questo palazzo osservando tutte le stanze: in ogni stanza c’è qualcosa che ci incuriosisce, e chiediamo al nostro assistente.

    Il problema è che questo assistente ci segue in continuazione, anche quando non lo interpelliamo: ci osserva, ascolta le nostre azioni, guarda con chi parliamo e ascolta cosa diciamo con le altre persone che incontriamo.

    Il problema sorge quando ci accorgiamo che questa presenza diventa, ad un certo punto, pesante e vorremmo mandarla via, ma non riusciamo a trovare un modo per farlo. Non c’è la possibilità, per così dire, di disattivarla.

    MetaAI usa i nostri dati e non si può disattivare, alcune considerazioni
    MetaAI usa i nostri dati e non si può disattivare, alcune considerazioni

    Il primo problema di Meta AI: l’uso dei dati pubblici

    Ed è qui che entro sul tema, cercando di spiegare i due elementi cardine che riguardano Meta AI (e non solo).

    Intanto, MetaAI è presente in Unione Europea dal 20 marzo, dopo aver – per così dire – migliorato la sua aderenza, la sua compliance, al GDPR.

    Il GDPR, questo regolamento sulla protezione dei dati entrato in vigore in Unione Europea nel 2018, ha rivoluzionato il modo in cui vengono gestiti i dati.

    Ebbene, ci sono due aspetti che meritano attenzione.

    Il primo è che, inizialmente, avevo creduto che Meta AI non usasse i nostri dati per allenare la sua intelligenza. In realtà, le cose sono diverse. Se provate a chiedere a MetaAI, su Facebook, Instagram o WhatsApp, se utilizza i vostri dati, la risposta standard è: “No, non utilizzo i dati“. Tuttavia, la realtà è più complessa.

    Meta AI usa i dati pubblici degli utenti

    Meta AI usa i dati pubblici degli utenti: per “dati pubblici” intendo i post, le immagini e i commenti resi visibili a tutti. Questo significa che, per evitare di dare in pasto i nostri contenuti all’intelligenza artificiale, bisognerebbe passare in modalità privata. Nella modalità privata l’IA non riuscirebbe a prelevare i dati che non vogliamo rendere pubblici.

    Questo approccio non va proprio nella direzione del GDPR, il cui fondamento è il consenso informato e la capacità di controllo da parte dell’utente all’interno delle piattaforme digitali.

    Cosa c’è all’interno del Privacy Center

    All’interno del Privacy Center non è ben spiegato se e come si debbano pubblicare i nostri contenuti. Meta non dà spazio a questo aspetto; il link di riferimento, che fornirò in calce al video, spiega che se non volete che MetaAI utilizzi i vostri dati, dovete passare in modalità privata. Questa soluzione, però, può essere valida per alcuni e meno per altri.

    Parliamo di consapevolezza: è importante che, da un lato, la piattaforma fornisca l’informazione corretta e, dall’altro, che ciascuno adotti l’atteggiamento giusto nella condivisione dei contenuti. Solo in questo modo possiamo essere consapevoli e responsabili dell’uso dei nostri dati.

    Secondo problema di Meta AI: non può essere disattivata

    Il secondo elemento, che cozza maggiormente con il GDPR, è il fatto che l’intelligenza artificiale non può essere disattivata. Non esiste un tasto o un’opzione che permetta all’utente di scegliere se utilizzare o meno l’IA.

    L’unica cosa possibile, in assenza di una modalità di disattivazione, è di non utilizzarla: di non interpellarla, di non fare in modo che possa entrare nelle vostre conversazioni. Ma l’IA si alimenta delle richieste (i cosiddetti prompt), dei risultati e delle risposte, continuando a prelevare dati.

    Da tutte le piattaforme – Instagram, Messenger, WhatsApp e Facebook – le risposte pubbliche attingono anche ai risultati pubblici, senza possibilità di disattivare l’IA. Questo ulteriore elemento non collima con il GDPR, perché non offre la possibilità di scegliere.

    Il confronto con Grok di X

    Se volessimo fare un paragone, ci riferiremmo a Grok di X (la piattaforma che prima era Twitter, di proprietà di Elon Musk). Grok, che è l’IA di X, funziona in maniera simile: è integrato nella piattaforma, usabile anche senza abbonamento (con alcune limitazioni) fino alla versione Premium+. Anche Grok, comunque, utilizza di default i dati pubblici degli utenti, non appena si attiva un account.

    L’unica azione possibile è quella di andare nelle impostazioni della privacy, nella sezione dedicata a Grok, e disattivare l’opzione di raccolta dati pubblici. Attenzione: se si effettua questa operazione, Grok continuerà a utilizzare i dati già condivisi, mentre solo i dati futuri non verranno più prelevati.

    Un ulteriore elemento è la possibilità di eliminare la cronologia delle conversazioni con l’IA. Pur essendo un aspetto leggermente più in linea con il GDPR, sul consenso informato rimane comparabile a MetaAI.

    In sintesi, stiamo parlando di due esperienze molto simili che, da un lato, permettono un minimo di controllo. Anche Grok suggerisce, come ultima ipotesi, di passare in modalità privata per evitare che i propri dati vengano prelevati. Tuttavia, questo comporta una significativa riduzione nella visibilità e nelle condivisioni dei propri contenuti.

    Grok (X) Meta AI
    Opt-out disponibile ✅ Sì ⚠️ Sì, ma difficile da trovare
    Disattivazione IA ✅ Parziale (nessuna interazione) ❌ No
    Consenso esplicito ❌ No ❌ No
    Trasparenza IA ⚠️ Media ❌ Bassa
    GDPR compliance 🟡 In dubbio, ma più avanzato 🔴 Più problematico

    La IA entra nelle piattaforme digitali per cambiarle 

    Quindi, si tratta di un passaggio inevitabile: l’intelligenza artificiale sta entrando nelle piattaforme digitali e, come già anticipato in un mio video precedente, questo cambierà radicalmente il nostro modo di interagire non solo con le piattaforme ma anche tra di noi.

    Le relazioni e le conversazioni tra utenti saranno inevitabilmente influenzate dall’uso dell’IA. Dobbiamo farlo in maniera informata e consapevole, sapendo se i nostri dati saranno dati in pasto all’intelligenza artificiale e avendo la possibilità di scegliere, in linea con il consenso informato richiesto dal GDPR.

    Il GDPR poggia la sua intera esistenza su questo principio: anche se non c’è un obbligo esplicito, la dichiarazione di consenso dovrebbe far parte dell’esperienza dell’utente, permettendogli di scegliere se concedere i propri dati.

     

    Questi sono, in sostanza, i due elementi che rendono Meta AI un caso particolare.

    Adesso bisognerà osservare se Meta intende, in questo scenario globale – complicato da aspetti geopolitici, finanziari e normativi – adeguarsi pienamente al regolamento europeo. Vedremo anche come reagirà l’Unione Europea a questi due punti critici, soprattutto considerando le tensioni nei rapporti con gli Stati Uniti e l’eventuale questione dei dazi e della web tax che colpiranno le big tech.

    Non è uno scenario facile, e vedremo come evolveranno le cose. Ci interrogheremo se Meta AI diventerà più conforme al GDPR.

    Condividete le vostre esperienze e i vostri pensieri: se Meta AI è stata utilizzata, se eravate informati sull’uso dei vostri dati. Fatemelo sapere nei commenti.

     

  • Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA

    Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA

    Secondo il NYT, la UE sarebbe pronta a sanzionare X per violazione del Digital Services Act. Il caso potrebbe trasformarsi in un nuovo conflitto tra UE e USA, e accentuare le tensioni già alle stelle per via dei dazi.

    Secondo il  New York Times ci si avvicina ad un possibile scontro tra l’Unione Europea e X, la piattaforma social di Elon Musk. Scontro da molti già prospettato in precedenza.

    Secondo quanto riportato, le autorità UE starebbero preparando una sanzione che potrebbe superare il miliardo di dollari. L’accusa rivolta a X è di aver violato il Digital Services Act (DSA), la normativa comunitaria che regola i servizi digitali e impone alle grandi piattaforme di contrastare contenuti illeciti e disinformazione.

    Non è una notizia da poco. Si tratta di un segnale forte, che potrebbe segnare un punto di svolta nei rapporti tra Bruxelles e le big tech americane, con ricadute che vanno ben oltre il destino della piattaforma di Musk.

    Il contesto: il Digital Services Act e  il controllo digitale

    Per capire di cosa stiamo parlando, è necessario fare un passo indietro.

    Il Digital Services Act, entrato in vigore nel 2024, è il pilastro della strategia europea per regolamentare il selvaggio west del digitale.

    L’obiettivo è garantire che le piattaforme con più di 45 milioni di utenti nell’UE – come X – adottino misure rigorose contro la diffusione di contenuti illegali, dalla propaganda estremista alla disinformazione sistematica.

    Le sanzioni per chi non si adegua possono arrivare fino al 6% del fatturato globale annuo, una cifra che, nel caso di X, potrebbe tradursi in una multa monstre.

    L’indagine su X non è una novità.

    Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA
    Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA

    Indagine su X avviata a fine 2023

    Già a dicembre 2023, la Commissione Europea aveva aperto un fascicolo per verificare se la piattaforma rispettasse le nuove regole, concentrandosi su questioni come la gestione delle “spunte blu” a pagamento – accusate di favorire account falsi – e la trasparenza nella moderazione dei contenuti.

    Ora, a quanto pare, Bruxelles è pronta a passare dalle parole ai fatti. L’articolo del NYT cita fonti anonime vicine all’indagine, secondo cui la multa potrebbe essere annunciata nell’estate del 2025. Accompagnata da richieste di modifiche strutturali alla piattaforma.

    Un colpo diretto non solo a X, ma anche a Elon Musk, figura controversa, che da anni si scontra con le autorità europee sulla sua visione di una libertà di espressione senza filtri. E che oggi ricopre un ruolo di rilievo all’interno dell’amministrazione Trump.

    I possibili scenari, cosa succede se la sanzione diventa realtà

    Se l’UE dovesse confermare la sanzione, gli scenari possibili sono molteplici.

    Il primo, e più immediato, è quello economico. Una multa superiore al miliardo di dollari metterebbe sotto pressione X, già alle prese con un calo di utenti e introiti pubblicitari dopo l’acquisizione da parte di Musk nel 2022. E che di recente è stata acquisita da xAI per 33 miliardi di dollari.

    Ma non si tratterebbe solo di soldi. L’Europa potrebbe imporre cambiamenti operativi – come una revisione degli algoritmi o un rafforzamento della moderazione – che Musk ha sempre osteggiato, considerandoli una forma di censura.

    Poi c’è lo scenario politico. X potrebbe decidere di resistere, magari ritirandosi dal mercato europeo per evitare di piegarsi alle regole del DSA.

    Una mossa estrema, ma non del tutto improbabile, visto il carattere di Musk e le sue recenti prese di posizione contro Bruxelles. In alternativa, la piattaforma potrebbe adeguarsi, ma a costo di perdere parte della sua identità “libertaria”. Da ricordare la vicenda del Brasile.

    Infine, c’è lo scenario diplomatico, quello più complesso. Una sanzione di questa portata non resterebbe un affare tra l’UE e X. Si colpirebbe un simbolo del potere tecnologico americano, guidato da un uomo che è anche uno dei più stretti alleati del presidente Donald Trump. E qui entra in gioco il contesto più ampio.

    Le tensioni tra Usa e UE, dai dazi allo scontro sul digitale

    Le relazioni tra Stati Uniti e Unione Europea non sono mai state così fragili.

    Con l’entrata in vigore dei dazi annunciati da Trump due giorni fa – tariffe del 25% su acciaio, alluminio e auto, seguite da altre su semiconduttori e farmaceutici – il tutto si è trasformato in un campo di battaglia commerciale.

    L’UE ha idea di rispondere con propri dazi, rinviati al momento al 13 aprile, ma la rappresaglia potrebbe presto prendere di mira i giganti digitali americani, come suggerito dal leader del PPE Manfred Weber: “Se Trump colpisce i nostri beni, noi puntiamo sui loro servizi”.

    In questo clima di guerra fredda economica, la sanzione a X rischia di essere percepita come un attacco diretto agli interessi americani.

    Musk, a capo del Department of Government Efficiency (DOGE) nella nuova amministrazione Trump, non è solo un imprenditore: è. Oggi è un attore politico di peso, con un’influenza che spazia ovunque.

    L’UE, dal canto suo, sembra voler usare X come esempio per dimostrare che nessuno è al di sopra delle sue leggi. Una mossa che potrebbe innescare una reazione a catena.

    Trump, che ha già minacciato di far uscire gli USA dalla NATO in risposta a mosse ostili, potrebbe vedere nella multa addirittura un affronto personale, esasperando ulteriormente le tensioni transatlantiche.

    La risposta di X in cui parla di censura

    X non è rimasta in silenzio. In un post pubblicato sulla piattaforma, la società ha replicato con toni decisi: “L’UE vuole punirci per aver difeso la libertà di parola. Il Digital Services Act è un’arma di censura, non una legge per la sicurezza. Non ci piegheremo”.

    Un messaggio che riflette la linea dura di Musk, pronto a trasformare la vicenda in una crociata ideologica.

    Nessuna apertura al dialogo, nessuna promessa di adeguamento. Solo la sfida aperta a Bruxelles, con un richiamo implicito al sostegno di Trump e dei suoi follower.

    Le big tech si rivolgono a Trump per pressioni su UE

    Non è un caso che, negli ultimi mesi, i grandi nomi della Silicon Valley abbiano intensificato i contatti con l’amministrazione Trump.

    Mark Zuckerberg, ad esempio, in un’intervista al podcast Joe Rogan Experience del 18 gennaio 2025, ha dichiarato: “Gli Stati Uniti dovrebbero difendere le loro aziende tecnologiche. È un vantaggio strategico che non possiamo perdere”.

    Una posizione che sembra un appello diretto a Trump per contrastare le mosse dell’UE, come il DSA o il Digital Markets Act, percepiti come minacce al dominio americano nel digitale.

    Anche Sam Altman, CEO di OpenAI, ha reso la sua donazione alla campagna di Trump, un gesto che alcuni interpretano come un tentativo di assicurarsi un alleato contro eventuali ritorsioni europee.

    Musk, dal canto suo, non ha bisogno di chiedere favori. Il suo legame con Trump è già solido, cementato da anni di sostegno politico e finanziario.

    Il futuro in bilico tra Usa e UE

    La vicenda di X e dell’UE è molto più di una disputa legale. È un capitolo di una storia più grande, quella di un mondo ormai diviso tra visioni opposte.

    Da un lato, l’Europa che cerca di imporre regole per proteggere i cittadini e la democrazia; dall’altro, un’America che vede nel controllo digitale una minaccia alla sua egemonia.

    Le sanzioni, se dovessero arrivare, non sarebbero solo un conto da pagare per Musk. Sarebbero un test per capire fino a che punto le tensioni transatlantiche possono spingersi prima di spezzare qualcosa di irreparabile.

    E noi, come sempre, staremo qui ad osservare ed interpretare gli eventi, cercando di decifrare un futuro che oggi si scrive anche a colpi di post.

  • Il mondo del lavoro nell’era della IA, secondo LinkedIn

    Il mondo del lavoro nell’era della IA, secondo LinkedIn

    Come sta cambiando il mondo del lavoro nell’era della IA? I dati diffusi da LinkedIn sulle skill professionali in crescita, ci aiutano a scoprire le competenze necessarie per affrontare questo grande cambiamento.

    In un momento in cui si parla, quasi quotidianamente, di come cambierà il lavoro nell’era della IA, ecco che LinkedIn ci offre una bussola per orientarci tra i cambiamenti in atto.

    Con il recente rapporto Skills on the Rise 2025, la piattaforma di social business media più grande al mondo ha definito le 15 competenze che domineranno il mercato, negli Usa e in Europa, nei prossimi mesi.

    Anche se l’Italia non è citata esplicitamente, queste tendenze emerse parlano chiaro. L’intelligenza artificiale e le soft skills saranno il cuore del mercato del lavoro anche da noi.

    E c’è una sorpresa – o forse no – al primo posto: l’AI Literacy, ovvero la capacità di comprendere e utilizzare l’intelligenza artificiale.

    Si tratta di un segnale chiaro. Il futuro è già qui, e chi vuole rimanere competitivo deve imparare a parlare la lingua della IA.

    Un panorama in trasformazione

    Il dato che colpisce di più arriva da una previsione: entro il 2030 (dal 2015), il 70% delle competenze richieste per la maggior parte dei lavori sarà diverso da oggi.

    Non è fantascienza, ma una realtà spinta dall’adozione sempre più accelerata e capillare dell’IA in ogni settore.

    LinkedIn, analizzando i profili dei suoi utenti e le offerte di lavoro pubblicate, ha stilato una classifica che mescola hard e soft skills. E il messaggio è evidente: non basta più essere specialisti in un solo campo, serve una visione d’insieme.

    Dopo l’AI Literacy, troviamo competenze come la gestione del cambiamento, il pensiero critico e la leadership. Ma anche skill più tecniche come la gestione dei dati e la sicurezza informatica.

    Il mondo del lavoro nell’era della IA, secondo LinkedIn
    Il mondo del lavoro nell’era della IA, secondo LinkedIn

    Perché l’AI Literacy è la regina del 2025

    Non è un caso che l’alfabetizzazione all’intelligenza artificiale sia in cima alla lista, un po’ ovunque.

    Oggi l’IA non è più un optional. Dalle aziende che ottimizzano i processi produttivi ai professionisti che usano tool come ChatGPT per scrivere report o analizzare dati, questa tecnologia sta ridefinendo il modo in cui lavoriamo.

    Ma attenzione, non si tratta solo di sapere “premere un pulsante”. L’AI Literacy significa capire come funzionano questi strumenti, interpretarne i risultati e integrarli in modo etico e strategico nel proprio flusso di lavoro. È una competenza trasversale, che tocca tanto il marketer quanto l’ingegnere. Tanto per chiarirci.

    Non solo tecnologia: il ritorno delle soft skills

    Accanto alle abilità tecniche, il rapporto di LinkedIn dà spazio a quelle che abbiamo sempre definito “soft skills” – e che oggi sono tutt’altro che secondarie.

    Comunicazione, problem solving e capacità di adattamento al cambiamento sono tra le protagoniste.

    Un esempio? La gestione del cambiamento, seconda in classifica, riflette la necessità di navigare in un contesto lavorativo sempre più fluido, dove le certezze di ieri non valgono più. È un invito a essere resilienti, un tema che torna spesso quando si parla di futuro del lavoro.

    La “competenza” del pensiero critico

    Tra queste si fa strada anche la capacità di “pensiero critico”. Ho già detto in altre occasioni che questa soft skill assume, e assumerà, uno spazio sempre più rilevante.

    In un mondo dove l’intelligenza artificiale (IA) domina i processi e i dati inondano ogni decisione, la capacità di analizzare, valutare e prendere decisioni consapevoli diventa una sorta di ancora di salvezza. Ma cosa significa davvero nel contesto europeo?

    L’IA può elaborare dati e suggerire soluzioni, ma non sa “pensare fuori dagli schemi” né mettere in discussione i propri output. Il pensiero critico serve a interpretare i risultati dell’IA, valutarne l’affidabilità e adattarli a contesti locali.

    Pensiamo a un responsabile marketing che usa un tool di analisi predittiva: senza la capacità di chiedersi “questi dati sono davvero rappresentativi?” o “questa strategia ha senso per il mio pubblico?”, l’automazione rischia di diventare un boomerang.

    Il pensiero critico entra in gioco come abilità per affrontare problemi complessi. Non si tratta solo di trovare risposte, ma di fare le domande giuste.

    In Europa, la digitalizzazione dei processi, la spinta verso modelli ibridi di lavoro e l’urgenza climatica stanno cambiando profondamente le priorità aziendali.

    Come cambieranno le competenze

    In questo scenario, secondo il World Economic Forum, entro il 2027 il 44% delle competenze dei lavoratori dovrà essere aggiornato, e oltre il 75% delle aziende in Europa ha dichiarato di voler investire in upskilling e reskilling nei prossimi due anni.

    Ma c’è di più: la conoscenza nei modelli linguistici di grandi dimensioni (LLM) è oggi tra le skill in crescita in Germania e Regno Unito. È un segnale chiaro del ruolo che strumenti come ChatGPT, Gemini o Claude stanno giocando non solo nella creazione di contenuti, ma anche nei processi di decision-making, ricerca, assistenza e relazione con il cliente.

    L’IA non sostituisce, ma ridisegna

    Il dibattito su come l’intelligenza artificiale stia impattando il lavoro resta aperto. Se da una parte c’è chi teme la sostituzione, dall’altra emerge un’interpretazione più concreta e matura: l’IA non elimina il lavoro, ma lo ridisegna.

    Serve quindi un cambio di mentalità.

    I lavoratori che sapranno collaborare con l’IA, comprenderne la logica, sfruttarne le potenzialità nei contesti giusti, saranno più preparati ad affrontare un mercato del lavoro in continua evoluzione. Ecco perché l’AI literacy è diventata una skill diffusa non solo tra i tecnici, ma anche tra chi lavora nel marketing, nella comunicazione, nelle vendite, nel customer service.

    Differenze per paese

    LinkedIn adatta le classifiche in base alle specificità dei mercati del lavoro locali. Ad esempio:
    • India: la lista dà più peso a competenze tecniche come Code Review (2° posto), Debugging, e Prompt Engineering, oltre a soft skills come Creativity and Innovation (1° posto) e Strategic Thinking. AI Literacy è presente ma non al primo posto.
    • Germania: competenze legate all’ingegneria e alla manifattura (es. Software Design, Process Optimization) sono più prominenti, insieme a Cybersecurity, vista l’importanza della protezione dati nell’UE.
    • Francia: soft skills come Comunicazione e Adattamento salgono in classifica, insieme a Customer Engagement, per il focus su servizi e relazioni con i clienti.
    • Regno Unito: AI Literacy e Data Management sono alte, ma anche Regulatory Compliance emerge per via del contesto normativo post-Brexit.

    Una “media” delle 15 competenze

    Ecco una media delle competenze, considerando la frequenza con cui una competenza appare nelle prime posizioni tra i vari paesi e la sua rilevanza globale:
    1. AI Literacy – sempre tra le prime, fondamentale ovunque per l’impatto dell’IA.
    2. Communication – ricorre in tutte le liste, essenziale in contesti ibridi e multiculturali.
    3. Adaptability – alta priorità per la rapidità dei cambiamenti globali.
    4. Critical Thinking – valutata ovunque per risolvere problemi complessi.
    5. Creativity and Innovation – spicca in India e compare spesso altrove.
    6. Leadership – costante per guidare team in transizione.
    7. Problem Solving – universale, soprattutto in India e USA.
    8. Data Management – cresce con la digitalizzazione, rilevante in UK e Germania.
    9. Cybersecurity – priorità in Europa (es. Germania) e USA.
    10. Change Management – frequente per gestire trasformazioni aziendali.
    11. Process Optimization – importante in contesti industriali (es. Germania).
    12. Stakeholder Management – ricorre in India e UK per relazioni strategiche.
    13. Large Language Model (LLM) Development – specifica ma in crescita, specie in tech hub.
    14. Market Analysis – rilevante per strategie di business globali.
    15. Conflict Resolution – emerge in USA e Francia per dinamiche lavorative.
    Le competenze che contano nel 2025 per la IA
    Le competenze che contano nel 2025 per la IA

    Come cambierà il lavoro nei prossimi anni

    La trasformazione è già in atto. Le professioni stanno cambiando forma, alcune si ibridano, altre spariscono o si trasformano profondamente. Allo stesso tempo, ne stanno emergendo di nuove.

    Ciò che sta accadendo oggi non è solo un aggiornamento delle competenze, ma una ristrutturazione dei modelli professionali. Le organizzazioni più lungimiranti stanno già investendo per costruire team capaci di:

    • apprendere in modo continuo;

    • integrare strumenti digitali e umani;

    • gestire il cambiamento come una costante;

    • lavorare in contesti multiculturali e distribuiti.

    In tutto questo, torna centrale una visione più ampia della formazione: non più solo tecnica, ma culturale e umana. La capacità di imparare, di leggere la complessità, di agire con consapevolezza e senso critico diventa la vera risorsa scarsa del futuro.

    Alla fine per abbracciare il cambiamento non resta che imparare, imparare sempre. Studiare, approfondire per abbracciare il cambiamento.

    Guarda e ascolta il video

    [L’immagine di copertina, come quelle che accompagnano le condivisioni sui canali social media, è stata realizzata da Franz Russo usano il modello di generazione delle immagini Chatgpt-4o]

  • Ci informiamo sui social media, ma non ci fidiamo

    Ci informiamo sui social media, ma non ci fidiamo

    I social media hanno superato la TV come mezzo principale per informarsi, ma la fiducia verso queste piattaforme è molto bassa. Il rapporto AGCOM ci restituisce la fotografia di una informazione debole e la conferma dell’algoritmo del proprietario.

    Secondo quanto emerge dall’Osservatorio annuale sul sistema dell’informazione 2025 pubblicato da AGCOM, nel 2023 i social media hanno superato la televisione come principale mezzo di informazione per gli italiani.

    Si tratta di un sorpasso che possiamo definire storico. E che segna una svolta nel modo in cui le persone si informano quotidianamente.

    Va detto che questo primato non si accompagna a un incremento della fiducia da parte degli utenti. Al contrario, i social si confermano tra le fonti ritenute meno affidabili.

    E qui siamo nella dimensione del paradosso, o quasi.

    Come si informano gli italiani: il ruolo crescente dei social media

    Nel dettaglio, il rapporto evidenzia che:

    • il 19,8% degli italiani utilizza i social media come primo strumento per accedere all’informazione online;
    • seguiti da motori di ricerca (17,9%) e siti di quotidiani/periodici (11,8%);
    • il 50,5% degli utenti iscritti a social media dichiara di venire a conoscenza delle notizie sui social prima che da qualsiasi altro mezzo.

    Con questi numeri, i social media superano la televisione, che si attesta al 46,5% come uso informativo nel giorno medio, in calo costante rispetto al 67,4% del 2019.

    Interazioni superficiali e partecipazione limitata

    Il rapporto AGCOM evidenzia anche come gli utenti tendono ad avere un comportamento prevalentemente passivo rispetto all’informazione ricevuta sui social media:

    • il 43,4% si limita a cliccare sui link;
    • il 40,7% mette un like;
    • solo il 16,9% commenta, il 12,6% condivide e appena il 6,1% avvia una discussione;
    • il 25,1% non compie alcuna azione rispetto alle notizie visualizzate.

    Curiosamente, gli utenti over 65 si dimostrano spesso più attivi dei giovani nei commenti e nelle interazioni, a smentire il luogo comune di una fruizione più passiva da parte delle generazioni meno digitalizzate.

    Fiducia ai minimi storici per i social media

    Nonostante la centralità sempre maggiore nel consumo informativo, la fiducia nei social media resta bassa:

    • solo il 15,7% degli italiani esprime alta fiducia nei social come fonte d’informazione;
    • il 30,2% manifesta bassa fiducia;
    • i social si posizionano penultimi nella classifica delle fonti più affidabili, seguiti solo dalle piattaforme video;
    • anche tra i giovani (14-24 anni), che usano i social in modo intensivo, cresce il numero di chi non nutre fiducia in alcuna fonte informativa.

    La relazione tra uso e fiducia non è lineare: chi usa intensamente un mezzo tende ad averne più fiducia, ma nel caso dei social media questa correlazione è debole. Il dato appare ancora più significativo se confrontato con la fiducia nella televisione, che rimane alta soprattutto tra gli over 65 (44,5%).

    Un ecosistema informativo fragile e sbilanciato

    L’analisi di AGCOM conferma che l’informazione è sempre più mediata da piattaforme digitali. E che questo passaggio ha generato una informazione sempre più debole. Sempre più esposta a manipolazioni e a deformazioni.

    La prevalenza dei social nel ruolo di gatekeeper dell’informazione non garantisce qualità, affidabilità o trasparenza.

    Questa tendenza si inserisce perfettamente nelle riflessioni che sto affrontando negli ultimi mesi. Dall’erosione della fiducia digitale all’algoritmo del proprietario, fino alla crescente polarizzazione dell’informazione.


    Guarda il video:


    I social media diventano lo spazio principale dove l’informazione viene vista, ma non dove si costruisce fiducia.

    Il contenuto viene costruito solo per essere visto e non, banalmente, per informare e per generare opinioni e conversazioni.

    Un divario che continuerà ad allargarsi finché non verrà affrontato con responsabilità, tanto da parte delle piattaforme quanto da chi crea contenuti.

    Il quadro che emerge è chiaro. I social media sono oggi la porta d’accesso privilegiata all’informazione per milioni di italiani. Ma a questa centralità non corrisponde un riconoscimento in termini di autorevolezza.

    É necessario concentrarsi sulla costruzione di contenuti che siano effettivamente informativi e che puntino alla qualità. Resto sempre convinto, infatti, che il contenuto equivalga ancora alla Relazione. Ma serve recuperare qualità e abbandonare il concetto di quantità che tanto piace all’algoritmo del proprietario.

    [Immagine ci copertina realizzata da Franz Russo attraverso il modello di intelligenza artificiale generativa ChatGPT-4o]

     

  • Fiducia digitale degli utenti in calo, fanno peggio i social media

    Fiducia digitale degli utenti in calo, fanno peggio i social media

    Il Consumer Digital Trust Index 2025 di Thales mostra un calo nella fiducia digitale: se le banche sono al 44%, i social sono solo al 4%. L’82% abbandona i brand per i dati a rischio. Passkey e biometria possono invertire la rotta?

    Ma voi vi fidate dei servizi digitali che usate? Dei siti web, delle app? E di come sono gestiti i vostri dati personali?

    Cominciamo col dire che la fiducia degli utenti nei servizi digitali sta calando. E questo non è un buon segnale.

    E ce lo conferma il Thales Consumer Digital Trust Index 2025, che fotografa un quadro preoccupante. I consumatori sono sempre più scettici nei confronti delle aziende e dei servizi digitali; mentre le imprese non riescono a colmare il divario di fiducia.

    Ma vediamo i dati più rilevanti del report e un breve focus sull’Italia.

    La fiducia digitale in declino a livello globale

    Secondo il report, la fiducia nei servizi digitali è in declino o rimane stagnante in tutti i settori. Anche quelli più regolamentati.

    Il dato più critico? L’82% dei consumatori ha abbandonato almeno un brand negli ultimi 12 mesi. Principalmente a causa di richieste eccessive di dati personali; processi di autenticazione non all’altezza; e scarsa trasparenza.

    Il calo della fiducia è legato anche al fatto che quasi uno su cinque (il 19%) è stato informato che i propri dati personali sono stati compromessi nell’ultimo anno. Si tratta di un campanello d’allarme per le aziende, che dovrebbero adottare misure più efficaci per garantire la sicurezza e la privacy degli utenti.

    Fiducia digitale degli utenti in calo, fanno peggio i social media
    Fiducia digitale degli utenti in calo, fanno peggio i social media – foto: Greta Hoffman su pexels.com

    Fiducia digitale, i dati più rilevati del 2025

    Password e autenticazione sotto accusa

    Il 75% dei consumatori vorrebbe eliminare le password in favore di metodi più sicuri come dati biometrici o PIN.

    L’onere della sicurezza è tutto sui consumatori

    Il 63% degli utenti ritiene che le aziende stiano delegando a loro la protezione dei dati. Invece di adottare misure più efficaci.

    I bot malevoli compromettono l’esperienza utente

    Il 33% degli utenti ha avuto problemi con acquisti digitali a causa di bot che alterano il processo d’acquisto, causando frustrazione e insoddisfazione.

    I media e social media sono i meno affidabili

    Solo il 3% dei consumatori si fida delle testate giornalistiche per la gestione dei propri dati.

    Solo il 4% si fida dei social media, un dato che riflette una crisi di fiducia strutturale verso le piattaforme social, sempre più percepite come poco trasparenti.

    La fiducia nei social media è al minimo storico

    Uno degli aspetti più significativi del Consumer Digital Trust Index 2025 è proprio la sfiducia diffusa nei confronti dei social media.

    Con solo il 4% dei consumatori che li considera affidabili nella gestione dei propri dati, il dato si allinea perfettamente a quanto già osservato e rilevato in precedenti articoli e video.

    In particolare, il concetto di “algoritmo del proprietario” – di cui ho parlato spesso nel mio video podcast – trova anche in questa occasione una conferma concreta.

    I social media hanno smesso di essere semplici spazi di connessione, luoghi dove ci si ritrovava condividendo interessi. Oggi il controllo sui contenuti è determinato dalle logiche e dagli interessi di chi possiede la piattaforma.

    E quando la percezione è che l’utente abbia perso il controllo su cosa vede e su come vengono trattati i suoi dati, la fiducia mano a mano si sgretola.

    Fiducia digitale degli utenti in calo, fanno peggio i social media
    Thales Consumer Digital Trust Index 2025

    Fiducia digitale, gli utenti si fidano di banche e pubblica amministrazione

    Nonostante il quadro complessivo negativo, il report di Thales evidenzia anche i settori che riescono ancora a mantenere la fiducia degli utenti, pur senza superare mai la soglia del 50%.

    In cima al Digital Trust Index 2025 troviamo, per il secondo anno consecutivo, il settore bancario, che ottiene un livello di fiducia globale del 44%.

    Questo dato nasconde forti differenze generazionali: il 51% degli over 55 si fida dei servizi bancari, ma solo il 32% dei Gen Z esprime lo stesso livello di fiducia.

    Le organizzazioni governative si posizionano al secondo posto con il 41%, registrando anche l’unico incremento rispetto all’anno precedente (dal 37%).

    Al terzo posto troviamo il settore sanitario (40%), seguito da assicurazioni (24%) ed istruzione (17%).

    Tutti gli altri settori si fermano sotto il 10%. Questi numeri indicano che una quota significativa di fiducia resiste, ma è concentrata in pochi ambiti percepiti come più regolamentati o sensibili.

    Italia e la fiducia nei servizi digitali

    Il report non presenta dati specifici sull’Italia, ma i trend europei evidenziano alcune dinamiche significative anche per il nostro Paese.

    GDPR e nuove regolamentazioni

    Il GDPR resta il pilastro normativo della protezione dati in Europa. Per i servizi finanziari digitali, dal gennaio 2025 (periodo vincolante), è affiancato dal Digital Operational Resilience Act (DORA), che punta a rafforzare la sicurezza informatica del settore finanziario.

    Trasparenza richiesta dagli utenti

    I consumatori italiani, come quelli degli altri Paesi europei, chiedono con forza maggiore chiarezza sull’utilizzo dei dati personali.

    Crescita dell’autenticazione biometrica

    Anche in Italia si registra un crescente interesse verso soluzioni di autenticazione più sicure e meno dipendenti dalle password.


    Guarda qui il video sul Consumer Digital Trust Index 2025 di Thales


    Cosa devono fare le aziende per recuperare fiducia

    Per riconquistare la fiducia dei consumatori, le imprese devono agire con urgenza e visione. Ecco alcune direzioni possibili:

    • Adottare sistemi di autenticazione avanzati: meno password, più biometria e autenticazione a più fattori.
    • Ridurre la raccolta di dati superflui: chiedere solo ciò che è strettamente necessario e spiegare chiaramente l’uso che verrà fatto dei dati.
    • Comunicare la sicurezza: raccontare in modo semplice e trasparente le misure di protezione adottate.
    • Contrastare i bot malevoli: investire in tecnologie che migliorano l’esperienza online e proteggono gli utenti.
    • Implementare tecnologie affidabili: secondo il report, il 64% degli utenti si fiderebbe di più di un brand che adotta tecnologie come passkeys, biometria e intelligenza artificiale responsabile.

    Come afferma anche John Tolbert, Director of Cybersecurity Research di KuppingerCole Analysts, il calo della fiducia è un fenomeno prevedibile, ma non inevitabile: con le giuste tecnologie e un’attenzione reale all’esperienza utente, è possibile invertire la rotta.

    In conclusione, il Thales Consumer Digital Trust Index 2025 conferma in modo netto che il divario in termini di fiducia tra consumatori e servizi digitali si sta ampliando.

    In un contesto in cui la fiducia diventa sempre più fragile, le aziende devono dimostrare di meritarla.

    Perché la fiducia, così come la reputazione e altri valori fondamentali, una volta persa, non si recupera facilmente.

    Potete scaricare gratuitamente il report da questo link.

    [La foto di copertina è di Greta Hoffman su pexels.com]

     

  • Meta AI arriva anche in Italia, la IA cambia i social media

    Meta AI arriva anche in Italia, la IA cambia i social media

    Meta AI debutta in Europa e Italia, precisamente in 41 paesi. Integra le piattaforme Meta senza usare dati utenti, rispettando GDPR. Segna l’evoluzione dei social media verso ecosistemi più intelligenti. Le piattaforme digitali si evolvono.

    Meta AI arriva in Unione Europea, e quindi anche in Italia. L’annuncio, del 19 marzo 2025, segna l’ingresso ufficiale dell’intelligenza artificiale di Meta in UE, dopo oltre un anno di disponibilità negli Stati Uniti.

    Al momento, sarà attivo in 41 paesi, risponderà in italiano e si integrerà nelle piattaforme di Meta: Facebook, Instagram, WhatsApp e Messenger.

    Un lancio atteso, ma non privo di limitazioni, che riflette il rispetto delle norme europee sulla privacy e offre uno spunto per riflettere sulla trasformazione dei social media.

    Il modello di Meta AI distribuito in Europa non utilizza i dati degli utenti di Facebook e Instagram, una scelta obbligata per conformarsi al GDPR e all’AI Act, entrato di recente in vigore. Non permetterà la generazione di immagini né sfrutterà le conversazioni degli utenti per generare contenuti in risposta alle loro richieste.

    Meta AI arriva anche in Italia, la IA cambia i social media
    Meta AI arriva anche in Italia, la IA cambia i social media

    Si tratta di restrizioni che spiegano il ritardo nell’espansione europea. A giugno 2024, Meta aveva già pianificato il debutto di Meta AI in Unione Europea, ma le istituzioni, in particolare l’Autorità irlandese per la protezione dei dati, avevano imposto un fermo, richiedendo il rispetto di una serie di regole. Ora, dopo mesi di adeguamenti, l’assistente è pronto a operare.


    Come si usa Meta AI?

    Meta AI sarà accessibile in diversi modi all’interno delle piattaforme Meta:

    • Su Instagram e Messenger, l’AI potrà essere attivata nei messaggi diretti.
    • Nei gruppi WhatsApp, gli utenti potranno menzionare @MetaAI per porre domande e ricevere risposte contestualizzate.
    • Nei commenti su Facebook, Meta AI potrà essere interpellata per fornire approfondimenti.
    • Sul sito meta.ai, l’assistente sarà disponibile come chatbot.

    L’icona blu di Meta AI segnalerà chiaramente la sua presenza, e per attivarlo basterà digitare @MetaAI seguito da una richiesta.

    Gli esempi di utilizzo più comuni? Si potrà chiedere all’AI di fornire informazioni in tempo reale all’interno di conversazioni su WhatsApp o di intervenire in discussioni su Instagram e Facebook.


    Per attivarlo, comparirà un’icona blu nei messaggi di Instagram e nei gruppi WhatsApp, oppure basterà scrivere “@MetaAI” seguito da un prompt, una richiesta esplicita. L’intelligenza artificiale risponderà a domande o interverrà nelle conversazioni, come chiedere suggerimenti in un gruppo WhatsApp o fornire informazioni rapide su Instagram. Ogni contenuto generato da Meta AI sarà chiaramente identificato, in linea con le disposizioni dell’AI Act.

    Le piattaforme digitali cambiano con la IA

    Questa novità non è solo un aggiornamento tecnologico, ma la dimostrazione di un cambiamento profondo nelle piattaforme digitali. L’intelligenza artificiale non è più confinata a un algoritmo che decide cosa mostrare, il cosiddetto “algoritmo del proprietario”, che sempre più spesso privilegia i contenuti graditi alla piattaforma stessa, trascurando gli interessi reali degli utenti.

    Ora, l’AI diventa un elemento attivo nella generazione di contenuti all’interno delle conversazioni tra utenti. Meta AI alimenterà un’ulteriore chiusura degli spazi digitali, trattenendo gli utenti all’interno delle piattaforme con risposte immediate e personalizzate, rafforzando il fenomeno delle bolle informative.

    MetaAI e l’addio al fact-checking

    Il lancio di Meta AI coincide con un altro sviluppo significativo: Meta ha abbandonato il fact-checking tradizionale e sta testando, negli Stati Uniti, le Community Notes, un sistema che affida agli utenti la validazione delle informazioni nei post. Questo approccio arriverà anche in Italia e vedrà probabilmente un ruolo per l’intelligenza artificiale.

    In Europa, va precisato, le regole sulla privacy limiteranno l’impatto di queste innovazioni, mantenendo un equilibrio tra tecnologia e protezione dei dati.

    Le piattaforme digitali, con Meta AI, si trasformano in assistenti in tempo reale e motori di ricerca integrati. Gli utenti potranno interrogare l’AI senza uscire dalle app, un modello che espanderà il loro ruolo oltre la semplice comunicazione.


    Guarda il video


    In futuro, Meta AI potrebbe generare contenuti automatici, incluse immagini, come già accade fuori dall’Unione Europea.

    L’esempio di Grok su X

    Un esempio parallelo è X, dove Grok, l’AI di Elon Musk, interviene direttamente nelle conversazioni quando richiamato con “@Grok”, rispondendo su argomenti specifici. A differenza di Grok, che opera come un bot con una sezione dedicata e un’app stand-alone negli Stati Uniti, Meta AI si integra nativamente nelle conversazioni, un aspetto che sottolinea la direzione verso una presenza sempre più pervasiva dell’AI.

    Le piattaforme social media, con la IA da strumenti ad assistenti

    Questo cambiamento ridefinisce le piattaforme digitali, nate come strumenti per connettere gli utenti, ma ora sempre più orientate a diventare ecosistemi autonomi.

    Lo sviluppo di Meta AI in Italia dipenderà da come gli utenti lo accoglieranno: sarà un intervento minimo, senza impatto sulle conversazioni, o un elemento centrale nella loro evoluzione?

    Nei prossimi mesi, osserveremo come tutto questo si inserirà nel nostro contesto e quale percorso prenderà.

     

  • Community Notes di Meta, al via il test negli Usa

    Community Notes di Meta, al via il test negli Usa

    Community Notes fa il suo debutto sulle piattaforme Meta, per ora solo in fase di test negli Usa. Il modello è analogo a quello adottato sulla piattaforma X. Esempio di partecipazione collettiva che potrebbe comportare molti rischi.

    Community Notes ha fatto il suo debutto negli Usa proprio ieri, 18 marzo 2025.

    Come ricorderete, circa un mese fa Meta aveva annunciato il lancio di questo nuovo programma che sostituisce il fact-checking tradizionale, tramite un post su Threads.

    Ora ci siamo. La fase di test è iniziata, per ora solo negli Stati Uniti. Segna un cambio di rotta nella gestione dei contenuti sulle piattaforme di Mark Zuckerberg. Ispirandosi esplicitamente a quanto già vediamo su X.

    Meta lo ha comunicato in modo chiaro: da ieri, un gruppo selezionato di utenti americani può usare le Community Notes su Facebook, Instagram e Threads.

    L’idea alla base delle Community Notes

    L’idea è semplice: consentire agli utenti di aggiungere note a post con informazioni fuorvianti o incomplete, sul modello di X. Queste note diventano visibili a tutti solo se ricevono abbastanza valutazioni positive dalla comunità.

    Si tratta, insomma, di una sorta di sistema di crowdsourcing che prende il posto del fact-checking di terze parti. Un passaggio che Zuckerberg aveva anticipato all’inizio dell’anno.

    Le Community Notes di Meta, come quelle di X, sono uno strumento collaborativo. Gli utenti possono segnalare un post e aggiungere una nota con correzioni o informazioni aggiuntive, supportate da fonti verificabili.

    Community Notes di Meta, al via il test negli Usa
    Community Notes di Meta, al via il test negli Usa

    La fase di test per ora negli Usa

    Durante la fase di test, Meta monitorerà la creazione e la valutazione di queste note per capire se riescono a contrastare la disinformazione. Il sistema parte in modo graduale ma coinvolge tutte e tre le piattaforme principali: Facebook, Instagram e Threads.

    Negli Usa, il programma di fact-checking tradizionale sarà abbandonato del tutto, una scelta non priva di rischi.

    Community Notes di Meta, non ancora in Italia

    Per ora, in Italia, le Community Notes non arriveranno. L’avvio dei test negli Usa lascia pensare che i tempi per un’estensione in Europa potrebbero non essere troppo lontani.

    Questo approccio ha un lato positivo che mira ad affidare il controllo agli utenti, rendendo le piattaforme più aperta e partecipativa. Ma c’è un rovescio della medaglia, legato alle competenze e alla preparazione di chi valuta.

    Non serve una conoscenza specifica per intervenire; basta partecipare a un sistema di valutazione collettiva per verificare i contenuti segnalati. E qui si apre un tema cruciale.

    Il confronto con Community Notes di X

    Rispetto a X, che conta circa 580 milioni di utenti registrati su un’unica piattaforma, Meta gestisce tre realtà ben più grandi: Facebook con oltre 3 miliardi di utenti e Instagram con oltre 2 miliardi, per non parlare di Threads.

    Piattaforme di questa scala, se controllate dagli utenti, rischiano di ritrovarsi con valutazioni imprecise sui contenuti. E le conseguenze sono evidenti a tutti.

    Su X, le Community Notes in alcuni casi riescono a trovare un punto di equilibrio – persino Elon Musk ha dovuto cancellare contenuti oggettivamente falsi dopo le segnalazioni. Ma molti sono i casi di valutazioni molto discutibili.

    Rischio di diffondere informazioni poco affidabili

    In molti casi, dimostrato da alcune ricerche recenti, le Community Notes su X hanno avuto un approccio limitato verso la disinformazione, concentrandosi solo sulla falsità oggettiva e trascurando il contesto storico, sociale, culturale, economico e politico che spesso accompagna le narrazioni malevoli.

    Su Meta, con numeri così alti, questo fenomeno potrebbe amplificarsi. Il rischio è che informazioni vere vengano messe in discussione da gruppi di utenti con opinioni diverse o che si affidino a fonti errate, deviando il giudizio finale su un contenuto.

    Uno degli aspetti critici, che vengono mossi anche nei confronti delle Community Notes di X, è che spesso queste valutazioni arrivano quando già il post ha raggiunto l’apice della sua visibilità. Di conseguenza, le valutazioni degli utenti potrebbero risultare davvero poco efficaci.

    Community Notes di X e le sue contraddizioni

    Inoltre, va aggiunto che spesso le note che vengono apposte su X fanno riferimento, come base di informazione oggettiva, ai siti di informazione costantemente attaccati da Musk. Questo è vero a tal punto che lo stesso Musk nei giorni scorsi si è lanciato a dire che presto “tutto questo verrà sistemato”. Ennesimo esempio di “algoritmo del proprietario”.

    Per tutto questo che abbiamo visto finora, il sistema va monitorato con attenzione.

    Non sappiamo ancora quanto durerà il test negli Usa né quando arriverà in Europa o in altri paesi. Quel che è certo è che si tratta di un momento importante, soprattutto nel contesto attuale.

    Serve osservare come evolverà, perché se da un lato punta a ridurre la disinformazione, dall’altro potrebbe generare nuove sfide.

    Qui in basso trovate il mio video podcast – lo trovate su YouTube – dove approfondisco questi aspetti.