back to top
Home Blog Pagina 2

TikTok lancia Footnotes, la versione ibrida di Community Notes

TikTok lancia Footnotes, la versione ibrida di Community Notes

TikTok lancia Footnotes, un sistema di verifica collaborativa simile a Community Notes. Un modello ibrido che combina il fact-checking professionale con il contributo degli utenti. Per ora negli Usa, ecco come funziona.

E così, dopo Meta, anche TikTok decide di abbracciare un sistema di verifica collaborativa molto simile a quello di Community Notes di X. Su TikTok si chiamerà Footnotes, proprio per richiamare l’idea di note a piè di pagina, cioè brevi annotazioni che aggiungono contesto ai contenuti condivisi sulla piattaforma.

L’obiettivo è chiarire meglio alcune informazioni, soprattutto in situazioni che rischiano di essere fraintese o decontestualizzate.

Quello che emerge, ancora una volta, è che le piattaforme digitali sono sempre più chiamate a spiegare meglio il contesto dei contenuti che gli utenti vedono ogni giorno. Non basta più segnalare o rimuovere: serve anche chiarire, fornire strumenti per capire.

E tutto questo, ovviamente, per contrastare in modo più efficace il fenomeno della disinformazione.

Quindi, TikTok alla fine si muove nella stessa direzione. Una mossa prevedibile, se guardiamo a ciò che sta accadendo anche sulle altre piattaforme, dove cresce l’adozione di sistemi di verifica gestiti — almeno in parte — direttamente dagli utenti.

Ma con qualche differenza.

Rispetto a Community Notes su X, e rispetto anche al sistema di Meta (che, ricordiamolo, è attivo solo negli Stati Uniti e non ancora in Europa), TikTok adotta un approccio diverso.

Su Meta, ad esempio, il nuovo sistema comunitario è ancora affiancato, soprattutto in Europa, dal lavoro delle organizzazioni di fact-checking.

TikTok invece non abbandona il fact-checking professionale, anzi. La società di ByteDance continua a collaborare con oltre 20 organizzazioni accreditate, ma apre anche agli utenti. E qui sta la novità.

https://newsroom.tiktok.com/en-us/footnotes
Come apparirà Footnotes su TikTok

Chi può contribuire?

Non tutti. Per diventare contributori su Footnotes bisogna:

  • avere almeno 18 anni,

  • avere un account TikTok attivo da almeno 6 mesi,

  • non aver violato le regole della piattaforma.

Sono requisiti simili a quelli richiesti su X. Ma qui TikTok costruisce un sistema ibrido.

Come funziona Footnotes di TikTok

Quando un contenuto viene segnalato per potenziale disinformazione, gli utenti approvati possono proporre una nota informativa.

Questa nota non viene pubblicata subito. Prima deve essere valutata da altri utenti, anche con opinioni divergenti, attraverso un meccanismo che TikTok chiama Bridge-Based Ranking.

Un sistema che favorisce le note considerate utili da utenti con prospettive diverse, per evitare distorsioni di parte.

In parallelo, il contenuto della nota può essere anche sottoposto alla valutazione delle organizzazioni di fact-checking. Solo quando questi criteri sono soddisfatti, la nota viene approvata e pubblicata in fondo al contenuto, come una vera nota a piè di pagina.

Le piattaforme rendono più chiari i contesti

Questa scelta conferma una tendenza ormai evidente: le piattaforme non possono più ignorare il contesto dei contenuti. Devono spiegarlo, renderlo trasparente, soprattutto quando diventano — come nel caso di TikTok — spazi non solo di intrattenimento, ma anche di informazione, soprattutto per i più giovani.

Footnotes si inserisce quindi in un panorama dove la disinformazione è diffusa, e dove la capacità di spiegare — e non solo limitare — diventa centrale.

TikTok lancia Footnotes, la versione ibrida di Community Notes
TikTok lancia Footnotes, la versione ibrida di Community Notes

Footnotes arriverà in Europa?

Per ora, Footnotes è attivo solo negli Stati Uniti, in fase di test.

TikTok non ha ancora annunciato una data di lancio per l’Unione Europea, anche perché qui vigono regole precise, come il Digital Services Act, che impone standard stringenti per la trasparenza e la gestione dei contenuti.

È plausibile che TikTok voglia prima verificare l’efficacia del sistema negli USA, e solo dopo valutare un’estensione al mercato europeo. Ma se i risultati saranno positivi, è lecito aspettarsi che Footnotes arrivi anche qui — anche se con i necessari adattamenti alle normative europee.

Footnotes, un modello intermedio

Rispetto alla totale apertura di X e alla svolta comunitaria (ma ancora incerta) di Meta, TikTok sembra scegliere una strada intermedia. Non rinuncia alla verifica professionale, ma coinvolge gli utenti in un processo strutturato, trasparente e, almeno nelle intenzioni, controllato.

Potrebbe essere una soluzione più sostenibile nel lungo periodo, soprattutto dal punto di vista della gestione e della credibilità.

Resta da vedere come evolverà. Di certo, continueremo a monitorare il funzionamento di Footnotes, soprattutto se, come probabile, dovesse arrivare anche in UE.

Ecco perché OpenAI starebbe pensando ad un proprio social media

Ecco perché OpenAI starebbe pensando ad un proprio social media
Ecco perché OpenAI starebbe pensando ad un proprio social media

OpenAI sta pensando ad un proprio social media. Tra rivalità con Elon Musk e bisogno di dati, ecco perché potrebbe cambiare il panorama delle piattaforme digitali.

Se davvero OpenAI realizzasse la sua piattaforma digitale, come si racconta in queste ore, allora sì che sarebbe uno stravolgimento delle piattaforme digitali, in particolare del panorama dei social media per come lo conosciamo oggi.

L’dea di OpenAI di un suo social media

Il primo a darne notizia è stato The Verge che ha lanciato un suo articolo con una notizia importante: OpenAI, la società guidata da Sam Altman che ha creato ChatGPT, starebbe pensando a una piattaforma digitale in stile X.

La piattaforma – guarda caso – è proprio quella di Elon Musk. E fra poco spiego cosa intendo per “guarda caso”.

Perché un social media proprio adesso?

Perché OpenAI starebbe pensando a una mossa del genere? E soprattutto: quale sarebbe la finalità per un’azienda di intelligenza artificiale?

Prima di rispondere a queste domande, riavvolgiamo un attimo il nastro e torniamo indietro di qualche anno.

Ecco perché OpenAI starebbe pensando ad un proprio social media
Ecco perché OpenAI starebbe pensando ad un proprio social media

Un po’ di storia: dal 2015 a oggi

Siamo nel 2015, anno in cui nasce OpenAI come associazione senza scopo di lucro, con l’obiettivo di rendere l’intelligenza artificiale accessibile e utile a beneficio dell’umanità.

Tra i fondatori, c’era anche Elon Musk. Le cose vanno bene fino al 2018, quando Musk, stanco della leadership di Altman – secondo le informazioni che abbiamo – decide di uscire dal progetto. Se ne va, sbattendo la porta.

Poi conosciamo tutti l’evoluzione: Musk acquista Twitter nell’ottobre 2022, e nel frattempo i rapporti con OpenAI si fanno sempre più tesi.

Le tensioni con Musk e la nascita di Grok

Gli screzi tra i due non si sono mai sopiti. Anzi, si sono accentuati con la crescita di ChatGPT e con la trasformazione di OpenAI in azienda a scopo di lucro, una svolta non da poco. In parallelo, Elon Musk sviluppa xAI e poi Grok, il chatbot integrato su X.

Le tensioni si aggravano fino ad arrivare a cause legali. Proprio recentemente, OpenAI ha denunciato Musk, e la battaglia giudiziaria è in corso.

L’offerta di Musk e la risposta di Altman

A febbraio di quest’anno, Elon Musk ha provato a rilanciare. Ha offerto 97 miliardi di dollari per acquisire OpenAI. Una mossa per riportarla alle origini, secondo lui.

Altman ha risposto via X: “No, grazie. Semmai compreremo noi X per 9,7 miliardi”. Una battuta, forse, ma alla luce di ciò che sappiamo oggi, potrebbe nascondere molto di più.

Anche Meta spinge sull’AI, e OpenAI risponde

Quando Meta ha lanciato il suo Meta AI, Altman ha commentato: forse è arrivato il momento che anche OpenAI abbracci i social media. Tutti segnali che portano nella stessa direzione.

OpenAI contro X?

E adesso arriva questa notizia. Appunto, OpenAI potrebbe entrare direttamente nel mercato delle piattaforme digitali, in concorrenza diretta con X.

Perché proprio ora?

Primo: per la rivalità ormai conclamata con Elon Musk. Secondo: perché X sta consolidando la sua posizione e OpenAI potrebbe inserirsi proprio in questo contesto.

I dati, il vero obiettivo di OpenAI

Ma la motivazione più importante è un’altra. ChatGPT ha bisogno di dati. Ha bisogno di dataset sempre più grandi per migliorare. E qual è il modo più diretto per reperire dati, anche in tempo reale? Una piattaforma sociale, come appunto X.

Come fa Meta AI, che si nutre di dati pubblici degli utenti, nonostante l’opposizione. Come fa Grok, che accede a dati condivisi su X. OpenAI potrebbe fare lo stesso, se avesse una propria piattaforma.

Un esempio concreto: Studio Ghibli e action figures

Basti pensare al recente trend delle immagini generate in stile Studio Ghibli o alle action figures AI: se questi contenuti venissero condivisi su una piattaforma OpenAI, che tipo di dati ne emergerebbero?

Dati preziosi per addestrare i modelli, che diventerebbero sempre più efficaci, più evoluti. L’intelligenza artificiale si nutrirebbe di questi contenuti.

Pe un social media servono infrastrutture

Chiaramente, entrare nel mercato delle piattaforme digitali non è un gioco. Servono server, infrastrutture, investimenti. OpenAI è già attrezzata, ma dovrà fare di più.

E soprattutto dovrà progettare una piattaforma con un livello di engagement molto elevato, se vuole distinguersi in un mercato ormai segnato dall’“algoritmo del proprietario”.


Ascolta e guarda su Spotify


E se OpenAI ci riuscisse?

Non mi sorprenderebbe se OpenAI riuscisse davvero nel suo intento: realizzare una piattaforma digitale che alimenti il suo modello ChatGPT, che attiri utenti, ma che allo stesso tempo sia guidata da logiche di controllo algoritmico.

Non sarebbe nulla di nuovo, anzi: sarebbe perfettamente in linea con quello che stiamo già osservando in molte piattaforme.

Altman ci sta pensando, ma non c’è nulla di ufficiale

L’idea c’è, l’intento pure. Ma non ci sono ancora notizie ufficiali. Sam Altman sta raccogliendo feedback all’interno dell’azienda per capire se il progetto è davvero fattibile.

Non è solo una questione finanziaria: si tratta di comprendere come posizionarsi in un contesto dove X, Meta e altre stanno già giocando le loro carte.

Una sfida che cambierebbe tutto

Una mossa del genere farebbe saltare i nervi a Elon Musk, e sarebbe uno scenario che varrebbe la pena osservare da vicino. Perché cambierebbe davvero tutto.

Continuerò a raccontarvi ciò che succede. Se volete condividere pensieri e opinioni, lo spazio per farlo è aperto. E ci aggiorniamo alla prossima.

Meta rischia di perdere Instagram e WhatsApp, ecco perché

Meta rischia di perdere Instagram e WhatsApp, ecco perché

Il processo antitrust che vede FTC contro Meta è senza dubbio storico. Al centro le acquisizioni di Instagram e WhatsApp, con l’obiettivo di separarle dall’azienda. Un caso che potrebbe cambiare il futuro dei social media.

È iniziato in questi giorni, a Washington, uno dei più importanti, proprio per la sua natura, processi antitrust della storia recente.

Infatti, si è di fronte ad un processo il cui risultato potrebbe cambiare radicalmente lo scenario dei social media. Quelle piattaforme digitali che ormai stanno plasmando le nostre esistenze.

Il caso investe direttamente Meta Platforms, l’azienda guidata – e co-fondata – da Mark Zuckerberg, chiamata a rispondere in tribunale alle accuse mosse dalla Federal Trade Commission (FTC).

L’obiettivo dichiarato dell’agenzia governativa per il commercio è quello di spezzare il colosso dei social media, forzando la separazione delle sue due più celebri acquisizioni, Instagram e WhatsApp.

Una vicenda che rimette al centro del dibattito il tema della concentrazione di potere tecnologico e che potrebbe ridefinire, come dicevamo prima, il nostro rapporto con le piattaforme digitali.

Meta rischia di perdere Instagram e WhatsApp, ecco perché
Meta rischia di perdere Instagram e WhatsApp, ecco perché

Una lunga battaglia che arriva in aula

Le acquisizioni di Instagram nel 2012 e di WhatsApp nel 2014 sono state approvate all’epoca senza opposizioni rilevanti. Ma nel corso dell’ultimo decennio, la crescente preoccupazione per il potere esercitato dalle big tech ha spinto le autorità a rivedere il passato con occhi diversi.

La vicenda ha origine nel dicembre 2020, quando la Federal Trade Commission avvia la sua prima azione legale contro Meta (allora ancora Facebook), accusandola di pratiche anticoncorrenziali legate alle acquisizioni di Instagram e WhatsApp.

Dopo un primo rigetto nel 2021, la FTC presenta una versione aggiornata della denuncia che viene accolta, aprendo così la strada al processo odierno.

Ricorderete anche che nel 2020 c’era Donald Trump alla Casa Bianca. I rapporti all’epoca tra il presidente Usa e il fondatore di Facebook non erano idilliaci.

La FTC accusa Meta di aver agito in modo deliberato per soffocare la concorrenza, acquisendo quelle che già allora erano considerate minacce emergenti.

A sostegno di questa tesi, l’agenzia ha portato in aula messaggi interni in cui Zuckerberg scriveva: “Meglio comprarli che competere”- Buy or bury.

Un passaggio che potrebbe diventare il simbolo stesso del caso.

Secondo la FTC, quelle acquisizioni non hanno avuto lo scopo di innovare, ma di impedire che altri potessero farlo. Una visione che, se accolta dal tribunale, potrebbe portare a una sentenza storica: la separazione forzata di Instagram e WhatsApp da Meta.

In buona sostanza, FTC contesta a Meta il fatto che questa espansione dell’azienda e delle piattaforme è andata oltre

La difesa: “Non siamo un monopolio”

Dal canto suo, Meta respinge ogni accusa. La linea difensiva è chiara: il mercato dei social media è oggi più competitivo che mai. TikTok, YouTube, X (l’ex Twitter), iMessage e nuove piattaforme emergenti rendono lo scenario attuale molto diverso da quello del 2012.

Meta insiste anche sul fatto che le acquisizioni abbiano prodotto valore per i consumatori. Instagram, ad esempio, ha evoluto le proprie funzionalità, introducendo Stories, Reels, funzioni di e-commerce e strumenti per creator che difficilmente avrebbe potuto sviluppare in autonomia. WhatsApp è diventata una piattaforma globale, sicura e affidabile anche grazie agli investimenti di Meta.

La difesa punta inoltre il dito contro la revisione postuma delle acquisizioni: “All’epoca furono approvate, ora vengono messe in discussione. Come possono le aziende operare in un clima simile di incertezza normativa?”, è l’obiezione di fondo.

Una partita anche politica

Non è un caso che il processo arrivi in un momento delicato anche dal punto di vista politico. L’amministrazione Trump ha rimosso recentemente due commissari democratici dalla FTC, alterandone l’equilibrio interno. Contestualmente, Meta ha intensificato le attività di lobbying, cercando un’intesa che potesse evitare il processo.

Ma l’attuale presidente della FTC, Andrew Ferguson, ha deciso di andare avanti, dichiarando l’intenzione di portare fino in fondo la battaglia legale. A presiedere il caso è il giudice James Boasberg, che in passato si era mostrato scettico verso alcune argomentazioni della FTC, ma ha deciso di non bloccare il procedimento, ritenendo le accuse meritevoli di un processo completo.


Guarda il video


Le parole di Sheryl Sandberg

Il dibattimento si annuncia lungo e articolato. Era attesa la testimonianza di Mark Zuckerberg, ma anche quella di Sheryl Sandberg (ex COO di Meta) e di altri alti dirigenti dell’azienda.

Alla Sandberg, nella sua prima comparsa davanti alla commissione, è stato chiedo conto delle email in cui si parlava di Google+, oggi non più attivo. Nel 2011 Google voleva fare pubblicità su Facebook del suo social network, ma dalle email risulta che la Sandberg abbia scritto: “Bloccherei Google”.

Tutte frasi ed espressioni che in questi contesti vengono usate contro dalla controparte e che possono delineare scenari evocati proprio dalla controparte. La Sandberg è attesa di nuovo davanti al giudice.

Verranno poi ascoltate anche aziende concorrenti come Snap, Pinterest e TikTok, chiamate a spiegare come l’influenza di Meta abbia modellato — o limitato — l’ecosistema dei social media.

Il processo proseguirà nei prossimi mesi e si prevede che durerà fino a luglio 2025. Una sentenza che imponga lo spacchettamento di Meta rappresenterebbe un evento senza precedenti dai tempi delle storiche battaglie antitrust contro AT&T e Microsoft.

Una questione che va oltre Meta

Ma al di là del destino di Instagram e WhatsApp, questo processo è anche un banco di prova per la regolamentazione delle grandi piattaforme tecnologiche. Quali limiti deve avere il potere di aziende private nel plasmare le nostre interazioni digitali? Quando un’acquisizione diventa un abuso? E quanto possiamo contare sulle istituzioni per vigilare su un settore che si evolve più rapidamente delle leggi?

Il processo FTC contro Meta non è solo una questione giuridica.

Rappresenta un serio momento di riflessione sul futuro dell’equilibrio tra innovazione, concorrenza e libertà digitale. Una riflessione che ci riguarda tutti.

Immagini IA, ChatGPT 4o e rischio disinformazione

ChatGPT 4o ora consente di generare immagini di personaggi famosi in contesti realistici, ma mai avvenuti. Un passo avanti che solleva rischi concreti di disinformazione visiva. Ecco cosa sta cambiando, come riconoscerlo e perché serve essere responsabili.

Restando sul tema di intelligenza artificiale, vi sarete accorti anche voi che ultimamente si è potenziata la possibilità di generare immagini. E di generare queste immagini anche con personaggi noti, personaggi pubblici, personaggi famosi, politici… e addirittura ritrarli in situazioni che prima non era possibile fare.

Mi riferisco in particolare all’aggiornamento di ChatGPT, che ha potenziato il modello 4o al punto da far generare, da riuscire, da permettere agli utenti di generare immagini che prima non era possibile fare.

Ci concentriamo sempre sulle capacità dell’intelligenza artificiale, di questi modelli che sono sempre più aggiornati, sempre più potenti, ma non ci soffermiamo mai sul fatto che prima non era possibile fare una cosa, e invece oggi è possibile farlo.

Immagini IA, ChatGPT 4o e rischio disinformazione
Immagini IA, ChatGPT 4o e rischio disinformazione

Quali immagini può generare oggi ChatGPT 4o

Come appunto questa, che in realtà definisce ancora di più la vicinanza tra ciò che era lecito fare e ciò che in realtà è un rischio, un potenziale rischio di disinformazione che è alla portata di tutti.

Perché questo?

Perché in realtà le immagini sono, l’abbiamo visto anche in questi giorni, il contenuto più facilmente condivisibile, più facilmente condiviso sulle piattaforme, e che facilmente può diventare anche virale.

Lo diventa nel momento in cui noi abbiamo la possibilità di ritrarre personaggi noti, famosi. Faccio l’esempio di Trump che è sulla spiaggia di Copacabana con Elon Musk a bere un drink. Una situazione che prima su ChatGPT non era possibile fare e che adesso invece è alla portata di tutti.

Trump Musk spiaggia copacabana ChatGPT 4o franz russo
Trump Musk spiaggia copacabana ChatGPT 4o realizzata da Franz Russo

Sono quelle situazioni in cui abbiamo questa sorta di voglia di vedere personaggi famosi in situazioni che molto probabilmente non vivrebbero mai, e che difficilmente sarebbero ritratte in quella situazione.

Questo significa che, in realtà, anche noi potremmo essere al centro di quel contenuto. E quindi, avendo la possibilità di poter ritrarre e permettendo anche agli utenti la possibilità di generare immagini come queste, nulla vieta che un giorno ci possa essere un Franz Russo, tanto per fare un esempio, che si trova in un determinato luogo, con una determinata situazione, ma in realtà tutta quell’immagine non esiste.

Il confine tra immagini reali e false è sempre più sottile

Quindi il confine tra ciò che è possibile, che è realistico, e ciò che è in realtà una potenziale disinformazione, si sta avvicinando sempre di più.

Ma perché ChatGPT arriva a trasferire questo senso di responsabilità un po’ più verso gli utenti?

La questione è molto semplice, ed è di natura commerciale.

Il caso Grok 3 di xAI

Sul mercato dell’intelligenza artificiale esiste già Grok 3, la terza versione di questa intelligenza artificiale realizzata da xAI, che è una delle società di Elon Musk.

Grok si trova all’interno della piattaforma X, e permette fin dall’inizio, da quando è stata generata la prima versione, di generare immagini che ritraggono personaggi famosi anche con un limite sempre più alto, con un’asticella sempre più alta, con possibilità di ritrarre personaggi famosi sempre più alla portata di chiunque.

L’immagine di Papa Francesco col piumino bianco

Ricordate quando nel 2023 si realizzarono quelle immagini con Papa Francesco, il famoso piumino? Ebbene, quell’immagine lì oggi ChatGPT la fa tranquillamente.

Papa Francesco piumino IA franz russo
Papa Francesco piumino generata con la ChatGPT 4o da Franz Russo

L’immagine del falso arresto di Trump

Oppure un’altra famosa immagine di Donald Trump circondato da poliziotti che cerca di fuggire a un possibile arresto: ebbene, quell’immagine ChatGPT oggi la realizza tranquillamente, senza nessun problema.

Donald Trump falso arresto generato con la IA
Donald Trump falso arresto generato con ChatGPT 4o da Franz Russo

Questo significa che il confine, ripeto, di quello che noi possiamo generare rispetto a una potenziale disinformazione, si sta sempre di più assottigliando, sempre di più avvicinando. Non si riconosce più il rischio di quello che riusciamo a generare.

Ci sono addirittura delle immagini, tipo Bill Gates con una birra in mano, realizzata da me su ChatGPT, che alcuni strumenti di verifica, come Illuminarty, addirittura fanno fatica a definire se sia un’immagine realistica, umana, oppure se sia generata da intelligenza artificiale.

Bill Gates con birra in mano realizzata con Chatgpt-4o da Franz Russo
Bill Gates con birra in mano realizzata con Chatgpt-4o da Franz Russo

Questo già ci dice molto di come effettivamente anche questi strumenti di verifica possono essere utili o addirittura affidabili.

Piccoli suggerimenti per riconoscere immagini IA

Per cercare poi di offrire qualche suggerimento su come accorgerci del fatto che queste situazioni, alcune immagini, possono sembrare artefatte, ecco alcuni dettagli:

  • lo sfondo, magari un po’ confuso;

  • scritte non precise;

  • mani, che erano un grande problema per DALL·E 3;

  • oppure la pelle, che è sempre perfetta, molto liscia, e quindi già di per sé ti porta a pensare che sia un’immagine artefatta, anche se in alcuni casi anche questo dettaglio è in netto miglioramento,

  • o addirittura l’esposizione della luce, che in alcuni contesti è quasi irrealistica: quel tipo di luce difficilmente può essere naturale.

Oppure ancora, cercare di avvalersi sempre della ricerca inversa, quindi utilizzare motori di ricerca – ad esempio Google Immagini – sottoponendo i contenuti per avere una risposta dal motore di ricerca sul fatto che quell’immagine sia stata già utilizzata in altri contesti o meno.

Anche perché è capitato, anche di recente, che alcune immagini realizzate con intelligenza artificiale—quindi neanche con modelli di ricerca tanto evoluti, perché l’evoluzione l’abbiamo avuta molto molto di recente—siano stati confusi come contenuti realistici.

Quindi il senso di responsabilità, da parte nostra, ormai è imprescindibile. Non possiamo che fare affidamento a quel senso di responsabilità, alla consapevolezza del fatto che stiamo utilizzando strumenti che in alcuni contesti possono generare contenuti potenzialmente di disinformazione.


Guarda il video


Anche la ghilbizzazione aiutare a confondere

Anche lo stesso fenomeno della ghiblizzazione, di cui abbiamo parlato anche in un altro video, è uno di quegli elementi che ci porta a trasformare quella che è la realtà in un contesto diverso: più armonioso, più pastellato, più colorato, più dolce.

Ma anche quello diventa una situazione per mascherare altre situazioni irrealistiche. Condividerle in un contesto completamente diverso, anche quello è un potenziale rischio di disinformazione.

meme ghiblizzazione franz russo
Celebre meme con ghiblizzazione

Quindi, rispetto anche alla potenzialità, al modo in cui noi possiamo effettivamente affrontare questo, è sicuramente importante conoscere meglio i modelli. E quindi avvalerci di quella competenza, AI Literacy, conoscenza approfondita dei modelli. Dobbiamo prestare attenzione su come utilizziamo questi modelli e per cosa li vogliamo usare.

Che sia per uso personale, per lavoro, per tutte le attività che facciamo, dobbiamo prestare sempre molta attenzione e affidarci a un senso di responsabilità. Chiederci sempre:
qual è la motivazione che mi porta a usare questo modello?
Cosa voglio davvero fare?

E imparare, anche noi utenti, a riconoscere sempre meglio queste immagini, a sapere che tipo di immagine abbiamo davanti, a saperle riconoscere ed evitare che diventiamo anche noi potenziali diffusori di disinformazione.

Meta AI usa i nostri dati e non si può disattivare, alcune considerazioni

MetaAI usa i nostri dati e non si può disattivare, alcune considerazioni

Meta AI è arrivata da poco in Italia. Ma ci sono due aspetti che vanno approfonditi: l’uso dei dati pubblici degli utenti e l’impossibilità di disattivare l’IA. In questo articolo provo a verificare le implicazioni, tra privacy, consenso. E anche un confronto con Grok di X.

Come sapete, Meta AI è attivo anche in Italia da qualche giorno. È arrivato anche su WhatsApp, dove praticamente tutti gli utenti hanno visto questa iconcina circolare che, una volta attivata, risponde a delle domande e a dei problemi.

Per cercare di chiarire il motivo di questa considerazione, che si basa essenzialmente su due elementi, provo ad essere un po’ più chiaro, per farvi entrare nella logica di ciò che dirò più tardi, soprattutto su questi due punti.

Un assistente a tratti invadente

Immaginiamo di essere in una grande stanza e di osservare ciò che accade, accompagnati da una persona che chiameremo il nostro assistente particolare.

Quando abbiamo qualcosa da chiedere, ci rivolgiamo a questo assistente che risponde alle nostre domande in maniera molto precisa e dettagliata, offrendo anche la possibilità di approfondire successivamente.

Intanto, continuiamo il nostro giro in questo palazzo osservando tutte le stanze: in ogni stanza c’è qualcosa che ci incuriosisce, e chiediamo al nostro assistente.

Il problema è che questo assistente ci segue in continuazione, anche quando non lo interpelliamo: ci osserva, ascolta le nostre azioni, guarda con chi parliamo e ascolta cosa diciamo con le altre persone che incontriamo.

Il problema sorge quando ci accorgiamo che questa presenza diventa, ad un certo punto, pesante e vorremmo mandarla via, ma non riusciamo a trovare un modo per farlo. Non c’è la possibilità, per così dire, di disattivarla.

MetaAI usa i nostri dati e non si può disattivare, alcune considerazioni
MetaAI usa i nostri dati e non si può disattivare, alcune considerazioni

Il primo problema di Meta AI: l’uso dei dati pubblici

Ed è qui che entro sul tema, cercando di spiegare i due elementi cardine che riguardano Meta AI (e non solo).

Intanto, MetaAI è presente in Unione Europea dal 20 marzo, dopo aver – per così dire – migliorato la sua aderenza, la sua compliance, al GDPR.

Il GDPR, questo regolamento sulla protezione dei dati entrato in vigore in Unione Europea nel 2018, ha rivoluzionato il modo in cui vengono gestiti i dati.

Ebbene, ci sono due aspetti che meritano attenzione.

Il primo è che, inizialmente, avevo creduto che Meta AI non usasse i nostri dati per allenare la sua intelligenza. In realtà, le cose sono diverse. Se provate a chiedere a MetaAI, su Facebook, Instagram o WhatsApp, se utilizza i vostri dati, la risposta standard è: “No, non utilizzo i dati“. Tuttavia, la realtà è più complessa.

Meta AI usa i dati pubblici degli utenti

Meta AI usa i dati pubblici degli utenti: per “dati pubblici” intendo i post, le immagini e i commenti resi visibili a tutti. Questo significa che, per evitare di dare in pasto i nostri contenuti all’intelligenza artificiale, bisognerebbe passare in modalità privata. Nella modalità privata l’IA non riuscirebbe a prelevare i dati che non vogliamo rendere pubblici.

Questo approccio non va proprio nella direzione del GDPR, il cui fondamento è il consenso informato e la capacità di controllo da parte dell’utente all’interno delle piattaforme digitali.

Cosa c’è all’interno del Privacy Center

All’interno del Privacy Center non è ben spiegato se e come si debbano pubblicare i nostri contenuti. Meta non dà spazio a questo aspetto; il link di riferimento, che fornirò in calce al video, spiega che se non volete che MetaAI utilizzi i vostri dati, dovete passare in modalità privata. Questa soluzione, però, può essere valida per alcuni e meno per altri.

Parliamo di consapevolezza: è importante che, da un lato, la piattaforma fornisca l’informazione corretta e, dall’altro, che ciascuno adotti l’atteggiamento giusto nella condivisione dei contenuti. Solo in questo modo possiamo essere consapevoli e responsabili dell’uso dei nostri dati.

Secondo problema di Meta AI: non può essere disattivata

Il secondo elemento, che cozza maggiormente con il GDPR, è il fatto che l’intelligenza artificiale non può essere disattivata. Non esiste un tasto o un’opzione che permetta all’utente di scegliere se utilizzare o meno l’IA.

L’unica cosa possibile, in assenza di una modalità di disattivazione, è di non utilizzarla: di non interpellarla, di non fare in modo che possa entrare nelle vostre conversazioni. Ma l’IA si alimenta delle richieste (i cosiddetti prompt), dei risultati e delle risposte, continuando a prelevare dati.

Da tutte le piattaforme – Instagram, Messenger, WhatsApp e Facebook – le risposte pubbliche attingono anche ai risultati pubblici, senza possibilità di disattivare l’IA. Questo ulteriore elemento non collima con il GDPR, perché non offre la possibilità di scegliere.

Il confronto con Grok di X

Se volessimo fare un paragone, ci riferiremmo a Grok di X (la piattaforma che prima era Twitter, di proprietà di Elon Musk). Grok, che è l’IA di X, funziona in maniera simile: è integrato nella piattaforma, usabile anche senza abbonamento (con alcune limitazioni) fino alla versione Premium+. Anche Grok, comunque, utilizza di default i dati pubblici degli utenti, non appena si attiva un account.

L’unica azione possibile è quella di andare nelle impostazioni della privacy, nella sezione dedicata a Grok, e disattivare l’opzione di raccolta dati pubblici. Attenzione: se si effettua questa operazione, Grok continuerà a utilizzare i dati già condivisi, mentre solo i dati futuri non verranno più prelevati.

Un ulteriore elemento è la possibilità di eliminare la cronologia delle conversazioni con l’IA. Pur essendo un aspetto leggermente più in linea con il GDPR, sul consenso informato rimane comparabile a MetaAI.

In sintesi, stiamo parlando di due esperienze molto simili che, da un lato, permettono un minimo di controllo. Anche Grok suggerisce, come ultima ipotesi, di passare in modalità privata per evitare che i propri dati vengano prelevati. Tuttavia, questo comporta una significativa riduzione nella visibilità e nelle condivisioni dei propri contenuti.

Grok (X) Meta AI
Opt-out disponibile ✅ Sì ⚠️ Sì, ma difficile da trovare
Disattivazione IA ✅ Parziale (nessuna interazione) ❌ No
Consenso esplicito ❌ No ❌ No
Trasparenza IA ⚠️ Media ❌ Bassa
GDPR compliance 🟡 In dubbio, ma più avanzato 🔴 Più problematico

La IA entra nelle piattaforme digitali per cambiarle 

Quindi, si tratta di un passaggio inevitabile: l’intelligenza artificiale sta entrando nelle piattaforme digitali e, come già anticipato in un mio video precedente, questo cambierà radicalmente il nostro modo di interagire non solo con le piattaforme ma anche tra di noi.

Le relazioni e le conversazioni tra utenti saranno inevitabilmente influenzate dall’uso dell’IA. Dobbiamo farlo in maniera informata e consapevole, sapendo se i nostri dati saranno dati in pasto all’intelligenza artificiale e avendo la possibilità di scegliere, in linea con il consenso informato richiesto dal GDPR.

Il GDPR poggia la sua intera esistenza su questo principio: anche se non c’è un obbligo esplicito, la dichiarazione di consenso dovrebbe far parte dell’esperienza dell’utente, permettendogli di scegliere se concedere i propri dati.

 

Questi sono, in sostanza, i due elementi che rendono Meta AI un caso particolare.

Adesso bisognerà osservare se Meta intende, in questo scenario globale – complicato da aspetti geopolitici, finanziari e normativi – adeguarsi pienamente al regolamento europeo. Vedremo anche come reagirà l’Unione Europea a questi due punti critici, soprattutto considerando le tensioni nei rapporti con gli Stati Uniti e l’eventuale questione dei dazi e della web tax che colpiranno le big tech.

Non è uno scenario facile, e vedremo come evolveranno le cose. Ci interrogheremo se Meta AI diventerà più conforme al GDPR.

Condividete le vostre esperienze e i vostri pensieri: se Meta AI è stata utilizzata, se eravate informati sull’uso dei vostri dati. Fatemelo sapere nei commenti.

 

Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA

Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA

Secondo il NYT, la UE sarebbe pronta a sanzionare X per violazione del Digital Services Act. Il caso potrebbe trasformarsi in un nuovo conflitto tra UE e USA, e accentuare le tensioni già alle stelle per via dei dazi.

Secondo il  New York Times ci si avvicina ad un possibile scontro tra l’Unione Europea e X, la piattaforma social di Elon Musk. Scontro da molti già prospettato in precedenza.

Secondo quanto riportato, le autorità UE starebbero preparando una sanzione che potrebbe superare il miliardo di dollari. L’accusa rivolta a X è di aver violato il Digital Services Act (DSA), la normativa comunitaria che regola i servizi digitali e impone alle grandi piattaforme di contrastare contenuti illeciti e disinformazione.

Non è una notizia da poco. Si tratta di un segnale forte, che potrebbe segnare un punto di svolta nei rapporti tra Bruxelles e le big tech americane, con ricadute che vanno ben oltre il destino della piattaforma di Musk.

Il contesto: il Digital Services Act e  il controllo digitale

Per capire di cosa stiamo parlando, è necessario fare un passo indietro.

Il Digital Services Act, entrato in vigore nel 2024, è il pilastro della strategia europea per regolamentare il selvaggio west del digitale.

L’obiettivo è garantire che le piattaforme con più di 45 milioni di utenti nell’UE – come X – adottino misure rigorose contro la diffusione di contenuti illegali, dalla propaganda estremista alla disinformazione sistematica.

Le sanzioni per chi non si adegua possono arrivare fino al 6% del fatturato globale annuo, una cifra che, nel caso di X, potrebbe tradursi in una multa monstre.

L’indagine su X non è una novità.

Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA
Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA

Indagine su X avviata a fine 2023

Già a dicembre 2023, la Commissione Europea aveva aperto un fascicolo per verificare se la piattaforma rispettasse le nuove regole, concentrandosi su questioni come la gestione delle “spunte blu” a pagamento – accusate di favorire account falsi – e la trasparenza nella moderazione dei contenuti.

Ora, a quanto pare, Bruxelles è pronta a passare dalle parole ai fatti. L’articolo del NYT cita fonti anonime vicine all’indagine, secondo cui la multa potrebbe essere annunciata nell’estate del 2025. Accompagnata da richieste di modifiche strutturali alla piattaforma.

Un colpo diretto non solo a X, ma anche a Elon Musk, figura controversa, che da anni si scontra con le autorità europee sulla sua visione di una libertà di espressione senza filtri. E che oggi ricopre un ruolo di rilievo all’interno dell’amministrazione Trump.

I possibili scenari, cosa succede se la sanzione diventa realtà

Se l’UE dovesse confermare la sanzione, gli scenari possibili sono molteplici.

Il primo, e più immediato, è quello economico. Una multa superiore al miliardo di dollari metterebbe sotto pressione X, già alle prese con un calo di utenti e introiti pubblicitari dopo l’acquisizione da parte di Musk nel 2022. E che di recente è stata acquisita da xAI per 33 miliardi di dollari.

Ma non si tratterebbe solo di soldi. L’Europa potrebbe imporre cambiamenti operativi – come una revisione degli algoritmi o un rafforzamento della moderazione – che Musk ha sempre osteggiato, considerandoli una forma di censura.

Poi c’è lo scenario politico. X potrebbe decidere di resistere, magari ritirandosi dal mercato europeo per evitare di piegarsi alle regole del DSA.

Una mossa estrema, ma non del tutto improbabile, visto il carattere di Musk e le sue recenti prese di posizione contro Bruxelles. In alternativa, la piattaforma potrebbe adeguarsi, ma a costo di perdere parte della sua identità “libertaria”. Da ricordare la vicenda del Brasile.

Infine, c’è lo scenario diplomatico, quello più complesso. Una sanzione di questa portata non resterebbe un affare tra l’UE e X. Si colpirebbe un simbolo del potere tecnologico americano, guidato da un uomo che è anche uno dei più stretti alleati del presidente Donald Trump. E qui entra in gioco il contesto più ampio.

Le tensioni tra Usa e UE, dai dazi allo scontro sul digitale

Le relazioni tra Stati Uniti e Unione Europea non sono mai state così fragili.

Con l’entrata in vigore dei dazi annunciati da Trump due giorni fa – tariffe del 25% su acciaio, alluminio e auto, seguite da altre su semiconduttori e farmaceutici – il tutto si è trasformato in un campo di battaglia commerciale.

L’UE ha idea di rispondere con propri dazi, rinviati al momento al 13 aprile, ma la rappresaglia potrebbe presto prendere di mira i giganti digitali americani, come suggerito dal leader del PPE Manfred Weber: “Se Trump colpisce i nostri beni, noi puntiamo sui loro servizi”.

In questo clima di guerra fredda economica, la sanzione a X rischia di essere percepita come un attacco diretto agli interessi americani.

Musk, a capo del Department of Government Efficiency (DOGE) nella nuova amministrazione Trump, non è solo un imprenditore: è. Oggi è un attore politico di peso, con un’influenza che spazia ovunque.

L’UE, dal canto suo, sembra voler usare X come esempio per dimostrare che nessuno è al di sopra delle sue leggi. Una mossa che potrebbe innescare una reazione a catena.

Trump, che ha già minacciato di far uscire gli USA dalla NATO in risposta a mosse ostili, potrebbe vedere nella multa addirittura un affronto personale, esasperando ulteriormente le tensioni transatlantiche.

La risposta di X in cui parla di censura

X non è rimasta in silenzio. In un post pubblicato sulla piattaforma, la società ha replicato con toni decisi: “L’UE vuole punirci per aver difeso la libertà di parola. Il Digital Services Act è un’arma di censura, non una legge per la sicurezza. Non ci piegheremo”.

Un messaggio che riflette la linea dura di Musk, pronto a trasformare la vicenda in una crociata ideologica.

Nessuna apertura al dialogo, nessuna promessa di adeguamento. Solo la sfida aperta a Bruxelles, con un richiamo implicito al sostegno di Trump e dei suoi follower.

Le big tech si rivolgono a Trump per pressioni su UE

Non è un caso che, negli ultimi mesi, i grandi nomi della Silicon Valley abbiano intensificato i contatti con l’amministrazione Trump.

Mark Zuckerberg, ad esempio, in un’intervista al podcast Joe Rogan Experience del 18 gennaio 2025, ha dichiarato: “Gli Stati Uniti dovrebbero difendere le loro aziende tecnologiche. È un vantaggio strategico che non possiamo perdere”.

Una posizione che sembra un appello diretto a Trump per contrastare le mosse dell’UE, come il DSA o il Digital Markets Act, percepiti come minacce al dominio americano nel digitale.

Anche Sam Altman, CEO di OpenAI, ha reso la sua donazione alla campagna di Trump, un gesto che alcuni interpretano come un tentativo di assicurarsi un alleato contro eventuali ritorsioni europee.

Musk, dal canto suo, non ha bisogno di chiedere favori. Il suo legame con Trump è già solido, cementato da anni di sostegno politico e finanziario.

Il futuro in bilico tra Usa e UE

La vicenda di X e dell’UE è molto più di una disputa legale. È un capitolo di una storia più grande, quella di un mondo ormai diviso tra visioni opposte.

Da un lato, l’Europa che cerca di imporre regole per proteggere i cittadini e la democrazia; dall’altro, un’America che vede nel controllo digitale una minaccia alla sua egemonia.

Le sanzioni, se dovessero arrivare, non sarebbero solo un conto da pagare per Musk. Sarebbero un test per capire fino a che punto le tensioni transatlantiche possono spingersi prima di spezzare qualcosa di irreparabile.

E noi, come sempre, staremo qui ad osservare ed interpretare gli eventi, cercando di decifrare un futuro che oggi si scrive anche a colpi di post.

Il mondo del lavoro nell’era della IA, secondo LinkedIn

Il mondo del lavoro nell’era della IA, secondo LinkedIn

Come sta cambiando il mondo del lavoro nell’era della IA? I dati diffusi da LinkedIn sulle skill professionali in crescita, ci aiutano a scoprire le competenze necessarie per affrontare questo grande cambiamento.

In un momento in cui si parla, quasi quotidianamente, di come cambierà il lavoro nell’era della IA, ecco che LinkedIn ci offre una bussola per orientarci tra i cambiamenti in atto.

Con il recente rapporto Skills on the Rise 2025, la piattaforma di social business media più grande al mondo ha definito le 15 competenze che domineranno il mercato, negli Usa e in Europa, nei prossimi mesi.

Anche se l’Italia non è citata esplicitamente, queste tendenze emerse parlano chiaro. L’intelligenza artificiale e le soft skills saranno il cuore del mercato del lavoro anche da noi.

E c’è una sorpresa – o forse no – al primo posto: l’AI Literacy, ovvero la capacità di comprendere e utilizzare l’intelligenza artificiale.

Si tratta di un segnale chiaro. Il futuro è già qui, e chi vuole rimanere competitivo deve imparare a parlare la lingua della IA.

Un panorama in trasformazione

Il dato che colpisce di più arriva da una previsione: entro il 2030 (dal 2015), il 70% delle competenze richieste per la maggior parte dei lavori sarà diverso da oggi.

Non è fantascienza, ma una realtà spinta dall’adozione sempre più accelerata e capillare dell’IA in ogni settore.

LinkedIn, analizzando i profili dei suoi utenti e le offerte di lavoro pubblicate, ha stilato una classifica che mescola hard e soft skills. E il messaggio è evidente: non basta più essere specialisti in un solo campo, serve una visione d’insieme.

Dopo l’AI Literacy, troviamo competenze come la gestione del cambiamento, il pensiero critico e la leadership. Ma anche skill più tecniche come la gestione dei dati e la sicurezza informatica.

Il mondo del lavoro nell’era della IA, secondo LinkedIn
Il mondo del lavoro nell’era della IA, secondo LinkedIn

Perché l’AI Literacy è la regina del 2025

Non è un caso che l’alfabetizzazione all’intelligenza artificiale sia in cima alla lista, un po’ ovunque.

Oggi l’IA non è più un optional. Dalle aziende che ottimizzano i processi produttivi ai professionisti che usano tool come ChatGPT per scrivere report o analizzare dati, questa tecnologia sta ridefinendo il modo in cui lavoriamo.

Ma attenzione, non si tratta solo di sapere “premere un pulsante”. L’AI Literacy significa capire come funzionano questi strumenti, interpretarne i risultati e integrarli in modo etico e strategico nel proprio flusso di lavoro. È una competenza trasversale, che tocca tanto il marketer quanto l’ingegnere. Tanto per chiarirci.

Non solo tecnologia: il ritorno delle soft skills

Accanto alle abilità tecniche, il rapporto di LinkedIn dà spazio a quelle che abbiamo sempre definito “soft skills” – e che oggi sono tutt’altro che secondarie.

Comunicazione, problem solving e capacità di adattamento al cambiamento sono tra le protagoniste.

Un esempio? La gestione del cambiamento, seconda in classifica, riflette la necessità di navigare in un contesto lavorativo sempre più fluido, dove le certezze di ieri non valgono più. È un invito a essere resilienti, un tema che torna spesso quando si parla di futuro del lavoro.

La “competenza” del pensiero critico

Tra queste si fa strada anche la capacità di “pensiero critico”. Ho già detto in altre occasioni che questa soft skill assume, e assumerà, uno spazio sempre più rilevante.

In un mondo dove l’intelligenza artificiale (IA) domina i processi e i dati inondano ogni decisione, la capacità di analizzare, valutare e prendere decisioni consapevoli diventa una sorta di ancora di salvezza. Ma cosa significa davvero nel contesto europeo?

L’IA può elaborare dati e suggerire soluzioni, ma non sa “pensare fuori dagli schemi” né mettere in discussione i propri output. Il pensiero critico serve a interpretare i risultati dell’IA, valutarne l’affidabilità e adattarli a contesti locali.

Pensiamo a un responsabile marketing che usa un tool di analisi predittiva: senza la capacità di chiedersi “questi dati sono davvero rappresentativi?” o “questa strategia ha senso per il mio pubblico?”, l’automazione rischia di diventare un boomerang.

Il pensiero critico entra in gioco come abilità per affrontare problemi complessi. Non si tratta solo di trovare risposte, ma di fare le domande giuste.

In Europa, la digitalizzazione dei processi, la spinta verso modelli ibridi di lavoro e l’urgenza climatica stanno cambiando profondamente le priorità aziendali.

Come cambieranno le competenze

In questo scenario, secondo il World Economic Forum, entro il 2027 il 44% delle competenze dei lavoratori dovrà essere aggiornato, e oltre il 75% delle aziende in Europa ha dichiarato di voler investire in upskilling e reskilling nei prossimi due anni.

Ma c’è di più: la conoscenza nei modelli linguistici di grandi dimensioni (LLM) è oggi tra le skill in crescita in Germania e Regno Unito. È un segnale chiaro del ruolo che strumenti come ChatGPT, Gemini o Claude stanno giocando non solo nella creazione di contenuti, ma anche nei processi di decision-making, ricerca, assistenza e relazione con il cliente.

L’IA non sostituisce, ma ridisegna

Il dibattito su come l’intelligenza artificiale stia impattando il lavoro resta aperto. Se da una parte c’è chi teme la sostituzione, dall’altra emerge un’interpretazione più concreta e matura: l’IA non elimina il lavoro, ma lo ridisegna.

Serve quindi un cambio di mentalità.

I lavoratori che sapranno collaborare con l’IA, comprenderne la logica, sfruttarne le potenzialità nei contesti giusti, saranno più preparati ad affrontare un mercato del lavoro in continua evoluzione. Ecco perché l’AI literacy è diventata una skill diffusa non solo tra i tecnici, ma anche tra chi lavora nel marketing, nella comunicazione, nelle vendite, nel customer service.

Differenze per paese

LinkedIn adatta le classifiche in base alle specificità dei mercati del lavoro locali. Ad esempio:
  • India: la lista dà più peso a competenze tecniche come Code Review (2° posto), Debugging, e Prompt Engineering, oltre a soft skills come Creativity and Innovation (1° posto) e Strategic Thinking. AI Literacy è presente ma non al primo posto.
  • Germania: competenze legate all’ingegneria e alla manifattura (es. Software Design, Process Optimization) sono più prominenti, insieme a Cybersecurity, vista l’importanza della protezione dati nell’UE.
  • Francia: soft skills come Comunicazione e Adattamento salgono in classifica, insieme a Customer Engagement, per il focus su servizi e relazioni con i clienti.
  • Regno Unito: AI Literacy e Data Management sono alte, ma anche Regulatory Compliance emerge per via del contesto normativo post-Brexit.

Una “media” delle 15 competenze

Ecco una media delle competenze, considerando la frequenza con cui una competenza appare nelle prime posizioni tra i vari paesi e la sua rilevanza globale:
  1. AI Literacy – sempre tra le prime, fondamentale ovunque per l’impatto dell’IA.
  2. Communication – ricorre in tutte le liste, essenziale in contesti ibridi e multiculturali.
  3. Adaptability – alta priorità per la rapidità dei cambiamenti globali.
  4. Critical Thinking – valutata ovunque per risolvere problemi complessi.
  5. Creativity and Innovation – spicca in India e compare spesso altrove.
  6. Leadership – costante per guidare team in transizione.
  7. Problem Solving – universale, soprattutto in India e USA.
  8. Data Management – cresce con la digitalizzazione, rilevante in UK e Germania.
  9. Cybersecurity – priorità in Europa (es. Germania) e USA.
  10. Change Management – frequente per gestire trasformazioni aziendali.
  11. Process Optimization – importante in contesti industriali (es. Germania).
  12. Stakeholder Management – ricorre in India e UK per relazioni strategiche.
  13. Large Language Model (LLM) Development – specifica ma in crescita, specie in tech hub.
  14. Market Analysis – rilevante per strategie di business globali.
  15. Conflict Resolution – emerge in USA e Francia per dinamiche lavorative.
Le competenze che contano nel 2025 per la IA
Le competenze che contano nel 2025 per la IA

Come cambierà il lavoro nei prossimi anni

La trasformazione è già in atto. Le professioni stanno cambiando forma, alcune si ibridano, altre spariscono o si trasformano profondamente. Allo stesso tempo, ne stanno emergendo di nuove.

Ciò che sta accadendo oggi non è solo un aggiornamento delle competenze, ma una ristrutturazione dei modelli professionali. Le organizzazioni più lungimiranti stanno già investendo per costruire team capaci di:

  • apprendere in modo continuo;

  • integrare strumenti digitali e umani;

  • gestire il cambiamento come una costante;

  • lavorare in contesti multiculturali e distribuiti.

In tutto questo, torna centrale una visione più ampia della formazione: non più solo tecnica, ma culturale e umana. La capacità di imparare, di leggere la complessità, di agire con consapevolezza e senso critico diventa la vera risorsa scarsa del futuro.

Alla fine per abbracciare il cambiamento non resta che imparare, imparare sempre. Studiare, approfondire per abbracciare il cambiamento.

Guarda e ascolta il video

[L’immagine di copertina, come quelle che accompagnano le condivisioni sui canali social media, è stata realizzata da Franz Russo usano il modello di generazione delle immagini Chatgpt-4o]

Ci informiamo sui social media, ma non ci fidiamo

Ci informiamo sui social media, ma non ci fidiamo

I social media hanno superato la TV come mezzo principale per informarsi, ma la fiducia verso queste piattaforme è molto bassa. Il rapporto AGCOM ci restituisce la fotografia di una informazione debole e la conferma dell’algoritmo del proprietario.

Secondo quanto emerge dall’Osservatorio annuale sul sistema dell’informazione 2025 pubblicato da AGCOM, nel 2023 i social media hanno superato la televisione come principale mezzo di informazione per gli italiani.

Si tratta di un sorpasso che possiamo definire storico. E che segna una svolta nel modo in cui le persone si informano quotidianamente.

Va detto che questo primato non si accompagna a un incremento della fiducia da parte degli utenti. Al contrario, i social si confermano tra le fonti ritenute meno affidabili.

E qui siamo nella dimensione del paradosso, o quasi.

Come si informano gli italiani: il ruolo crescente dei social media

Nel dettaglio, il rapporto evidenzia che:

  • il 19,8% degli italiani utilizza i social media come primo strumento per accedere all’informazione online;
  • seguiti da motori di ricerca (17,9%) e siti di quotidiani/periodici (11,8%);
  • il 50,5% degli utenti iscritti a social media dichiara di venire a conoscenza delle notizie sui social prima che da qualsiasi altro mezzo.

Con questi numeri, i social media superano la televisione, che si attesta al 46,5% come uso informativo nel giorno medio, in calo costante rispetto al 67,4% del 2019.

Interazioni superficiali e partecipazione limitata

Il rapporto AGCOM evidenzia anche come gli utenti tendono ad avere un comportamento prevalentemente passivo rispetto all’informazione ricevuta sui social media:

  • il 43,4% si limita a cliccare sui link;
  • il 40,7% mette un like;
  • solo il 16,9% commenta, il 12,6% condivide e appena il 6,1% avvia una discussione;
  • il 25,1% non compie alcuna azione rispetto alle notizie visualizzate.

Curiosamente, gli utenti over 65 si dimostrano spesso più attivi dei giovani nei commenti e nelle interazioni, a smentire il luogo comune di una fruizione più passiva da parte delle generazioni meno digitalizzate.

Fiducia ai minimi storici per i social media

Nonostante la centralità sempre maggiore nel consumo informativo, la fiducia nei social media resta bassa:

  • solo il 15,7% degli italiani esprime alta fiducia nei social come fonte d’informazione;
  • il 30,2% manifesta bassa fiducia;
  • i social si posizionano penultimi nella classifica delle fonti più affidabili, seguiti solo dalle piattaforme video;
  • anche tra i giovani (14-24 anni), che usano i social in modo intensivo, cresce il numero di chi non nutre fiducia in alcuna fonte informativa.

La relazione tra uso e fiducia non è lineare: chi usa intensamente un mezzo tende ad averne più fiducia, ma nel caso dei social media questa correlazione è debole. Il dato appare ancora più significativo se confrontato con la fiducia nella televisione, che rimane alta soprattutto tra gli over 65 (44,5%).

Un ecosistema informativo fragile e sbilanciato

L’analisi di AGCOM conferma che l’informazione è sempre più mediata da piattaforme digitali. E che questo passaggio ha generato una informazione sempre più debole. Sempre più esposta a manipolazioni e a deformazioni.

La prevalenza dei social nel ruolo di gatekeeper dell’informazione non garantisce qualità, affidabilità o trasparenza.

Questa tendenza si inserisce perfettamente nelle riflessioni che sto affrontando negli ultimi mesi. Dall’erosione della fiducia digitale all’algoritmo del proprietario, fino alla crescente polarizzazione dell’informazione.


Guarda il video:


I social media diventano lo spazio principale dove l’informazione viene vista, ma non dove si costruisce fiducia.

Il contenuto viene costruito solo per essere visto e non, banalmente, per informare e per generare opinioni e conversazioni.

Un divario che continuerà ad allargarsi finché non verrà affrontato con responsabilità, tanto da parte delle piattaforme quanto da chi crea contenuti.

Il quadro che emerge è chiaro. I social media sono oggi la porta d’accesso privilegiata all’informazione per milioni di italiani. Ma a questa centralità non corrisponde un riconoscimento in termini di autorevolezza.

É necessario concentrarsi sulla costruzione di contenuti che siano effettivamente informativi e che puntino alla qualità. Resto sempre convinto, infatti, che il contenuto equivalga ancora alla Relazione. Ma serve recuperare qualità e abbandonare il concetto di quantità che tanto piace all’algoritmo del proprietario.

[Immagine ci copertina realizzata da Franz Russo attraverso il modello di intelligenza artificiale generativa ChatGPT-4o]

 

Fiducia digitale degli utenti in calo, fanno peggio i social media

Fiducia digitale degli utenti in calo, fanno peggio i social media

Il Consumer Digital Trust Index 2025 di Thales mostra un calo nella fiducia digitale: se le banche sono al 44%, i social sono solo al 4%. L’82% abbandona i brand per i dati a rischio. Passkey e biometria possono invertire la rotta?

Ma voi vi fidate dei servizi digitali che usate? Dei siti web, delle app? E di come sono gestiti i vostri dati personali?

Cominciamo col dire che la fiducia degli utenti nei servizi digitali sta calando. E questo non è un buon segnale.

E ce lo conferma il Thales Consumer Digital Trust Index 2025, che fotografa un quadro preoccupante. I consumatori sono sempre più scettici nei confronti delle aziende e dei servizi digitali; mentre le imprese non riescono a colmare il divario di fiducia.

Ma vediamo i dati più rilevanti del report e un breve focus sull’Italia.

La fiducia digitale in declino a livello globale

Secondo il report, la fiducia nei servizi digitali è in declino o rimane stagnante in tutti i settori. Anche quelli più regolamentati.

Il dato più critico? L’82% dei consumatori ha abbandonato almeno un brand negli ultimi 12 mesi. Principalmente a causa di richieste eccessive di dati personali; processi di autenticazione non all’altezza; e scarsa trasparenza.

Il calo della fiducia è legato anche al fatto che quasi uno su cinque (il 19%) è stato informato che i propri dati personali sono stati compromessi nell’ultimo anno. Si tratta di un campanello d’allarme per le aziende, che dovrebbero adottare misure più efficaci per garantire la sicurezza e la privacy degli utenti.

Fiducia digitale degli utenti in calo, fanno peggio i social media
Fiducia digitale degli utenti in calo, fanno peggio i social media – foto: Greta Hoffman su pexels.com

Fiducia digitale, i dati più rilevati del 2025

Password e autenticazione sotto accusa

Il 75% dei consumatori vorrebbe eliminare le password in favore di metodi più sicuri come dati biometrici o PIN.

L’onere della sicurezza è tutto sui consumatori

Il 63% degli utenti ritiene che le aziende stiano delegando a loro la protezione dei dati. Invece di adottare misure più efficaci.

I bot malevoli compromettono l’esperienza utente

Il 33% degli utenti ha avuto problemi con acquisti digitali a causa di bot che alterano il processo d’acquisto, causando frustrazione e insoddisfazione.

I media e social media sono i meno affidabili

Solo il 3% dei consumatori si fida delle testate giornalistiche per la gestione dei propri dati.

Solo il 4% si fida dei social media, un dato che riflette una crisi di fiducia strutturale verso le piattaforme social, sempre più percepite come poco trasparenti.

La fiducia nei social media è al minimo storico

Uno degli aspetti più significativi del Consumer Digital Trust Index 2025 è proprio la sfiducia diffusa nei confronti dei social media.

Con solo il 4% dei consumatori che li considera affidabili nella gestione dei propri dati, il dato si allinea perfettamente a quanto già osservato e rilevato in precedenti articoli e video.

In particolare, il concetto di “algoritmo del proprietario” – di cui ho parlato spesso nel mio video podcast – trova anche in questa occasione una conferma concreta.

I social media hanno smesso di essere semplici spazi di connessione, luoghi dove ci si ritrovava condividendo interessi. Oggi il controllo sui contenuti è determinato dalle logiche e dagli interessi di chi possiede la piattaforma.

E quando la percezione è che l’utente abbia perso il controllo su cosa vede e su come vengono trattati i suoi dati, la fiducia mano a mano si sgretola.

Fiducia digitale degli utenti in calo, fanno peggio i social media
Thales Consumer Digital Trust Index 2025

Fiducia digitale, gli utenti si fidano di banche e pubblica amministrazione

Nonostante il quadro complessivo negativo, il report di Thales evidenzia anche i settori che riescono ancora a mantenere la fiducia degli utenti, pur senza superare mai la soglia del 50%.

In cima al Digital Trust Index 2025 troviamo, per il secondo anno consecutivo, il settore bancario, che ottiene un livello di fiducia globale del 44%.

Questo dato nasconde forti differenze generazionali: il 51% degli over 55 si fida dei servizi bancari, ma solo il 32% dei Gen Z esprime lo stesso livello di fiducia.

Le organizzazioni governative si posizionano al secondo posto con il 41%, registrando anche l’unico incremento rispetto all’anno precedente (dal 37%).

Al terzo posto troviamo il settore sanitario (40%), seguito da assicurazioni (24%) ed istruzione (17%).

Tutti gli altri settori si fermano sotto il 10%. Questi numeri indicano che una quota significativa di fiducia resiste, ma è concentrata in pochi ambiti percepiti come più regolamentati o sensibili.

Italia e la fiducia nei servizi digitali

Il report non presenta dati specifici sull’Italia, ma i trend europei evidenziano alcune dinamiche significative anche per il nostro Paese.

GDPR e nuove regolamentazioni

Il GDPR resta il pilastro normativo della protezione dati in Europa. Per i servizi finanziari digitali, dal gennaio 2025 (periodo vincolante), è affiancato dal Digital Operational Resilience Act (DORA), che punta a rafforzare la sicurezza informatica del settore finanziario.

Trasparenza richiesta dagli utenti

I consumatori italiani, come quelli degli altri Paesi europei, chiedono con forza maggiore chiarezza sull’utilizzo dei dati personali.

Crescita dell’autenticazione biometrica

Anche in Italia si registra un crescente interesse verso soluzioni di autenticazione più sicure e meno dipendenti dalle password.


Guarda qui il video sul Consumer Digital Trust Index 2025 di Thales


Cosa devono fare le aziende per recuperare fiducia

Per riconquistare la fiducia dei consumatori, le imprese devono agire con urgenza e visione. Ecco alcune direzioni possibili:

  • Adottare sistemi di autenticazione avanzati: meno password, più biometria e autenticazione a più fattori.
  • Ridurre la raccolta di dati superflui: chiedere solo ciò che è strettamente necessario e spiegare chiaramente l’uso che verrà fatto dei dati.
  • Comunicare la sicurezza: raccontare in modo semplice e trasparente le misure di protezione adottate.
  • Contrastare i bot malevoli: investire in tecnologie che migliorano l’esperienza online e proteggono gli utenti.
  • Implementare tecnologie affidabili: secondo il report, il 64% degli utenti si fiderebbe di più di un brand che adotta tecnologie come passkeys, biometria e intelligenza artificiale responsabile.

Come afferma anche John Tolbert, Director of Cybersecurity Research di KuppingerCole Analysts, il calo della fiducia è un fenomeno prevedibile, ma non inevitabile: con le giuste tecnologie e un’attenzione reale all’esperienza utente, è possibile invertire la rotta.

In conclusione, il Thales Consumer Digital Trust Index 2025 conferma in modo netto che il divario in termini di fiducia tra consumatori e servizi digitali si sta ampliando.

In un contesto in cui la fiducia diventa sempre più fragile, le aziende devono dimostrare di meritarla.

Perché la fiducia, così come la reputazione e altri valori fondamentali, una volta persa, non si recupera facilmente.

Potete scaricare gratuitamente il report da questo link.

[La foto di copertina è di Greta Hoffman su pexels.com]

 

Meta AI arriva anche in Italia, la IA cambia i social media

Meta AI arriva anche in Italia, la IA cambia i social media

Meta AI debutta in Europa e Italia, precisamente in 41 paesi. Integra le piattaforme Meta senza usare dati utenti, rispettando GDPR. Segna l’evoluzione dei social media verso ecosistemi più intelligenti. Le piattaforme digitali si evolvono.

Meta AI arriva in Unione Europea, e quindi anche in Italia. L’annuncio, del 19 marzo 2025, segna l’ingresso ufficiale dell’intelligenza artificiale di Meta in UE, dopo oltre un anno di disponibilità negli Stati Uniti.

Al momento, sarà attivo in 41 paesi, risponderà in italiano e si integrerà nelle piattaforme di Meta: Facebook, Instagram, WhatsApp e Messenger.

Un lancio atteso, ma non privo di limitazioni, che riflette il rispetto delle norme europee sulla privacy e offre uno spunto per riflettere sulla trasformazione dei social media.

Il modello di Meta AI distribuito in Europa non utilizza i dati degli utenti di Facebook e Instagram, una scelta obbligata per conformarsi al GDPR e all’AI Act, entrato di recente in vigore. Non permetterà la generazione di immagini né sfrutterà le conversazioni degli utenti per generare contenuti in risposta alle loro richieste.

Meta AI arriva anche in Italia, la IA cambia i social media
Meta AI arriva anche in Italia, la IA cambia i social media

Si tratta di restrizioni che spiegano il ritardo nell’espansione europea. A giugno 2024, Meta aveva già pianificato il debutto di Meta AI in Unione Europea, ma le istituzioni, in particolare l’Autorità irlandese per la protezione dei dati, avevano imposto un fermo, richiedendo il rispetto di una serie di regole. Ora, dopo mesi di adeguamenti, l’assistente è pronto a operare.


Come si usa Meta AI?

Meta AI sarà accessibile in diversi modi all’interno delle piattaforme Meta:

  • Su Instagram e Messenger, l’AI potrà essere attivata nei messaggi diretti.
  • Nei gruppi WhatsApp, gli utenti potranno menzionare @MetaAI per porre domande e ricevere risposte contestualizzate.
  • Nei commenti su Facebook, Meta AI potrà essere interpellata per fornire approfondimenti.
  • Sul sito meta.ai, l’assistente sarà disponibile come chatbot.

L’icona blu di Meta AI segnalerà chiaramente la sua presenza, e per attivarlo basterà digitare @MetaAI seguito da una richiesta.

Gli esempi di utilizzo più comuni? Si potrà chiedere all’AI di fornire informazioni in tempo reale all’interno di conversazioni su WhatsApp o di intervenire in discussioni su Instagram e Facebook.


Per attivarlo, comparirà un’icona blu nei messaggi di Instagram e nei gruppi WhatsApp, oppure basterà scrivere “@MetaAI” seguito da un prompt, una richiesta esplicita. L’intelligenza artificiale risponderà a domande o interverrà nelle conversazioni, come chiedere suggerimenti in un gruppo WhatsApp o fornire informazioni rapide su Instagram. Ogni contenuto generato da Meta AI sarà chiaramente identificato, in linea con le disposizioni dell’AI Act.

Le piattaforme digitali cambiano con la IA

Questa novità non è solo un aggiornamento tecnologico, ma la dimostrazione di un cambiamento profondo nelle piattaforme digitali. L’intelligenza artificiale non è più confinata a un algoritmo che decide cosa mostrare, il cosiddetto “algoritmo del proprietario”, che sempre più spesso privilegia i contenuti graditi alla piattaforma stessa, trascurando gli interessi reali degli utenti.

Ora, l’AI diventa un elemento attivo nella generazione di contenuti all’interno delle conversazioni tra utenti. Meta AI alimenterà un’ulteriore chiusura degli spazi digitali, trattenendo gli utenti all’interno delle piattaforme con risposte immediate e personalizzate, rafforzando il fenomeno delle bolle informative.

MetaAI e l’addio al fact-checking

Il lancio di Meta AI coincide con un altro sviluppo significativo: Meta ha abbandonato il fact-checking tradizionale e sta testando, negli Stati Uniti, le Community Notes, un sistema che affida agli utenti la validazione delle informazioni nei post. Questo approccio arriverà anche in Italia e vedrà probabilmente un ruolo per l’intelligenza artificiale.

In Europa, va precisato, le regole sulla privacy limiteranno l’impatto di queste innovazioni, mantenendo un equilibrio tra tecnologia e protezione dei dati.

Le piattaforme digitali, con Meta AI, si trasformano in assistenti in tempo reale e motori di ricerca integrati. Gli utenti potranno interrogare l’AI senza uscire dalle app, un modello che espanderà il loro ruolo oltre la semplice comunicazione.


Guarda il video


In futuro, Meta AI potrebbe generare contenuti automatici, incluse immagini, come già accade fuori dall’Unione Europea.

L’esempio di Grok su X

Un esempio parallelo è X, dove Grok, l’AI di Elon Musk, interviene direttamente nelle conversazioni quando richiamato con “@Grok”, rispondendo su argomenti specifici. A differenza di Grok, che opera come un bot con una sezione dedicata e un’app stand-alone negli Stati Uniti, Meta AI si integra nativamente nelle conversazioni, un aspetto che sottolinea la direzione verso una presenza sempre più pervasiva dell’AI.

Le piattaforme social media, con la IA da strumenti ad assistenti

Questo cambiamento ridefinisce le piattaforme digitali, nate come strumenti per connettere gli utenti, ma ora sempre più orientate a diventare ecosistemi autonomi.

Lo sviluppo di Meta AI in Italia dipenderà da come gli utenti lo accoglieranno: sarà un intervento minimo, senza impatto sulle conversazioni, o un elemento centrale nella loro evoluzione?

Nei prossimi mesi, osserveremo come tutto questo si inserirà nel nostro contesto e quale percorso prenderà.

 

Community Notes di Meta, al via il test negli Usa

Community Notes di Meta, al via il test negli Usa

Community Notes fa il suo debutto sulle piattaforme Meta, per ora solo in fase di test negli Usa. Il modello è analogo a quello adottato sulla piattaforma X. Esempio di partecipazione collettiva che potrebbe comportare molti rischi.

Community Notes ha fatto il suo debutto negli Usa proprio ieri, 18 marzo 2025.

Come ricorderete, circa un mese fa Meta aveva annunciato il lancio di questo nuovo programma che sostituisce il fact-checking tradizionale, tramite un post su Threads.

Ora ci siamo. La fase di test è iniziata, per ora solo negli Stati Uniti. Segna un cambio di rotta nella gestione dei contenuti sulle piattaforme di Mark Zuckerberg. Ispirandosi esplicitamente a quanto già vediamo su X.

Meta lo ha comunicato in modo chiaro: da ieri, un gruppo selezionato di utenti americani può usare le Community Notes su Facebook, Instagram e Threads.

L’idea alla base delle Community Notes

L’idea è semplice: consentire agli utenti di aggiungere note a post con informazioni fuorvianti o incomplete, sul modello di X. Queste note diventano visibili a tutti solo se ricevono abbastanza valutazioni positive dalla comunità.

Si tratta, insomma, di una sorta di sistema di crowdsourcing che prende il posto del fact-checking di terze parti. Un passaggio che Zuckerberg aveva anticipato all’inizio dell’anno.

Le Community Notes di Meta, come quelle di X, sono uno strumento collaborativo. Gli utenti possono segnalare un post e aggiungere una nota con correzioni o informazioni aggiuntive, supportate da fonti verificabili.

Community Notes di Meta, al via il test negli Usa
Community Notes di Meta, al via il test negli Usa

La fase di test per ora negli Usa

Durante la fase di test, Meta monitorerà la creazione e la valutazione di queste note per capire se riescono a contrastare la disinformazione. Il sistema parte in modo graduale ma coinvolge tutte e tre le piattaforme principali: Facebook, Instagram e Threads.

Negli Usa, il programma di fact-checking tradizionale sarà abbandonato del tutto, una scelta non priva di rischi.

Community Notes di Meta, non ancora in Italia

Per ora, in Italia, le Community Notes non arriveranno. L’avvio dei test negli Usa lascia pensare che i tempi per un’estensione in Europa potrebbero non essere troppo lontani.

Questo approccio ha un lato positivo che mira ad affidare il controllo agli utenti, rendendo le piattaforme più aperta e partecipativa. Ma c’è un rovescio della medaglia, legato alle competenze e alla preparazione di chi valuta.

Non serve una conoscenza specifica per intervenire; basta partecipare a un sistema di valutazione collettiva per verificare i contenuti segnalati. E qui si apre un tema cruciale.

Il confronto con Community Notes di X

Rispetto a X, che conta circa 580 milioni di utenti registrati su un’unica piattaforma, Meta gestisce tre realtà ben più grandi: Facebook con oltre 3 miliardi di utenti e Instagram con oltre 2 miliardi, per non parlare di Threads.

Piattaforme di questa scala, se controllate dagli utenti, rischiano di ritrovarsi con valutazioni imprecise sui contenuti. E le conseguenze sono evidenti a tutti.

Su X, le Community Notes in alcuni casi riescono a trovare un punto di equilibrio – persino Elon Musk ha dovuto cancellare contenuti oggettivamente falsi dopo le segnalazioni. Ma molti sono i casi di valutazioni molto discutibili.

Rischio di diffondere informazioni poco affidabili

In molti casi, dimostrato da alcune ricerche recenti, le Community Notes su X hanno avuto un approccio limitato verso la disinformazione, concentrandosi solo sulla falsità oggettiva e trascurando il contesto storico, sociale, culturale, economico e politico che spesso accompagna le narrazioni malevoli.

Su Meta, con numeri così alti, questo fenomeno potrebbe amplificarsi. Il rischio è che informazioni vere vengano messe in discussione da gruppi di utenti con opinioni diverse o che si affidino a fonti errate, deviando il giudizio finale su un contenuto.

Uno degli aspetti critici, che vengono mossi anche nei confronti delle Community Notes di X, è che spesso queste valutazioni arrivano quando già il post ha raggiunto l’apice della sua visibilità. Di conseguenza, le valutazioni degli utenti potrebbero risultare davvero poco efficaci.

Community Notes di X e le sue contraddizioni

Inoltre, va aggiunto che spesso le note che vengono apposte su X fanno riferimento, come base di informazione oggettiva, ai siti di informazione costantemente attaccati da Musk. Questo è vero a tal punto che lo stesso Musk nei giorni scorsi si è lanciato a dire che presto “tutto questo verrà sistemato”. Ennesimo esempio di “algoritmo del proprietario”.

Per tutto questo che abbiamo visto finora, il sistema va monitorato con attenzione.

Non sappiamo ancora quanto durerà il test negli Usa né quando arriverà in Europa o in altri paesi. Quel che è certo è che si tratta di un momento importante, soprattutto nel contesto attuale.

Serve osservare come evolverà, perché se da un lato punta a ridurre la disinformazione, dall’altro potrebbe generare nuove sfide.

Qui in basso trovate il mio video podcast – lo trovate su YouTube – dove approfondisco questi aspetti.

 

Perché Zuckerberg e Musk si comportano come Cesari del Digitale

perché zuckerberg musk cesari del digitale

Al SXSW 2025 Jay Graber, CEO di Bluesky, si è presentata con una maglietta “Mundus sine caesaribus”. Chiaro riferimento a Zuckerberg e alle sue magliette “Aut Zuck aut nihil”. Il fatto è che Zuckerberg e Musk si rifanno al mito dell’Antica Roma e si immaginano nuovi Cesari.

Al SXSW 2025, Jay Graber, CEO di Bluesky, ha indossato una maglietta con la scritta “Mundus sine caesaribus”, un mondo senza Cesari.

Una risposta diretta a Mark Zuckerberg, che è solito mostrare la sua t-shirt con la frase “Aut Zuck aut nihil”, ovvero “O Zuck o niente”.

Questo botta-e-risposta in latino rivela qualcosa di più, in realtà. E cioè, l’interesse di Zuckerberg (e non solo lui) per l’antica Roma, come modello per il mondo digitale.

Zuckerberg e la passione per Roma

Mark Zuckerberg non hai fatto mistero della sua passione per l’antica Roma.

Come forse molti di voi già sapranno, ha studiato latino al liceo; ha scelto Roma per la sua luna di miele e ha dato alle sue figlie nomi come Maxima, August e Aurelia, ispirati chiaramente alla tradizione di Roma.

Attraverso Meta, che comprende piattaforme come Facebook, Instagram e WhatsApp, gestisce un ecosistema digitale che raggiunge miliardi di utenti. La frase “Aut Zuck aut nihil” non è solo un dettaglio. Riflette il suo desiderio di lasciare un segno duraturo, simile a quello degli imperatori romani.

Jay Graber, CEO Bluesky
Jay Graber, CEO Bluesky

E soprattutto di immaginarsi moderno Cesare alla guida di un impero digitale.

Da questo punto di vista, si può spiegare il perché di tante sue azioni che sono in netto contrasto con il Zuckerberg che tutti hanno imparato a conoscere.

Mark Zuckerberg, "Aut Zuck, aut nihil"
Mark Zuckerberg, “Aut Zuck, aut nihil”

Di recente ha abbracciato le politiche di Trump; ha deciso di abbandonare il fact-checking su Facebook e Instagram introducendo le Community Notes; la sua visione è sempre più simile ad un altro personaggio che agisce come moderno Cesare.

Mark Zuckerberg, Cesare
Mark Zuckerberg, Cesare – creata con Grok 3

Elon Musk e la visione di un nuovo impero

E il riferimento è proprio a lui: a Elon Musk.

Anche Musk guarda a Roma come fonte di ispirazione e come modello per gestire il suo impero.

Nel 2023, lo ricorderete certamente, aveva proposto a Zuckerberg un duello al Colosseo, un’idea che richiama l’immaginario romano. E si era andati vicinissimi a questa follia.

Elon Musk, condottiero romano
Elon Musk, condottiero romano – creata con Grok 3

Musk vede nei suoi progetti – come la colonizzazione di Marte o la stessa gestione di X – un’espansione simile a quella di un impero.

X, in particolare, è diventato uno spazio in cui influenza il discorso pubblico globale, un ruolo che richiama il controllo esercitato dagli imperatori sulle piazze romane.

Musk si immagina come un Cesare da cui dipende la stessa libertà di parola, il free speech, che non deve mai contraddirlo.


Guarda il video


Meta e X come strumenti di influenza

Meta e X non sono più semplici piattaforme social. Sono infrastrutture fondamentali per il flusso di informazioni. Lo vediamo tutti i giorni.

Attraverso le loro piattaforme, Zuckerberg e Musk esercitano un’influenza evidente su notizie, opinioni e dinamiche culturali.

Negli ultimi anni, entrambi hanno assunto posizioni più nette: Musk ha orientato X verso un approccio che amplifica certe narrazioni, esempio di algoritmo del proprietario; mentre Zuckerberg è passato da una apparente neutralità ad una figura sempre più schierata, mantenendo il controllo sugli algoritmi.

Questo potere, se ci pensiamo, richiama il modo in cui gli imperatori romani governavano le loro province.

zuckerberg musk cesari del digitale
zuckerberg musk cesari del digitale – creata con Grok 3

Il mondo digitale come un nuovo impero

L’interesse per Roma non è casuale.

Zuckerberg e Musk sembrano voler modellare il mondo digitale seguendo un’idea di ordine e dominio. Musk utilizza X per orientare il dibattito pubblico, mentre Zuckerberg, attraverso Meta, influenza ciò che miliardi di utenti vedono ogni giorno.

Entrambi aspirano a creare un sistema in cui le loro piattaforme dettano regole e priorità, un’eco moderna della Pax Romana, l’ordine imposto dall’Impero.

Un fenomeno comune nelle Big Tech

Questo legame con Roma non è esclusivo di Zuckerberg e Musk.

Jeff Bezos, con Amazon, ha costruito un sistema logistico che richiama l’efficienza delle infrastrutture romane.

Peter Thiel, fondatore di Palantir, paragona spesso il declino dell’Occidente a quello dell’Impero Romano, proponendo soluzioni tecnologiche per ristabilire l’ordine.

È del tutto evidente che le Big Tech guardano a Roma come a un modello di potere e innovazione.

Una situazione che è un monito per il futuro

Per concludere, la maglietta di Jay Graber al SXSW 2025 porta con sé una riflessione: un mondo con troppi Cesari rischia di diventare insostenibile.

Zuckerberg e Musk, con le loro piattaforme, non vogliono solo influenzare il presente, ma puntano a ridisegnare il futuro.

Ma chi ne paga il prezzo? La risposta sarebbe “quasi sempre noi”.

 

X e il blackout, tra speculazioni e assenza di informazioni

X e il blackout, tra speculazioni e assenza di informazioni

Ieri, 10 marzo 2025, X ha subito tre down. Elon Musk ha accusato un attacco DDoS dall’Ucraina, ma mancano prove. Ecco cosa è successo in una giornata difficile per la piattaforma.

Ieri, 10 marzo 2025, la piattaforma X ha subito tre interruzioni di servizio nell’arco di poche ore, un evento che ha comportato non pochi disagi per centinaia di migliaia di utenti in tutto il mondo.

Il primo blackout è avvenuto 5:30 ET (11:30 italiane), seguito da altri due: alle 9:30 ET (15:30 italiane) e alle 11:10 ET (17:10 italiane). Elon Musk, proprietario di X, ha attribuito i disservizi a un “massiccio attacco informatico”, dichiarando in un’intervista a Fox News che l’origine sarebbe localizzata in Ucraina.

Ma quali sono i fatti concreti dietro questa affermazione? Analizziamo la vicenda.

X e il blackout, alcuni dati sul disservizio

Le segnalazioni di problemi su X sono esplose nella mattinata del 10 marzo, con picchi registrati da Downdetector soprattutto negli Stati Uniti e in Europa. Gli utenti hanno riscontrato difficoltà nel caricare contenuti, accedere al proprio account o pubblicare post.

Le tre interruzioni, durate complessivamente oltre sei ore, rappresentano uno dei disservizi più gravi che si sono registrati nella storia recente della piattaforma.

X non ha rilasciato comunicati tecnici dettagliati, lasciando spazio alle dichiarazioni di Musk come unica fonte ufficiale.

X e il blackout, tra speculazioni e assenza di informazioni
X e il blackout, tra speculazioni e assenza di informazioni

L’ipotesi di Musk: un attacco DDoS dall’Ucraina

Durante l’intervista a Fox News, trasmessa quando in Italia era tarda serata, Musk ha descritto l’incidente come un “massiccio attacco cyber” orchestrato da un gruppo o uno Stato, sottolineando che gli indirizzi IP coinvolti proverrebbero dall’area ucraina.

L’ipotesi tecnica più accreditata, supportata anche da esperti del settore, è quella di un attacco Distributed Denial of Service (DDoS), una strategia che mira a sovraccaricare i server con un volume di traffico insostenibile, rendendo il servizio inaccessibile.

Jake Moore, Global Security Advisor di ESET, ha offerto un’analisi approfondita:

Gli attacchi DDoS sono un metodo efficace per colpire un’azienda senza dover compromettere direttamente i suoi sistemi principali, permettendo agli autori di restare in gran parte anonimi. Questo rende la protezione ancora più complessa, soprattutto quando il contesto dell’attacco è sconosciuto e ci si può affidare solo a misure generiche di mitigazione.”

Moore ha aggiunto che gli hacker sfruttano sempre più dispositivi IoT per amplificare questi assalti, una tendenza in crescita che complica ulteriormente le difese.


Cosa sono gli attacchi DDoS

Un attacco Distributed Denial of Service (DDoS) è una tecnica usata dai cybercriminali per mettere fuori uso un servizio online, come un sito o una piattaforma, sommergendolo di richieste.

Immaginiamo un negozio preso d’assalto da migliaia di clienti fittizi che bloccano l’ingresso: i server, incapaci di gestire un traffico così intenso e artificiale, si bloccano, rendendo il servizio inaccessibile agli utenti reali.

Questi attacchi spesso sfruttano reti di dispositivi compromessi – dai computer ai dispositivi IoT come telecamere o router – coordinati per colpire il bersaglio contemporaneamente, rendendo difficile individuarne l’origine.


 

X e il down: al momento nessuna prova concreta, solo speculazioni

Nonostante le affermazioni di Musk, al momento non sono state pubblicate evidenze tecniche che confermino l’origine ucraina dell’attacco.

X non ha fornito log o dati sugli IP coinvolti, e la dichiarazione del suo proprietario resta al momento priva di riscontri ufficiali.

La situazione dunque lascia aperte diverse interpretazioni. Potrebbe trattarsi di una deduzione basata su analisi interne non ancora condivise; oppure di un’accusa deliberata, dettata da dinamiche geopolitiche.

Musk, noto per le sue posizioni controverse, ha avuto negli ultimi giorni attriti non di poco conto con l’Ucraina, soprattutto legati all’uso di Starlink nel conflitto con la Russia.

In ogni caso, senza un report dettagliato, la tesi dell’attacco da una zona ucraina resta semplice speculazione.

X e i precedenti casi di down

Non è la prima volta che X si trova ad affrontare blackout di tale portata.

In passato, la piattaforma è stata già bersaglio di attacchi DDoS e disservizi strutturali che, in alcuni casi, sono stati erroneamente interpretati come cyberattacchi mirati.

Sempre secondo Moore, “X è una delle piattaforme più discusse al mondo, il che la rende un bersaglio ideale per hacker che vogliono lasciare il segno. L’unica strategia efficace per contrastare questi attacchi è continuare ad anticipare l’imprevedibile e rafforzare costantemente le difese.”

La vulnerabilità di X potrebbe essere accentuata anche dalla sua crescente centralità nel dibattito pubblico.

La situazione attuale e maggiore sicurezza

Il down di X pone comunque diversi interrogativi.

È stato davvero un attacco coordinato dall’Ucraina, come sostiene Musk, o un problema tecnico amplificato dalla narrazione del suo proprietario? E se si trattasse di un DDoS, chi ne è responsabile?

La mancanza di trasparenza da parte di X alimenta il dibattito, mentre la piattaforma torna operativa senza chiarire davvero cosa sia accaduto.

Quel che è certo è che la sicurezza informatica resta una sfida cruciale e centrale per le grandi piattaforme digitali. Soprattutto, nel caso di X, quando queste diventano luoghi di scontro anche su temi delicati di strettissima attualità.

[L’immagine di copertina è stata realizzata da Franz Russo utilizzando un modello di intelligenza artificiale generativa]

 

Giornata Internazionale della Donna: il Doodle Google dedicato alle STEM

Giornata Internazionale della Donna: il Doodle Google dedicato alle STEM

Google celebra la Giornata Internazionale della Donna 2025 con un Doodle dedicato alle donne nelle STEM, ricordando c’è ancora molto da fare per colmare il divario.

Come ogni anno, anche oggi 8 marzo 2025, Google dedica un Doodle speciale alla Giornata Internazionale della Donna, un momento che celebra i contributi delle donne in ogni ambito della società.

Questa volta il colosso di Mountain View celebra le donne nelle discipline STEM (Scienza, Tecnologia, Ingegneria e Matematica).

Il doodle che accompagna il Doodle mette in evidenza: un atomo (fisica); una doppia elica di DNA e una provetta (biologia e chimica); un teschio fossile (paleontologia e archeologia); e un’astronauta (esplorazione spaziale).

Il doodle di Google per le donne STEM

Si tratta di simboli che rappresentano in modo efficace e visivo l’importanza dei contributi femminili nei vari settori STEM, celebrando la loro presenza e i loro risultati. Evocando il loro impatto straordinario sulla scienza e sulla tecnologia.

Giornata Internazionale della Donna: il Doodle Google dedicato alle STEM
Giornata Internazionale della Donna: il Doodle Google dedicato alle STEM

Google, attraverso questo Doodle vuole lanciare un messaggio chiaro per il futuro, richiamando l’attenzione su un tema ancora critico: la presenza femminile nel settore STEM (Science, Technology, Engineering and Mathematics).

Nonostante i grandi progressi fatti negli ultimi anni, le donne costituiscono ancora soltanto il 29% della forza lavoro STEM a livello globale.

La scelta di Google non è casuale, ma riflette la necessità di sensibilizzare l’opinione pubblica sulla presenza femminile nelle discipline STEM, un ambito in cui la partecipazione delle donne è ancora inferiore rispetto a quella maschile.

Ricorderete l’articolo che avevo dedicato proprio al divario, tra donne e uomini, proprio parlando di intelligenza artificiale.

Un divario rischia di tradursi in tecnologie meno inclusive, con algoritmi e sistemi che riflettono pregiudizi e stereotipi esistenti.

Il divario tra donne e IA

I dati ci dicono, infatti, che solo il 22% dei professionisti dell’Intelligenza Artificiale sono donne. Se restringiamo l’analisi alla produzione scientifica, la situazione peggiora: appena il 13,83% degli autori di pubblicazioni AI sono donne e solo il 18% dei relatori nelle principali conferenze internazionali sul tema è di sesso femminile.

La scelta di Google di dedicare questo Doodle alle donne nelle STEM diventa così un’occasione importante non solo per celebrare ma anche per sensibilizzare tutti su questi temi.

Per contrastare l’attuale situazione, è necessario un impegno continuo da parte di istituzioni, aziende e organizzazioni educative per aumentare la partecipazione femminile, attraverso iniziative concrete come borse di studio, programmi di mentorship e campagne di sensibilizzazione mirate.

Solo attraverso un investimento reale nell’inclusione femminile sarà possibile assicurare un futuro più equo e tecnologicamente avanzato.

La diversità è un valore aggiunto fondamentale per l’innovazione. Ed è proprio l’innovazione, insieme alla passione e alla determinazione, che caratterizza il cammino di tante donne straordinarie, capaci di sfidare i limiti imposti da una società che, troppo spesso, fatica ancora a riconoscerne pienamente il talento.

La Giornata Internazionale della Donna è quindi anche un momento di riflessione sul presente e sul futuro.

Investire oggi nell’inclusione femminile in ambito STEM significa infatti investire nel progresso sociale e tecnologico di domani.

Ancora una volta Google, con un semplice Doodle, ci invita non solo a celebrare, ma soprattutto a riflettere.

Buona Giornata Internazionale della Donna a tutte e a tutti.

 

Instagram, i reel e la visibilità: come cambia l’algoritmo

Instagram, i reel e la visibilità: come cambia l’algoritmo

Instagram continua a potenziare i Reel, ma la visibilità resta legata a regole che cambiano di continuo. Creator e brand devono inseguire l’algoritmo del proprietario per restare rilevanti.

In attesa di capire quale sarà il futuro di TikTok negli Usa, i diretti competitor non stanno certo a guardare, anzi. Mentre si attende un segnale dall’amministrazione Trump, e mentre proseguono le trattative con diversi compratori che si sono fatti avanti, Instagram potenzia la sua strategia sui reel.

Infatti, Instagram sta cambiando continuamente il modo in cui rende visibili i reel, cercando di riuscire a realizzare le condizioni ideali qualora gli utenti di TikTok si trovassero sprovvisti della loro app preferita.

Una scelta che, se da un lato conferma l’importanza crescente dei contenuti video brevi sulla piattaforma, dall’altro pone nuove sfide per creator e brand che vogliono raggiungere un pubblico sempre più ampio e profilato.

Già un anno fa, Instagram ha iniziato a fornire indicazioni precise sul funzionamento del proprio algoritmo. L’obiettivo dichiarato è permettere ai creator di comprendere meglio cosa favorisce (o penalizza) la visibilità dei loro contenuti. E, soprattutto, come migliorare la performance dei reel, il formato oggi più utilizzato e in costante crescita.

Instagram, i reel e la visibilità: come cambia l’algoritmo
Instagram, i reel e la visibilità: come cambia l’algoritmo

Come funziona l’algoritmo dei reel su Instagram

Innanzitutto, Instagram chiarisce che la visibilità dei reel è determinata principalmente dall’engagement. Quindi, quanto più un contenuto genera interazioni (visualizzazioni complete, like, commenti, condivisioni e salvataggi), tanto più l’algoritmo ne aumenterà la diffusione.

Ma non solo. La piattaforma valuta anche altri fattori come l’originalità del contenuto, la coerenza tematica, e la qualità complessiva del video (risoluzione, audio, editing).

Inoltre, recentemente è stato confermato che Instagram analizza con particolare attenzione la capacità di un reel di trattenere l’utente per tutta la durata del video. Quindi, i contenuti che riescono a catturare immediatamente l’attenzione e mantenerla alta dall’inizio alla fine sono premiati con una distribuzione maggiore.

Da cosa dipende la visibilità di un reel

In occasione di un evento per i creator a New York, Instagram ha praticamente evidenziato che adesso la lunghezza massima per i reel è di 3 minuti.

Se ricordate, l’anno scorso Instagram continuava a ripetere che i video dovessero mantenersi tra i 30 e i 90 secondi come lunghezza massima. Questo per essere più performanti.

E infatti, creator e brand si sono adeguati a questo standard, impostando tutte le loro strategie di contenuti video su questa lunghezza.

Ma adesso tutto cambia. Infatti se l’algoritmo oggi considera una durata più lunga significa rivedere tutta la strategia per poter essere considerati dall’algoritmo. Una modifica che in realtà non risponde ad una diretta esigenza di creator o brand. No, risponde solo ad una diretta strategia commerciale di Meta che con Instagram vuole competere con TikTok.

Cosa cambia nel dettaglio e cosa considera l’algoritmo:

  • Durata massima: i Reel adesso possono arrivare fino a 3 minuti, non c’è una indicazione precisa su una durata ideale.

  • Originalità: Instagram penalizza i Reel che mostrano chiaramente loghi o watermark provenienti da altre piattaforme, come TikTok.

  • Autenticità: sono penalizzati i Reel non realizzati direttamente da chi li condivide. Instagram favorisce contenuti creati in prima persona dall’autore.

  • Qualità video: è fondamentale pubblicare video con risoluzione alta per ottenere la massima visibilità; contenuti di bassa qualità visiva vengono penalizzati.

Instagram e la logica dell’algoritmo del proprietario

Questi continui cambiamenti introdotti da Instagram sono una chiara espressione di ciò che ormai definisco da un po’ di tempo come algoritmo del proprietario.

Intendo dire, un algoritmo che riflette direttamente le decisioni strategiche e commerciali della piattaforma. Come è appunto questo caso.


Algoritmo del proprietario e SNARF: la via di BuzzFeed per i social media


Creator e brand si trovano così costretti ad adattarsi continuamente a regole mutevoli, che spesso non rispecchiano necessariamente gli interessi degli utenti, ma piuttosto quelli della piattaforma stessa.

Un esempio pratico riguarda la durata ideale dei reel, che è stata modificata più volte nel corso dell’ultimo anno, costringendo gli utenti a ripensare continuamente le proprie strategie di contenuto.

Questo sistema crea una dipendenza quasi assoluta dalla piattaforma, rendendo sempre più difficile costruire strategie di lungo periodo e ottenere una visibilità stabile e duratura.

Oltre che contribuire ad abbassare la qualità dei contenuti.

La durata dei reel, dai 15 secondi ai 3 minuti

I Reels sono stati lanciati nel 2020 come risposta alla popolarità di TikTok, inizialmente con una durata massima di 15 secondi.

Modifica che coincide con la competizione con TikTok, che già permetteva video di 3 minuti dal 2021.

200 miliardi di reel visualizzati ogni giorno

Nonostante il 70% dei contenuti su Instagram sia costituito da foto e immagini, il formato reel è comunque in grande crescita.

Sono più di 200 miliardi i reel che vengono visualizzati ogni giorno su Instagram e Facebook.

Si calcola che, in media, gli account Instagram con più di 50.000 follower caricano un reel ogni due giorni. E si prevede che i reel su Instagram saranno 1 miliardo entro il 2025.

L’India è il mercato più grande per i reel di  Instagram, complice anche il divieto di TikTok. In Europa l’Italia è il terzo paese, dopo Germania e Uk.



Meglio puntare sulla qualità dei contenuti

Dopo questi numeri, è necessario concentrarsi su che tipo di messaggio e di contenuti video vogliamo condividere. Questo per evitare di restare troppo legati ai capricci degli algoritmi e finire per abbassare la qualità dei contenuti stessi.

È sempre utile ricordare che la finalità principale delle condivisione di contenuti è quella di instaurare Relazioni. E questo vale ancora di più quando si parla dell’algoritmo del proprietario.

Facciamo sempre in modo che a guidarci sia la qualità del contenuto e la qualità di ciò che davvero vogliamo comunicare.

 

Ultimi articoli