Tag: social media

  • Immagini IA, ChatGPT 4o e rischio disinformazione

    Immagini IA, ChatGPT 4o e rischio disinformazione

    ChatGPT 4o ora consente di generare immagini di personaggi famosi in contesti realistici, ma mai avvenuti. Un passo avanti che solleva rischi concreti di disinformazione visiva. Ecco cosa sta cambiando, come riconoscerlo e perché serve essere responsabili.

    Restando sul tema di intelligenza artificiale, vi sarete accorti anche voi che ultimamente si è potenziata la possibilità di generare immagini. E di generare queste immagini anche con personaggi noti, personaggi pubblici, personaggi famosi, politici… e addirittura ritrarli in situazioni che prima non era possibile fare.

    Mi riferisco in particolare all’aggiornamento di ChatGPT, che ha potenziato il modello 4o al punto da far generare, da riuscire, da permettere agli utenti di generare immagini che prima non era possibile fare.

    Ci concentriamo sempre sulle capacità dell’intelligenza artificiale, di questi modelli che sono sempre più aggiornati, sempre più potenti, ma non ci soffermiamo mai sul fatto che prima non era possibile fare una cosa, e invece oggi è possibile farlo.

    Immagini IA, ChatGPT 4o e rischio disinformazione
    Immagini IA, ChatGPT 4o e rischio disinformazione

    Quali immagini può generare oggi ChatGPT 4o

    Come appunto questa, che in realtà definisce ancora di più la vicinanza tra ciò che era lecito fare e ciò che in realtà è un rischio, un potenziale rischio di disinformazione che è alla portata di tutti.

    Perché questo?

    Perché in realtà le immagini sono, l’abbiamo visto anche in questi giorni, il contenuto più facilmente condivisibile, più facilmente condiviso sulle piattaforme, e che facilmente può diventare anche virale.

    Lo diventa nel momento in cui noi abbiamo la possibilità di ritrarre personaggi noti, famosi. Faccio l’esempio di Trump che è sulla spiaggia di Copacabana con Elon Musk a bere un drink. Una situazione che prima su ChatGPT non era possibile fare e che adesso invece è alla portata di tutti.

    Trump Musk spiaggia copacabana ChatGPT 4o franz russo
    Trump Musk spiaggia copacabana ChatGPT 4o realizzata da Franz Russo

    Sono quelle situazioni in cui abbiamo questa sorta di voglia di vedere personaggi famosi in situazioni che molto probabilmente non vivrebbero mai, e che difficilmente sarebbero ritratte in quella situazione.

    Questo significa che, in realtà, anche noi potremmo essere al centro di quel contenuto. E quindi, avendo la possibilità di poter ritrarre e permettendo anche agli utenti la possibilità di generare immagini come queste, nulla vieta che un giorno ci possa essere un Franz Russo, tanto per fare un esempio, che si trova in un determinato luogo, con una determinata situazione, ma in realtà tutta quell’immagine non esiste.

    Il confine tra immagini reali e false è sempre più sottile

    Quindi il confine tra ciò che è possibile, che è realistico, e ciò che è in realtà una potenziale disinformazione, si sta avvicinando sempre di più.

    Ma perché ChatGPT arriva a trasferire questo senso di responsabilità un po’ più verso gli utenti?

    La questione è molto semplice, ed è di natura commerciale.

    Il caso Grok 3 di xAI

    Sul mercato dell’intelligenza artificiale esiste già Grok 3, la terza versione di questa intelligenza artificiale realizzata da xAI, che è una delle società di Elon Musk.

    Grok si trova all’interno della piattaforma X, e permette fin dall’inizio, da quando è stata generata la prima versione, di generare immagini che ritraggono personaggi famosi anche con un limite sempre più alto, con un’asticella sempre più alta, con possibilità di ritrarre personaggi famosi sempre più alla portata di chiunque.

    L’immagine di Papa Francesco col piumino bianco

    Ricordate quando nel 2023 si realizzarono quelle immagini con Papa Francesco, il famoso piumino? Ebbene, quell’immagine lì oggi ChatGPT la fa tranquillamente.

    Papa Francesco piumino IA franz russo
    Papa Francesco piumino generata con la ChatGPT 4o da Franz Russo

    L’immagine del falso arresto di Trump

    Oppure un’altra famosa immagine di Donald Trump circondato da poliziotti che cerca di fuggire a un possibile arresto: ebbene, quell’immagine ChatGPT oggi la realizza tranquillamente, senza nessun problema.

    Donald Trump falso arresto generato con la IA
    Donald Trump falso arresto generato con ChatGPT 4o da Franz Russo

    Questo significa che il confine, ripeto, di quello che noi possiamo generare rispetto a una potenziale disinformazione, si sta sempre di più assottigliando, sempre di più avvicinando. Non si riconosce più il rischio di quello che riusciamo a generare.

    Ci sono addirittura delle immagini, tipo Bill Gates con una birra in mano, realizzata da me su ChatGPT, che alcuni strumenti di verifica, come Illuminarty, addirittura fanno fatica a definire se sia un’immagine realistica, umana, oppure se sia generata da intelligenza artificiale.

    Bill Gates con birra in mano realizzata con Chatgpt-4o da Franz Russo
    Bill Gates con birra in mano realizzata con Chatgpt-4o da Franz Russo

    Questo già ci dice molto di come effettivamente anche questi strumenti di verifica possono essere utili o addirittura affidabili.

    Piccoli suggerimenti per riconoscere immagini IA

    Per cercare poi di offrire qualche suggerimento su come accorgerci del fatto che queste situazioni, alcune immagini, possono sembrare artefatte, ecco alcuni dettagli:

    • lo sfondo, magari un po’ confuso;

    • scritte non precise;

    • mani, che erano un grande problema per DALL·E 3;

    • oppure la pelle, che è sempre perfetta, molto liscia, e quindi già di per sé ti porta a pensare che sia un’immagine artefatta, anche se in alcuni casi anche questo dettaglio è in netto miglioramento,

    • o addirittura l’esposizione della luce, che in alcuni contesti è quasi irrealistica: quel tipo di luce difficilmente può essere naturale.

    Oppure ancora, cercare di avvalersi sempre della ricerca inversa, quindi utilizzare motori di ricerca – ad esempio Google Immagini – sottoponendo i contenuti per avere una risposta dal motore di ricerca sul fatto che quell’immagine sia stata già utilizzata in altri contesti o meno.

    Anche perché è capitato, anche di recente, che alcune immagini realizzate con intelligenza artificiale—quindi neanche con modelli di ricerca tanto evoluti, perché l’evoluzione l’abbiamo avuta molto molto di recente—siano stati confusi come contenuti realistici.

    Quindi il senso di responsabilità, da parte nostra, ormai è imprescindibile. Non possiamo che fare affidamento a quel senso di responsabilità, alla consapevolezza del fatto che stiamo utilizzando strumenti che in alcuni contesti possono generare contenuti potenzialmente di disinformazione.


    Guarda il video


    Anche la ghilbizzazione aiutare a confondere

    Anche lo stesso fenomeno della ghiblizzazione, di cui abbiamo parlato anche in un altro video, è uno di quegli elementi che ci porta a trasformare quella che è la realtà in un contesto diverso: più armonioso, più pastellato, più colorato, più dolce.

    Ma anche quello diventa una situazione per mascherare altre situazioni irrealistiche. Condividerle in un contesto completamente diverso, anche quello è un potenziale rischio di disinformazione.

    meme ghiblizzazione franz russo
    Celebre meme con ghiblizzazione

    Quindi, rispetto anche alla potenzialità, al modo in cui noi possiamo effettivamente affrontare questo, è sicuramente importante conoscere meglio i modelli. E quindi avvalerci di quella competenza, AI Literacy, conoscenza approfondita dei modelli. Dobbiamo prestare attenzione su come utilizziamo questi modelli e per cosa li vogliamo usare.

    Che sia per uso personale, per lavoro, per tutte le attività che facciamo, dobbiamo prestare sempre molta attenzione e affidarci a un senso di responsabilità. Chiederci sempre:
    qual è la motivazione che mi porta a usare questo modello?
    Cosa voglio davvero fare?

    E imparare, anche noi utenti, a riconoscere sempre meglio queste immagini, a sapere che tipo di immagine abbiamo davanti, a saperle riconoscere ed evitare che diventiamo anche noi potenziali diffusori di disinformazione.

  • Meta AI usa i nostri dati e non si può disattivare, alcune considerazioni

    Meta AI usa i nostri dati e non si può disattivare, alcune considerazioni

    Meta AI è arrivata da poco in Italia. Ma ci sono due aspetti che vanno approfonditi: l’uso dei dati pubblici degli utenti e l’impossibilità di disattivare l’IA. In questo articolo provo a verificare le implicazioni, tra privacy, consenso. E anche un confronto con Grok di X.

    Come sapete, Meta AI è attivo anche in Italia da qualche giorno. È arrivato anche su WhatsApp, dove praticamente tutti gli utenti hanno visto questa iconcina circolare che, una volta attivata, risponde a delle domande e a dei problemi.

    Per cercare di chiarire il motivo di questa considerazione, che si basa essenzialmente su due elementi, provo ad essere un po’ più chiaro, per farvi entrare nella logica di ciò che dirò più tardi, soprattutto su questi due punti.

    Un assistente a tratti invadente

    Immaginiamo di essere in una grande stanza e di osservare ciò che accade, accompagnati da una persona che chiameremo il nostro assistente particolare.

    Quando abbiamo qualcosa da chiedere, ci rivolgiamo a questo assistente che risponde alle nostre domande in maniera molto precisa e dettagliata, offrendo anche la possibilità di approfondire successivamente.

    Intanto, continuiamo il nostro giro in questo palazzo osservando tutte le stanze: in ogni stanza c’è qualcosa che ci incuriosisce, e chiediamo al nostro assistente.

    Il problema è che questo assistente ci segue in continuazione, anche quando non lo interpelliamo: ci osserva, ascolta le nostre azioni, guarda con chi parliamo e ascolta cosa diciamo con le altre persone che incontriamo.

    Il problema sorge quando ci accorgiamo che questa presenza diventa, ad un certo punto, pesante e vorremmo mandarla via, ma non riusciamo a trovare un modo per farlo. Non c’è la possibilità, per così dire, di disattivarla.

    MetaAI usa i nostri dati e non si può disattivare, alcune considerazioni
    MetaAI usa i nostri dati e non si può disattivare, alcune considerazioni

    Il primo problema di Meta AI: l’uso dei dati pubblici

    Ed è qui che entro sul tema, cercando di spiegare i due elementi cardine che riguardano Meta AI (e non solo).

    Intanto, MetaAI è presente in Unione Europea dal 20 marzo, dopo aver – per così dire – migliorato la sua aderenza, la sua compliance, al GDPR.

    Il GDPR, questo regolamento sulla protezione dei dati entrato in vigore in Unione Europea nel 2018, ha rivoluzionato il modo in cui vengono gestiti i dati.

    Ebbene, ci sono due aspetti che meritano attenzione.

    Il primo è che, inizialmente, avevo creduto che Meta AI non usasse i nostri dati per allenare la sua intelligenza. In realtà, le cose sono diverse. Se provate a chiedere a MetaAI, su Facebook, Instagram o WhatsApp, se utilizza i vostri dati, la risposta standard è: “No, non utilizzo i dati“. Tuttavia, la realtà è più complessa.

    Meta AI usa i dati pubblici degli utenti

    Meta AI usa i dati pubblici degli utenti: per “dati pubblici” intendo i post, le immagini e i commenti resi visibili a tutti. Questo significa che, per evitare di dare in pasto i nostri contenuti all’intelligenza artificiale, bisognerebbe passare in modalità privata. Nella modalità privata l’IA non riuscirebbe a prelevare i dati che non vogliamo rendere pubblici.

    Questo approccio non va proprio nella direzione del GDPR, il cui fondamento è il consenso informato e la capacità di controllo da parte dell’utente all’interno delle piattaforme digitali.

    Cosa c’è all’interno del Privacy Center

    All’interno del Privacy Center non è ben spiegato se e come si debbano pubblicare i nostri contenuti. Meta non dà spazio a questo aspetto; il link di riferimento, che fornirò in calce al video, spiega che se non volete che MetaAI utilizzi i vostri dati, dovete passare in modalità privata. Questa soluzione, però, può essere valida per alcuni e meno per altri.

    Parliamo di consapevolezza: è importante che, da un lato, la piattaforma fornisca l’informazione corretta e, dall’altro, che ciascuno adotti l’atteggiamento giusto nella condivisione dei contenuti. Solo in questo modo possiamo essere consapevoli e responsabili dell’uso dei nostri dati.

    Secondo problema di Meta AI: non può essere disattivata

    Il secondo elemento, che cozza maggiormente con il GDPR, è il fatto che l’intelligenza artificiale non può essere disattivata. Non esiste un tasto o un’opzione che permetta all’utente di scegliere se utilizzare o meno l’IA.

    L’unica cosa possibile, in assenza di una modalità di disattivazione, è di non utilizzarla: di non interpellarla, di non fare in modo che possa entrare nelle vostre conversazioni. Ma l’IA si alimenta delle richieste (i cosiddetti prompt), dei risultati e delle risposte, continuando a prelevare dati.

    Da tutte le piattaforme – Instagram, Messenger, WhatsApp e Facebook – le risposte pubbliche attingono anche ai risultati pubblici, senza possibilità di disattivare l’IA. Questo ulteriore elemento non collima con il GDPR, perché non offre la possibilità di scegliere.

    Il confronto con Grok di X

    Se volessimo fare un paragone, ci riferiremmo a Grok di X (la piattaforma che prima era Twitter, di proprietà di Elon Musk). Grok, che è l’IA di X, funziona in maniera simile: è integrato nella piattaforma, usabile anche senza abbonamento (con alcune limitazioni) fino alla versione Premium+. Anche Grok, comunque, utilizza di default i dati pubblici degli utenti, non appena si attiva un account.

    L’unica azione possibile è quella di andare nelle impostazioni della privacy, nella sezione dedicata a Grok, e disattivare l’opzione di raccolta dati pubblici. Attenzione: se si effettua questa operazione, Grok continuerà a utilizzare i dati già condivisi, mentre solo i dati futuri non verranno più prelevati.

    Un ulteriore elemento è la possibilità di eliminare la cronologia delle conversazioni con l’IA. Pur essendo un aspetto leggermente più in linea con il GDPR, sul consenso informato rimane comparabile a MetaAI.

    In sintesi, stiamo parlando di due esperienze molto simili che, da un lato, permettono un minimo di controllo. Anche Grok suggerisce, come ultima ipotesi, di passare in modalità privata per evitare che i propri dati vengano prelevati. Tuttavia, questo comporta una significativa riduzione nella visibilità e nelle condivisioni dei propri contenuti.

    Grok (X) Meta AI
    Opt-out disponibile ✅ Sì ⚠️ Sì, ma difficile da trovare
    Disattivazione IA ✅ Parziale (nessuna interazione) ❌ No
    Consenso esplicito ❌ No ❌ No
    Trasparenza IA ⚠️ Media ❌ Bassa
    GDPR compliance 🟡 In dubbio, ma più avanzato 🔴 Più problematico

    La IA entra nelle piattaforme digitali per cambiarle 

    Quindi, si tratta di un passaggio inevitabile: l’intelligenza artificiale sta entrando nelle piattaforme digitali e, come già anticipato in un mio video precedente, questo cambierà radicalmente il nostro modo di interagire non solo con le piattaforme ma anche tra di noi.

    Le relazioni e le conversazioni tra utenti saranno inevitabilmente influenzate dall’uso dell’IA. Dobbiamo farlo in maniera informata e consapevole, sapendo se i nostri dati saranno dati in pasto all’intelligenza artificiale e avendo la possibilità di scegliere, in linea con il consenso informato richiesto dal GDPR.

    Il GDPR poggia la sua intera esistenza su questo principio: anche se non c’è un obbligo esplicito, la dichiarazione di consenso dovrebbe far parte dell’esperienza dell’utente, permettendogli di scegliere se concedere i propri dati.

     

    Questi sono, in sostanza, i due elementi che rendono Meta AI un caso particolare.

    Adesso bisognerà osservare se Meta intende, in questo scenario globale – complicato da aspetti geopolitici, finanziari e normativi – adeguarsi pienamente al regolamento europeo. Vedremo anche come reagirà l’Unione Europea a questi due punti critici, soprattutto considerando le tensioni nei rapporti con gli Stati Uniti e l’eventuale questione dei dazi e della web tax che colpiranno le big tech.

    Non è uno scenario facile, e vedremo come evolveranno le cose. Ci interrogheremo se Meta AI diventerà più conforme al GDPR.

    Condividete le vostre esperienze e i vostri pensieri: se Meta AI è stata utilizzata, se eravate informati sull’uso dei vostri dati. Fatemelo sapere nei commenti.

     

  • Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA

    Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA

    Secondo il NYT, la UE sarebbe pronta a sanzionare X per violazione del Digital Services Act. Il caso potrebbe trasformarsi in un nuovo conflitto tra UE e USA, e accentuare le tensioni già alle stelle per via dei dazi.

    Secondo il  New York Times ci si avvicina ad un possibile scontro tra l’Unione Europea e X, la piattaforma social di Elon Musk. Scontro da molti già prospettato in precedenza.

    Secondo quanto riportato, le autorità UE starebbero preparando una sanzione che potrebbe superare il miliardo di dollari. L’accusa rivolta a X è di aver violato il Digital Services Act (DSA), la normativa comunitaria che regola i servizi digitali e impone alle grandi piattaforme di contrastare contenuti illeciti e disinformazione.

    Non è una notizia da poco. Si tratta di un segnale forte, che potrebbe segnare un punto di svolta nei rapporti tra Bruxelles e le big tech americane, con ricadute che vanno ben oltre il destino della piattaforma di Musk.

    Il contesto: il Digital Services Act e  il controllo digitale

    Per capire di cosa stiamo parlando, è necessario fare un passo indietro.

    Il Digital Services Act, entrato in vigore nel 2024, è il pilastro della strategia europea per regolamentare il selvaggio west del digitale.

    L’obiettivo è garantire che le piattaforme con più di 45 milioni di utenti nell’UE – come X – adottino misure rigorose contro la diffusione di contenuti illegali, dalla propaganda estremista alla disinformazione sistematica.

    Le sanzioni per chi non si adegua possono arrivare fino al 6% del fatturato globale annuo, una cifra che, nel caso di X, potrebbe tradursi in una multa monstre.

    L’indagine su X non è una novità.

    Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA
    Sanzioni UE a X di Elon Musk, scenari e tensioni con gli USA

    Indagine su X avviata a fine 2023

    Già a dicembre 2023, la Commissione Europea aveva aperto un fascicolo per verificare se la piattaforma rispettasse le nuove regole, concentrandosi su questioni come la gestione delle “spunte blu” a pagamento – accusate di favorire account falsi – e la trasparenza nella moderazione dei contenuti.

    Ora, a quanto pare, Bruxelles è pronta a passare dalle parole ai fatti. L’articolo del NYT cita fonti anonime vicine all’indagine, secondo cui la multa potrebbe essere annunciata nell’estate del 2025. Accompagnata da richieste di modifiche strutturali alla piattaforma.

    Un colpo diretto non solo a X, ma anche a Elon Musk, figura controversa, che da anni si scontra con le autorità europee sulla sua visione di una libertà di espressione senza filtri. E che oggi ricopre un ruolo di rilievo all’interno dell’amministrazione Trump.

    I possibili scenari, cosa succede se la sanzione diventa realtà

    Se l’UE dovesse confermare la sanzione, gli scenari possibili sono molteplici.

    Il primo, e più immediato, è quello economico. Una multa superiore al miliardo di dollari metterebbe sotto pressione X, già alle prese con un calo di utenti e introiti pubblicitari dopo l’acquisizione da parte di Musk nel 2022. E che di recente è stata acquisita da xAI per 33 miliardi di dollari.

    Ma non si tratterebbe solo di soldi. L’Europa potrebbe imporre cambiamenti operativi – come una revisione degli algoritmi o un rafforzamento della moderazione – che Musk ha sempre osteggiato, considerandoli una forma di censura.

    Poi c’è lo scenario politico. X potrebbe decidere di resistere, magari ritirandosi dal mercato europeo per evitare di piegarsi alle regole del DSA.

    Una mossa estrema, ma non del tutto improbabile, visto il carattere di Musk e le sue recenti prese di posizione contro Bruxelles. In alternativa, la piattaforma potrebbe adeguarsi, ma a costo di perdere parte della sua identità “libertaria”. Da ricordare la vicenda del Brasile.

    Infine, c’è lo scenario diplomatico, quello più complesso. Una sanzione di questa portata non resterebbe un affare tra l’UE e X. Si colpirebbe un simbolo del potere tecnologico americano, guidato da un uomo che è anche uno dei più stretti alleati del presidente Donald Trump. E qui entra in gioco il contesto più ampio.

    Le tensioni tra Usa e UE, dai dazi allo scontro sul digitale

    Le relazioni tra Stati Uniti e Unione Europea non sono mai state così fragili.

    Con l’entrata in vigore dei dazi annunciati da Trump due giorni fa – tariffe del 25% su acciaio, alluminio e auto, seguite da altre su semiconduttori e farmaceutici – il tutto si è trasformato in un campo di battaglia commerciale.

    L’UE ha idea di rispondere con propri dazi, rinviati al momento al 13 aprile, ma la rappresaglia potrebbe presto prendere di mira i giganti digitali americani, come suggerito dal leader del PPE Manfred Weber: “Se Trump colpisce i nostri beni, noi puntiamo sui loro servizi”.

    In questo clima di guerra fredda economica, la sanzione a X rischia di essere percepita come un attacco diretto agli interessi americani.

    Musk, a capo del Department of Government Efficiency (DOGE) nella nuova amministrazione Trump, non è solo un imprenditore: è. Oggi è un attore politico di peso, con un’influenza che spazia ovunque.

    L’UE, dal canto suo, sembra voler usare X come esempio per dimostrare che nessuno è al di sopra delle sue leggi. Una mossa che potrebbe innescare una reazione a catena.

    Trump, che ha già minacciato di far uscire gli USA dalla NATO in risposta a mosse ostili, potrebbe vedere nella multa addirittura un affronto personale, esasperando ulteriormente le tensioni transatlantiche.

    La risposta di X in cui parla di censura

    X non è rimasta in silenzio. In un post pubblicato sulla piattaforma, la società ha replicato con toni decisi: “L’UE vuole punirci per aver difeso la libertà di parola. Il Digital Services Act è un’arma di censura, non una legge per la sicurezza. Non ci piegheremo”.

    Un messaggio che riflette la linea dura di Musk, pronto a trasformare la vicenda in una crociata ideologica.

    Nessuna apertura al dialogo, nessuna promessa di adeguamento. Solo la sfida aperta a Bruxelles, con un richiamo implicito al sostegno di Trump e dei suoi follower.

    Le big tech si rivolgono a Trump per pressioni su UE

    Non è un caso che, negli ultimi mesi, i grandi nomi della Silicon Valley abbiano intensificato i contatti con l’amministrazione Trump.

    Mark Zuckerberg, ad esempio, in un’intervista al podcast Joe Rogan Experience del 18 gennaio 2025, ha dichiarato: “Gli Stati Uniti dovrebbero difendere le loro aziende tecnologiche. È un vantaggio strategico che non possiamo perdere”.

    Una posizione che sembra un appello diretto a Trump per contrastare le mosse dell’UE, come il DSA o il Digital Markets Act, percepiti come minacce al dominio americano nel digitale.

    Anche Sam Altman, CEO di OpenAI, ha reso la sua donazione alla campagna di Trump, un gesto che alcuni interpretano come un tentativo di assicurarsi un alleato contro eventuali ritorsioni europee.

    Musk, dal canto suo, non ha bisogno di chiedere favori. Il suo legame con Trump è già solido, cementato da anni di sostegno politico e finanziario.

    Il futuro in bilico tra Usa e UE

    La vicenda di X e dell’UE è molto più di una disputa legale. È un capitolo di una storia più grande, quella di un mondo ormai diviso tra visioni opposte.

    Da un lato, l’Europa che cerca di imporre regole per proteggere i cittadini e la democrazia; dall’altro, un’America che vede nel controllo digitale una minaccia alla sua egemonia.

    Le sanzioni, se dovessero arrivare, non sarebbero solo un conto da pagare per Musk. Sarebbero un test per capire fino a che punto le tensioni transatlantiche possono spingersi prima di spezzare qualcosa di irreparabile.

    E noi, come sempre, staremo qui ad osservare ed interpretare gli eventi, cercando di decifrare un futuro che oggi si scrive anche a colpi di post.

  • Ci informiamo sui social media, ma non ci fidiamo

    Ci informiamo sui social media, ma non ci fidiamo

    I social media hanno superato la TV come mezzo principale per informarsi, ma la fiducia verso queste piattaforme è molto bassa. Il rapporto AGCOM ci restituisce la fotografia di una informazione debole e la conferma dell’algoritmo del proprietario.

    Secondo quanto emerge dall’Osservatorio annuale sul sistema dell’informazione 2025 pubblicato da AGCOM, nel 2023 i social media hanno superato la televisione come principale mezzo di informazione per gli italiani.

    Si tratta di un sorpasso che possiamo definire storico. E che segna una svolta nel modo in cui le persone si informano quotidianamente.

    Va detto che questo primato non si accompagna a un incremento della fiducia da parte degli utenti. Al contrario, i social si confermano tra le fonti ritenute meno affidabili.

    E qui siamo nella dimensione del paradosso, o quasi.

    Come si informano gli italiani: il ruolo crescente dei social media

    Nel dettaglio, il rapporto evidenzia che:

    • il 19,8% degli italiani utilizza i social media come primo strumento per accedere all’informazione online;
    • seguiti da motori di ricerca (17,9%) e siti di quotidiani/periodici (11,8%);
    • il 50,5% degli utenti iscritti a social media dichiara di venire a conoscenza delle notizie sui social prima che da qualsiasi altro mezzo.

    Con questi numeri, i social media superano la televisione, che si attesta al 46,5% come uso informativo nel giorno medio, in calo costante rispetto al 67,4% del 2019.

    Interazioni superficiali e partecipazione limitata

    Il rapporto AGCOM evidenzia anche come gli utenti tendono ad avere un comportamento prevalentemente passivo rispetto all’informazione ricevuta sui social media:

    • il 43,4% si limita a cliccare sui link;
    • il 40,7% mette un like;
    • solo il 16,9% commenta, il 12,6% condivide e appena il 6,1% avvia una discussione;
    • il 25,1% non compie alcuna azione rispetto alle notizie visualizzate.

    Curiosamente, gli utenti over 65 si dimostrano spesso più attivi dei giovani nei commenti e nelle interazioni, a smentire il luogo comune di una fruizione più passiva da parte delle generazioni meno digitalizzate.

    Fiducia ai minimi storici per i social media

    Nonostante la centralità sempre maggiore nel consumo informativo, la fiducia nei social media resta bassa:

    • solo il 15,7% degli italiani esprime alta fiducia nei social come fonte d’informazione;
    • il 30,2% manifesta bassa fiducia;
    • i social si posizionano penultimi nella classifica delle fonti più affidabili, seguiti solo dalle piattaforme video;
    • anche tra i giovani (14-24 anni), che usano i social in modo intensivo, cresce il numero di chi non nutre fiducia in alcuna fonte informativa.

    La relazione tra uso e fiducia non è lineare: chi usa intensamente un mezzo tende ad averne più fiducia, ma nel caso dei social media questa correlazione è debole. Il dato appare ancora più significativo se confrontato con la fiducia nella televisione, che rimane alta soprattutto tra gli over 65 (44,5%).

    Un ecosistema informativo fragile e sbilanciato

    L’analisi di AGCOM conferma che l’informazione è sempre più mediata da piattaforme digitali. E che questo passaggio ha generato una informazione sempre più debole. Sempre più esposta a manipolazioni e a deformazioni.

    La prevalenza dei social nel ruolo di gatekeeper dell’informazione non garantisce qualità, affidabilità o trasparenza.

    Questa tendenza si inserisce perfettamente nelle riflessioni che sto affrontando negli ultimi mesi. Dall’erosione della fiducia digitale all’algoritmo del proprietario, fino alla crescente polarizzazione dell’informazione.


    Guarda il video:


    I social media diventano lo spazio principale dove l’informazione viene vista, ma non dove si costruisce fiducia.

    Il contenuto viene costruito solo per essere visto e non, banalmente, per informare e per generare opinioni e conversazioni.

    Un divario che continuerà ad allargarsi finché non verrà affrontato con responsabilità, tanto da parte delle piattaforme quanto da chi crea contenuti.

    Il quadro che emerge è chiaro. I social media sono oggi la porta d’accesso privilegiata all’informazione per milioni di italiani. Ma a questa centralità non corrisponde un riconoscimento in termini di autorevolezza.

    É necessario concentrarsi sulla costruzione di contenuti che siano effettivamente informativi e che puntino alla qualità. Resto sempre convinto, infatti, che il contenuto equivalga ancora alla Relazione. Ma serve recuperare qualità e abbandonare il concetto di quantità che tanto piace all’algoritmo del proprietario.

    [Immagine ci copertina realizzata da Franz Russo attraverso il modello di intelligenza artificiale generativa ChatGPT-4o]

     

  • Meta AI arriva anche in Italia, la IA cambia i social media

    Meta AI arriva anche in Italia, la IA cambia i social media

    Meta AI debutta in Europa e Italia, precisamente in 41 paesi. Integra le piattaforme Meta senza usare dati utenti, rispettando GDPR. Segna l’evoluzione dei social media verso ecosistemi più intelligenti. Le piattaforme digitali si evolvono.

    Meta AI arriva in Unione Europea, e quindi anche in Italia. L’annuncio, del 19 marzo 2025, segna l’ingresso ufficiale dell’intelligenza artificiale di Meta in UE, dopo oltre un anno di disponibilità negli Stati Uniti.

    Al momento, sarà attivo in 41 paesi, risponderà in italiano e si integrerà nelle piattaforme di Meta: Facebook, Instagram, WhatsApp e Messenger.

    Un lancio atteso, ma non privo di limitazioni, che riflette il rispetto delle norme europee sulla privacy e offre uno spunto per riflettere sulla trasformazione dei social media.

    Il modello di Meta AI distribuito in Europa non utilizza i dati degli utenti di Facebook e Instagram, una scelta obbligata per conformarsi al GDPR e all’AI Act, entrato di recente in vigore. Non permetterà la generazione di immagini né sfrutterà le conversazioni degli utenti per generare contenuti in risposta alle loro richieste.

    Meta AI arriva anche in Italia, la IA cambia i social media
    Meta AI arriva anche in Italia, la IA cambia i social media

    Si tratta di restrizioni che spiegano il ritardo nell’espansione europea. A giugno 2024, Meta aveva già pianificato il debutto di Meta AI in Unione Europea, ma le istituzioni, in particolare l’Autorità irlandese per la protezione dei dati, avevano imposto un fermo, richiedendo il rispetto di una serie di regole. Ora, dopo mesi di adeguamenti, l’assistente è pronto a operare.


    Come si usa Meta AI?

    Meta AI sarà accessibile in diversi modi all’interno delle piattaforme Meta:

    • Su Instagram e Messenger, l’AI potrà essere attivata nei messaggi diretti.
    • Nei gruppi WhatsApp, gli utenti potranno menzionare @MetaAI per porre domande e ricevere risposte contestualizzate.
    • Nei commenti su Facebook, Meta AI potrà essere interpellata per fornire approfondimenti.
    • Sul sito meta.ai, l’assistente sarà disponibile come chatbot.

    L’icona blu di Meta AI segnalerà chiaramente la sua presenza, e per attivarlo basterà digitare @MetaAI seguito da una richiesta.

    Gli esempi di utilizzo più comuni? Si potrà chiedere all’AI di fornire informazioni in tempo reale all’interno di conversazioni su WhatsApp o di intervenire in discussioni su Instagram e Facebook.


    Per attivarlo, comparirà un’icona blu nei messaggi di Instagram e nei gruppi WhatsApp, oppure basterà scrivere “@MetaAI” seguito da un prompt, una richiesta esplicita. L’intelligenza artificiale risponderà a domande o interverrà nelle conversazioni, come chiedere suggerimenti in un gruppo WhatsApp o fornire informazioni rapide su Instagram. Ogni contenuto generato da Meta AI sarà chiaramente identificato, in linea con le disposizioni dell’AI Act.

    Le piattaforme digitali cambiano con la IA

    Questa novità non è solo un aggiornamento tecnologico, ma la dimostrazione di un cambiamento profondo nelle piattaforme digitali. L’intelligenza artificiale non è più confinata a un algoritmo che decide cosa mostrare, il cosiddetto “algoritmo del proprietario”, che sempre più spesso privilegia i contenuti graditi alla piattaforma stessa, trascurando gli interessi reali degli utenti.

    Ora, l’AI diventa un elemento attivo nella generazione di contenuti all’interno delle conversazioni tra utenti. Meta AI alimenterà un’ulteriore chiusura degli spazi digitali, trattenendo gli utenti all’interno delle piattaforme con risposte immediate e personalizzate, rafforzando il fenomeno delle bolle informative.

    MetaAI e l’addio al fact-checking

    Il lancio di Meta AI coincide con un altro sviluppo significativo: Meta ha abbandonato il fact-checking tradizionale e sta testando, negli Stati Uniti, le Community Notes, un sistema che affida agli utenti la validazione delle informazioni nei post. Questo approccio arriverà anche in Italia e vedrà probabilmente un ruolo per l’intelligenza artificiale.

    In Europa, va precisato, le regole sulla privacy limiteranno l’impatto di queste innovazioni, mantenendo un equilibrio tra tecnologia e protezione dei dati.

    Le piattaforme digitali, con Meta AI, si trasformano in assistenti in tempo reale e motori di ricerca integrati. Gli utenti potranno interrogare l’AI senza uscire dalle app, un modello che espanderà il loro ruolo oltre la semplice comunicazione.


    Guarda il video


    In futuro, Meta AI potrebbe generare contenuti automatici, incluse immagini, come già accade fuori dall’Unione Europea.

    L’esempio di Grok su X

    Un esempio parallelo è X, dove Grok, l’AI di Elon Musk, interviene direttamente nelle conversazioni quando richiamato con “@Grok”, rispondendo su argomenti specifici. A differenza di Grok, che opera come un bot con una sezione dedicata e un’app stand-alone negli Stati Uniti, Meta AI si integra nativamente nelle conversazioni, un aspetto che sottolinea la direzione verso una presenza sempre più pervasiva dell’AI.

    Le piattaforme social media, con la IA da strumenti ad assistenti

    Questo cambiamento ridefinisce le piattaforme digitali, nate come strumenti per connettere gli utenti, ma ora sempre più orientate a diventare ecosistemi autonomi.

    Lo sviluppo di Meta AI in Italia dipenderà da come gli utenti lo accoglieranno: sarà un intervento minimo, senza impatto sulle conversazioni, o un elemento centrale nella loro evoluzione?

    Nei prossimi mesi, osserveremo come tutto questo si inserirà nel nostro contesto e quale percorso prenderà.

     

  • Community Notes di Meta, al via il test negli Usa

    Community Notes di Meta, al via il test negli Usa

    Community Notes fa il suo debutto sulle piattaforme Meta, per ora solo in fase di test negli Usa. Il modello è analogo a quello adottato sulla piattaforma X. Esempio di partecipazione collettiva che potrebbe comportare molti rischi.

    Community Notes ha fatto il suo debutto negli Usa proprio ieri, 18 marzo 2025.

    Come ricorderete, circa un mese fa Meta aveva annunciato il lancio di questo nuovo programma che sostituisce il fact-checking tradizionale, tramite un post su Threads.

    Ora ci siamo. La fase di test è iniziata, per ora solo negli Stati Uniti. Segna un cambio di rotta nella gestione dei contenuti sulle piattaforme di Mark Zuckerberg. Ispirandosi esplicitamente a quanto già vediamo su X.

    Meta lo ha comunicato in modo chiaro: da ieri, un gruppo selezionato di utenti americani può usare le Community Notes su Facebook, Instagram e Threads.

    L’idea alla base delle Community Notes

    L’idea è semplice: consentire agli utenti di aggiungere note a post con informazioni fuorvianti o incomplete, sul modello di X. Queste note diventano visibili a tutti solo se ricevono abbastanza valutazioni positive dalla comunità.

    Si tratta, insomma, di una sorta di sistema di crowdsourcing che prende il posto del fact-checking di terze parti. Un passaggio che Zuckerberg aveva anticipato all’inizio dell’anno.

    Le Community Notes di Meta, come quelle di X, sono uno strumento collaborativo. Gli utenti possono segnalare un post e aggiungere una nota con correzioni o informazioni aggiuntive, supportate da fonti verificabili.

    Community Notes di Meta, al via il test negli Usa
    Community Notes di Meta, al via il test negli Usa

    La fase di test per ora negli Usa

    Durante la fase di test, Meta monitorerà la creazione e la valutazione di queste note per capire se riescono a contrastare la disinformazione. Il sistema parte in modo graduale ma coinvolge tutte e tre le piattaforme principali: Facebook, Instagram e Threads.

    Negli Usa, il programma di fact-checking tradizionale sarà abbandonato del tutto, una scelta non priva di rischi.

    Community Notes di Meta, non ancora in Italia

    Per ora, in Italia, le Community Notes non arriveranno. L’avvio dei test negli Usa lascia pensare che i tempi per un’estensione in Europa potrebbero non essere troppo lontani.

    Questo approccio ha un lato positivo che mira ad affidare il controllo agli utenti, rendendo le piattaforme più aperta e partecipativa. Ma c’è un rovescio della medaglia, legato alle competenze e alla preparazione di chi valuta.

    Non serve una conoscenza specifica per intervenire; basta partecipare a un sistema di valutazione collettiva per verificare i contenuti segnalati. E qui si apre un tema cruciale.

    Il confronto con Community Notes di X

    Rispetto a X, che conta circa 580 milioni di utenti registrati su un’unica piattaforma, Meta gestisce tre realtà ben più grandi: Facebook con oltre 3 miliardi di utenti e Instagram con oltre 2 miliardi, per non parlare di Threads.

    Piattaforme di questa scala, se controllate dagli utenti, rischiano di ritrovarsi con valutazioni imprecise sui contenuti. E le conseguenze sono evidenti a tutti.

    Su X, le Community Notes in alcuni casi riescono a trovare un punto di equilibrio – persino Elon Musk ha dovuto cancellare contenuti oggettivamente falsi dopo le segnalazioni. Ma molti sono i casi di valutazioni molto discutibili.

    Rischio di diffondere informazioni poco affidabili

    In molti casi, dimostrato da alcune ricerche recenti, le Community Notes su X hanno avuto un approccio limitato verso la disinformazione, concentrandosi solo sulla falsità oggettiva e trascurando il contesto storico, sociale, culturale, economico e politico che spesso accompagna le narrazioni malevoli.

    Su Meta, con numeri così alti, questo fenomeno potrebbe amplificarsi. Il rischio è che informazioni vere vengano messe in discussione da gruppi di utenti con opinioni diverse o che si affidino a fonti errate, deviando il giudizio finale su un contenuto.

    Uno degli aspetti critici, che vengono mossi anche nei confronti delle Community Notes di X, è che spesso queste valutazioni arrivano quando già il post ha raggiunto l’apice della sua visibilità. Di conseguenza, le valutazioni degli utenti potrebbero risultare davvero poco efficaci.

    Community Notes di X e le sue contraddizioni

    Inoltre, va aggiunto che spesso le note che vengono apposte su X fanno riferimento, come base di informazione oggettiva, ai siti di informazione costantemente attaccati da Musk. Questo è vero a tal punto che lo stesso Musk nei giorni scorsi si è lanciato a dire che presto “tutto questo verrà sistemato”. Ennesimo esempio di “algoritmo del proprietario”.

    Per tutto questo che abbiamo visto finora, il sistema va monitorato con attenzione.

    Non sappiamo ancora quanto durerà il test negli Usa né quando arriverà in Europa o in altri paesi. Quel che è certo è che si tratta di un momento importante, soprattutto nel contesto attuale.

    Serve osservare come evolverà, perché se da un lato punta a ridurre la disinformazione, dall’altro potrebbe generare nuove sfide.

    Qui in basso trovate il mio video podcast – lo trovate su YouTube – dove approfondisco questi aspetti.

     

  • Perché Zuckerberg e Musk si comportano come Cesari del Digitale

    Perché Zuckerberg e Musk si comportano come Cesari del Digitale

    Al SXSW 2025 Jay Graber, CEO di Bluesky, si è presentata con una maglietta “Mundus sine caesaribus”. Chiaro riferimento a Zuckerberg e alle sue magliette “Aut Zuck aut nihil”. Il fatto è che Zuckerberg e Musk si rifanno al mito dell’Antica Roma e si immaginano nuovi Cesari.

    Al SXSW 2025, Jay Graber, CEO di Bluesky, ha indossato una maglietta con la scritta “Mundus sine caesaribus”, un mondo senza Cesari.

    Una risposta diretta a Mark Zuckerberg, che è solito mostrare la sua t-shirt con la frase “Aut Zuck aut nihil”, ovvero “O Zuck o niente”.

    Questo botta-e-risposta in latino rivela qualcosa di più, in realtà. E cioè, l’interesse di Zuckerberg (e non solo lui) per l’antica Roma, come modello per il mondo digitale.

    Zuckerberg e la passione per Roma

    Mark Zuckerberg non hai fatto mistero della sua passione per l’antica Roma.

    Come forse molti di voi già sapranno, ha studiato latino al liceo; ha scelto Roma per la sua luna di miele e ha dato alle sue figlie nomi come Maxima, August e Aurelia, ispirati chiaramente alla tradizione di Roma.

    Attraverso Meta, che comprende piattaforme come Facebook, Instagram e WhatsApp, gestisce un ecosistema digitale che raggiunge miliardi di utenti. La frase “Aut Zuck aut nihil” non è solo un dettaglio. Riflette il suo desiderio di lasciare un segno duraturo, simile a quello degli imperatori romani.

    Jay Graber, CEO Bluesky
    Jay Graber, CEO Bluesky

    E soprattutto di immaginarsi moderno Cesare alla guida di un impero digitale.

    Da questo punto di vista, si può spiegare il perché di tante sue azioni che sono in netto contrasto con il Zuckerberg che tutti hanno imparato a conoscere.

    Mark Zuckerberg, "Aut Zuck, aut nihil"
    Mark Zuckerberg, “Aut Zuck, aut nihil”

    Di recente ha abbracciato le politiche di Trump; ha deciso di abbandonare il fact-checking su Facebook e Instagram introducendo le Community Notes; la sua visione è sempre più simile ad un altro personaggio che agisce come moderno Cesare.

    Mark Zuckerberg, Cesare
    Mark Zuckerberg, Cesare – creata con Grok 3

    Elon Musk e la visione di un nuovo impero

    E il riferimento è proprio a lui: a Elon Musk.

    Anche Musk guarda a Roma come fonte di ispirazione e come modello per gestire il suo impero.

    Nel 2023, lo ricorderete certamente, aveva proposto a Zuckerberg un duello al Colosseo, un’idea che richiama l’immaginario romano. E si era andati vicinissimi a questa follia.

    Elon Musk, condottiero romano
    Elon Musk, condottiero romano – creata con Grok 3

    Musk vede nei suoi progetti – come la colonizzazione di Marte o la stessa gestione di X – un’espansione simile a quella di un impero.

    X, in particolare, è diventato uno spazio in cui influenza il discorso pubblico globale, un ruolo che richiama il controllo esercitato dagli imperatori sulle piazze romane.

    Musk si immagina come un Cesare da cui dipende la stessa libertà di parola, il free speech, che non deve mai contraddirlo.


    Guarda il video


    Meta e X come strumenti di influenza

    Meta e X non sono più semplici piattaforme social. Sono infrastrutture fondamentali per il flusso di informazioni. Lo vediamo tutti i giorni.

    Attraverso le loro piattaforme, Zuckerberg e Musk esercitano un’influenza evidente su notizie, opinioni e dinamiche culturali.

    Negli ultimi anni, entrambi hanno assunto posizioni più nette: Musk ha orientato X verso un approccio che amplifica certe narrazioni, esempio di algoritmo del proprietario; mentre Zuckerberg è passato da una apparente neutralità ad una figura sempre più schierata, mantenendo il controllo sugli algoritmi.

    Questo potere, se ci pensiamo, richiama il modo in cui gli imperatori romani governavano le loro province.

    zuckerberg musk cesari del digitale
    zuckerberg musk cesari del digitale – creata con Grok 3

    Il mondo digitale come un nuovo impero

    L’interesse per Roma non è casuale.

    Zuckerberg e Musk sembrano voler modellare il mondo digitale seguendo un’idea di ordine e dominio. Musk utilizza X per orientare il dibattito pubblico, mentre Zuckerberg, attraverso Meta, influenza ciò che miliardi di utenti vedono ogni giorno.

    Entrambi aspirano a creare un sistema in cui le loro piattaforme dettano regole e priorità, un’eco moderna della Pax Romana, l’ordine imposto dall’Impero.

    Un fenomeno comune nelle Big Tech

    Questo legame con Roma non è esclusivo di Zuckerberg e Musk.

    Jeff Bezos, con Amazon, ha costruito un sistema logistico che richiama l’efficienza delle infrastrutture romane.

    Peter Thiel, fondatore di Palantir, paragona spesso il declino dell’Occidente a quello dell’Impero Romano, proponendo soluzioni tecnologiche per ristabilire l’ordine.

    È del tutto evidente che le Big Tech guardano a Roma come a un modello di potere e innovazione.

    Una situazione che è un monito per il futuro

    Per concludere, la maglietta di Jay Graber al SXSW 2025 porta con sé una riflessione: un mondo con troppi Cesari rischia di diventare insostenibile.

    Zuckerberg e Musk, con le loro piattaforme, non vogliono solo influenzare il presente, ma puntano a ridisegnare il futuro.

    Ma chi ne paga il prezzo? La risposta sarebbe “quasi sempre noi”.

     

  • Instagram, i reel e la visibilità: come cambia l’algoritmo

    Instagram, i reel e la visibilità: come cambia l’algoritmo

    Instagram continua a potenziare i Reel, ma la visibilità resta legata a regole che cambiano di continuo. Creator e brand devono inseguire l’algoritmo del proprietario per restare rilevanti.

    In attesa di capire quale sarà il futuro di TikTok negli Usa, i diretti competitor non stanno certo a guardare, anzi. Mentre si attende un segnale dall’amministrazione Trump, e mentre proseguono le trattative con diversi compratori che si sono fatti avanti, Instagram potenzia la sua strategia sui reel.

    Infatti, Instagram sta cambiando continuamente il modo in cui rende visibili i reel, cercando di riuscire a realizzare le condizioni ideali qualora gli utenti di TikTok si trovassero sprovvisti della loro app preferita.

    Una scelta che, se da un lato conferma l’importanza crescente dei contenuti video brevi sulla piattaforma, dall’altro pone nuove sfide per creator e brand che vogliono raggiungere un pubblico sempre più ampio e profilato.

    Già un anno fa, Instagram ha iniziato a fornire indicazioni precise sul funzionamento del proprio algoritmo. L’obiettivo dichiarato è permettere ai creator di comprendere meglio cosa favorisce (o penalizza) la visibilità dei loro contenuti. E, soprattutto, come migliorare la performance dei reel, il formato oggi più utilizzato e in costante crescita.

    Instagram, i reel e la visibilità: come cambia l’algoritmo
    Instagram, i reel e la visibilità: come cambia l’algoritmo

    Come funziona l’algoritmo dei reel su Instagram

    Innanzitutto, Instagram chiarisce che la visibilità dei reel è determinata principalmente dall’engagement. Quindi, quanto più un contenuto genera interazioni (visualizzazioni complete, like, commenti, condivisioni e salvataggi), tanto più l’algoritmo ne aumenterà la diffusione.

    Ma non solo. La piattaforma valuta anche altri fattori come l’originalità del contenuto, la coerenza tematica, e la qualità complessiva del video (risoluzione, audio, editing).

    Inoltre, recentemente è stato confermato che Instagram analizza con particolare attenzione la capacità di un reel di trattenere l’utente per tutta la durata del video. Quindi, i contenuti che riescono a catturare immediatamente l’attenzione e mantenerla alta dall’inizio alla fine sono premiati con una distribuzione maggiore.

    Da cosa dipende la visibilità di un reel

    In occasione di un evento per i creator a New York, Instagram ha praticamente evidenziato che adesso la lunghezza massima per i reel è di 3 minuti.

    Se ricordate, l’anno scorso Instagram continuava a ripetere che i video dovessero mantenersi tra i 30 e i 90 secondi come lunghezza massima. Questo per essere più performanti.

    E infatti, creator e brand si sono adeguati a questo standard, impostando tutte le loro strategie di contenuti video su questa lunghezza.

    Ma adesso tutto cambia. Infatti se l’algoritmo oggi considera una durata più lunga significa rivedere tutta la strategia per poter essere considerati dall’algoritmo. Una modifica che in realtà non risponde ad una diretta esigenza di creator o brand. No, risponde solo ad una diretta strategia commerciale di Meta che con Instagram vuole competere con TikTok.

    Cosa cambia nel dettaglio e cosa considera l’algoritmo:

    • Durata massima: i Reel adesso possono arrivare fino a 3 minuti, non c’è una indicazione precisa su una durata ideale.

    • Originalità: Instagram penalizza i Reel che mostrano chiaramente loghi o watermark provenienti da altre piattaforme, come TikTok.

    • Autenticità: sono penalizzati i Reel non realizzati direttamente da chi li condivide. Instagram favorisce contenuti creati in prima persona dall’autore.

    • Qualità video: è fondamentale pubblicare video con risoluzione alta per ottenere la massima visibilità; contenuti di bassa qualità visiva vengono penalizzati.

    Instagram e la logica dell’algoritmo del proprietario

    Questi continui cambiamenti introdotti da Instagram sono una chiara espressione di ciò che ormai definisco da un po’ di tempo come algoritmo del proprietario.

    Intendo dire, un algoritmo che riflette direttamente le decisioni strategiche e commerciali della piattaforma. Come è appunto questo caso.


    Algoritmo del proprietario e SNARF: la via di BuzzFeed per i social media


    Creator e brand si trovano così costretti ad adattarsi continuamente a regole mutevoli, che spesso non rispecchiano necessariamente gli interessi degli utenti, ma piuttosto quelli della piattaforma stessa.

    Un esempio pratico riguarda la durata ideale dei reel, che è stata modificata più volte nel corso dell’ultimo anno, costringendo gli utenti a ripensare continuamente le proprie strategie di contenuto.

    Questo sistema crea una dipendenza quasi assoluta dalla piattaforma, rendendo sempre più difficile costruire strategie di lungo periodo e ottenere una visibilità stabile e duratura.

    Oltre che contribuire ad abbassare la qualità dei contenuti.

    La durata dei reel, dai 15 secondi ai 3 minuti

    I Reels sono stati lanciati nel 2020 come risposta alla popolarità di TikTok, inizialmente con una durata massima di 15 secondi.

    Modifica che coincide con la competizione con TikTok, che già permetteva video di 3 minuti dal 2021.

    200 miliardi di reel visualizzati ogni giorno

    Nonostante il 70% dei contenuti su Instagram sia costituito da foto e immagini, il formato reel è comunque in grande crescita.

    Sono più di 200 miliardi i reel che vengono visualizzati ogni giorno su Instagram e Facebook.

    Si calcola che, in media, gli account Instagram con più di 50.000 follower caricano un reel ogni due giorni. E si prevede che i reel su Instagram saranno 1 miliardo entro il 2025.

    L’India è il mercato più grande per i reel di  Instagram, complice anche il divieto di TikTok. In Europa l’Italia è il terzo paese, dopo Germania e Uk.



    Meglio puntare sulla qualità dei contenuti

    Dopo questi numeri, è necessario concentrarsi su che tipo di messaggio e di contenuti video vogliamo condividere. Questo per evitare di restare troppo legati ai capricci degli algoritmi e finire per abbassare la qualità dei contenuti stessi.

    È sempre utile ricordare che la finalità principale delle condivisione di contenuti è quella di instaurare Relazioni. E questo vale ancora di più quando si parla dell’algoritmo del proprietario.

    Facciamo sempre in modo che a guidarci sia la qualità del contenuto e la qualità di ciò che davvero vogliamo comunicare.

     

  • Come funzionano le Community Notes di Meta

    Come funzionano le Community Notes di Meta

    Meta annuncia l’arrivo delle Community Notes su Facebook, Instagram e Threads. Gli utenti potranno aggiungere note ai post per contestualizzarli, con regole precise. Funzionerà meglio del fact-checking?

    In un post su Threads, Meta ha ufficialmente annunciato l’arrivo delle Community Notes su Facebook, Instagram e Threads.

    Come ricorderete, l’annuncio fu fatto da Mark Zuckerberg qualche settimana fa, introducendo il sistema che sposta la responsabilità della verifica delle informazioni direttamente nelle mani degli utenti.

    Questo segna la fine del tradizionale fact-checking gestito da organizzazioni indipendenti e porta con sé importanti implicazioni per l’informazione online.

    Ma come funziona esattamente questo nuovo meccanismo e quali sono i rischi e le opportunità?

    Come funzionane le Community Notes di Meta

    Fino ad oggi, il fact-checking sulle piattaforme Meta avveniva attraverso una rete di verificatori indipendenti, che esaminavano post segnalati e decidevano se fossero fuorvianti o falsi. Applicando eventualmente avvisi di contesto o limitandone la diffusione.

    Con le Community Notes, invece, tutto cambia. Il processo è decentralizzato, infatti saranno gli stessi utenti a proporre chiarimenti sui post e a determinarne l’affidabilità.

    Come funzionano le Community Notes di Meta
    Come funzionano le Community Notes di Meta

    Ma non tutti possono partecipare. Meta ha previsto specifici requisiti per diventare contributor alle Community Notes. È necessario: avere un account attivo da un certo periodo; rispettare le linee guida della piattaforma; mantenere un comportamento corretto.

    Inoltre, ogni nota proposta è valutata attraverso un sistema di consenso che richiede l’approvazione di utenti con visioni diverse per evitare manipolazioni.

    Un modello ispirato alle Community Notes di X

    Se questo sistema vi suona familiare, non è un caso. Si tratta di un modello già implementato da X, la piattaforma di Elon Musk. Da tempo X ha abbandonato il fact-checking tradizionale a favore di un meccanismo di verifica basato sulla comunità.

    E proprio X ha mostrato i limiti di questo approccio, con note che a volte rafforzano la disinformazione invece di contrastarla o che sono influenzate da gruppi organizzati.



    Quali sono i rischi di questo sistema

    La libertà di espressione è un valore fondamentale, ma lasciare la verifica dei fatti solo nelle mani degli utenti può aprire la strada a nuove forme di manipolazione.

    Uno dei principali rischi è che le Community Notes siano poi usate per screditare fonti scomode o rafforzare narrazioni distorte, soprattutto se gruppi di utenti coordinati riuscissero a influenzarne il processo di approvazione.

    C’è poi il problema della competenza. Ci si chiede infatti se gli utenti di Facebook, Instagram e Threads siano in grado di distinguere tra una fonte attendibile e una meno affidabile. Problema che tocca tutte le piattaforme digitali del resto.

    O, forse, con questo sistema rischiamo di assistere a un sovraccarico di informazioni fuorvianti mascherate da ‘correzioni’ di contesto.

    L’algoritmo del proprietario e la nuova direzione delle piattaforme

    Il lancio delle Community Notes si inserisce in un quadro più ampio di trasformazione delle piattaforme social.

    Una trasformazione in atto che ho cercato di sintetizzare con l’espressione “algoritmo del proprietario”.

    Come abbiamo già discusso in altre occasioni, siamo sempre più di fronte a una dinamica in cui le regole del gioco vengono definite dagli interessi dei proprietari, con cambiamenti che riflettono la loro visione piuttosto che una strategia condivisa per migliorare la qualità dell’informazione online.

    Se da una parte questo modello punta a dare maggiore autonomia alla community, dall’altra pone interrogativi su come verrà gestita l’informazione in futuro e su quanto i social media vogliano davvero assumersi la responsabilità della lotta alla disinformazione.


    [L’immagine di copertina e tutte quelle che accompagno le condivisioni sui canali social sono state realizzate da Franz Russo attraverso il modello di IA Generativa Dall-E 3]

     

  • Dai social media tradizionali alla sfida dei prosocial

    Dai social media tradizionali alla sfida dei prosocial

    Nel 2025 i social media assorbono ancora oltre 2 ore al giorno del nostro tempo, guidati dagli algoritmi del proprietario. Ma esiste un’alternativa: la sfida dei prosocial, piattaforme che puntano su dialogo sano e comunità autentiche.

    Nel 2025 il nostro rapporto con i social media si fa sempre più complesso. Le piattaforme continuano a dominare il nostro tempo e a influenzare profondamente il modo in cui ci informiamo, interagiamo e, in ultima analisi, viviamo la nostra quotidianità digitale. Ma qualcosa sta cambiando.

    I dati ci raccontano un fenomeno che ormai non possiamo più ignorare: il tempo che trascorriamo online è diventato la risorsa più preziosa, ma al contempo cresce la consapevolezza degli effetti negativi di questo modello.

    E così emergono nuove piattaforme che provano a rispondere a queste criticità, dando vita a quello che potremmo definire il fenomeno dei prosocial media.

    I dati rilevanti di We Are Social sui social media

    Partiamo dai numeri più aggiornati. Il recente report “Digital 2025” di We Are Social, realizzato insieme a Meltwater, offre come sempre uno sguardo dettagliato sul panorama digitale globale e locale. A livello mondiale, il numero di utenti attivi sui social media ha raggiunto i 5,24 miliardi, con un incremento del 4,1% rispetto all’anno precedente. Parliamo del 63% della popolazione globale. Ma è il tempo che passiamo online a colpire: in media, le persone trascorrono 2 ore e 21 minuti al giorno sui social.

    In Italia, la situazione non è molto diversa. Gli utenti attivi sono oltre 43 milioni, pari al 71% della popolazione (dati 2024, in attesa di quelli del 2025). Il tempo di utilizzo medio è inferiore alla media globale: 1 ora e 55 minuti al giorno. Le piattaforme più utilizzate restano WhatsApp, Facebook, Instagram e TikTok, con quest’ultima che continua ad attirare soprattutto i più giovani.

    Questo tempo speso sulle piattaforme non è neutro. È il risultato di strategie precise da parte dei social network, progettati per massimizzare il nostro tempo di permanenza attraverso algoritmi che selezionano i contenuti più capaci di generare reazioni e interazioni.

    Dai social media tradizionali alla sfida dei prosocial
    Dai social media tradizionali alla sfida dei prosocial

    Algoritmo del proprietario e SNARF

    È quello che ho già definito di recente come l’algoritmo del proprietario, ovvero quel meccanismo che non ci mostra ciò che realmente ci interessa, ma quello che più conviene ai proprietari delle piattaforme.

    E su questo si innesta la logica SNARF: un circolo vizioso che ingabbia l’utente sulle piattaforme e lo spinge a reazioni sempre più emotive.

    Di fronte a questa dinamica, sempre più persone iniziano a chiedersi se esista un’alternativa.

    E una risposta potrebbe essere rappresentata dai cosiddetti prosocial media.

    Cosa si intende per piattaforme prosocial media

    Il termine non è solo un’etichetta per nuove piattaforme emergenti, ma è parte di una riflessione più profonda, teorica e pratica, che punta a ridefinire il modo in cui le piattaforme social vengono progettate e utilizzate.

    La definizione è stata elaborata in un paper accademico pubblicato nel febbraio 2025 da Divya Siddarth, Audrey Tang e Glen Weyl, dal titolo “Prosocial Media”.

    Secondo gli autori, i prosocial media rappresentano piattaforme pensate per promuovere il benessere sociale, la fiducia tra gli utenti e la coesione delle comunità, anziché basarsi esclusivamente sull’engagement come strumento di monetizzazione.


    Ascolta su YouTube


    I pilastri dei prosocial

    Il paper identifica tre pilastri fondamentali per un social media prosociale:

      1. Trasparenza e fiducia: le piattaforme devono essere trasparenti riguardo al funzionamento degli algoritmi e ai modelli di business adottati.
      2. Controllo agli utenti: gli utenti devono avere la possibilità di decidere quali contenuti vedere e come personalizzare la propria esperienza online.
      3. Promozione del benessere: i contenuti e le interazioni devono essere orientati a migliorare la qualità delle conversazioni e il benessere delle comunità, riducendo il peso delle dinamiche di polarizzazione e disinformazione.

    Questo approccio teorico è stato sintetizzato in un articolo pubblicato su Wired da Audrey Tang, dal titolo “Embrace the Shift to ‘Prosocial Media’”, che ha contribuito a portare il dibattito su questi temi a un pubblico più ampio.

    Ora, a partire da questa cornice concettuale, alcune piattaforme stanno cercando di sperimentare modelli più vicini ai principi prosociali.

    WeAre8

    Un esempio può essere è WeAre8, una piattaforma che elimina gli algoritmi tradizionali e condivide il 60% dei ricavi pubblicitari con gli utenti. Il suo obiettivo è creare un ambiente positivo, dove la monetizzazione non sia più legata al tempo speso online, ma a un utilizzo più consapevole. La piattaforma punta a raggiungere 100 milioni di utenti entro il 2025.

    Bluesky

    Un altro caso, sebbene con caratteristiche diverse, è Bluesky, la piattaforma decentralizzata che ha superato i 30 milioni di utenti a inizio 2025. Pur non essendo propriamente prosocial, Bluesky si inserisce in questa spinta verso una maggiore autonomia e trasparenza, offrendo agli utenti più controllo sui contenuti.

    Queste nuove realtà, insieme a quelle che già si basano sul senso di community, non rappresentano ancora una soluzione definitiva. Ma si pone una questione fondamentale. Quale futuro attenderà le piattaforme social media? Possiamo costruire spazi digitali che favoriscano il dialogo sano e il benessere delle persone? È possibile che l’utente torni ad essere in grado di controllare meglio la propria esperienza digitale?

    Ecco, la risposta a queste domande, secondo gli autori della ricerca, potrebbe essere data appunto dalle piattaforme prosocial.

    A noi non resta che verificare l’evoluzione degli eventi. Perché potrebbe anche essere che queste piattaforme si trasformino in rifugi, isole digitali. E che costringeranno gli utenti ancora alla ricerca di nuove alternative.

    [L’immagine di copertina, così come quelle che accompagnano la condivisione dell’articolo sui social, è realizzata da Franz Russo con il modello di IA Generativa Dall-E 3]