back to top

Facebook valuta anche l’affidabilità degli utenti per contrastare le fake news

Facebook è sempre alla ricerca di un sistema che permetta di ridurre al minimo la diffusione delle fake news. Secondo quanto riporta il Washington Post, Facebook ha già iniziato a valutare l’affidabilità per contrastare la diffusione delle fake news. Facebook ha confermato l’implementazione di questo sistema.

Facebook, a ragione e non potrebbe essere diversamente, vede ormai la diffusione delle fake news sulla piattaforma come una sfida da vincere. Come abbiamo visto in questi ultimi mesi, la diffusione delle notizie false e poi tutta una serie di scandali più o meno legati a questo filone, hanno finito per minare, in un certo senso, la stessa affidabilità della piattaforma. E se è vero, come è vero, che Facebook è a livello globale una delle principali fonti attraverso la quale gli utenti si informano, allora è il caso che il fenomeno delle bufale venga ridotto al minimo, infatti è difficile pensare di sradicarlo completamente.

Negli ultimi mesi Facebook ha elaborato una serie di strumenti per contrastare le fake news, ma non adottati pienamente sulla piattaforma. Ultimo, in ordine di tempo, strumento, o meglio, sistema che Facebook ha iniziato ad adottare è quello relativo alla valutazione degli utenti in termini di affidabilità. Questo è quanto riporta il quotidiano, di proprietà di Jeff Bezos, Washington Post e Facebook ha confermato la notizia.

In pratica, Facebook comincia a valutare l’affidabilità degli utenti per fare in modo che sulla piattaforma si sia in grado di riconoscere se una notizia condivisa è vera o falsa. Se fosse davvero così, allora sarebbe una buona idea. Ma è davvero così?

Facebook utenti fake news

Come funziona il sistema di valutazione degli utenti

Secondo il WP, il sistema è già in vigore da un anno e il sistema si basa sulle valutazioni che forniscono gli utenti. Se un certo numero di persone segnala una notizia come falsa, a quel punto interverrà un membro del team che controlla appunto le segnalazioni. Ma controllare ogni storia segnalata come fake news sarebbe un’attività enorme da portare avanti, così Facebook usa altre informazioni per capire se si è di fronte ad una segnalazione oggettivamente veritiera.

E qui entra il gioco l’affidabilità degli utenti come elemento discriminatorio. Se un utente segnala notizie false che poi, da un controllo del team, risultano effettivamente false, allora questo stesso utente vedrà crescere la sua affidabilità, il suo rating salirà. Se, invece, una persona segnala notizie false che, da un controllo, risultano vere, allora il livello di affidabilità di questo utente scenderà.

Quindi Facebook con questo sistema conta di creare un livello di affidabilità più alto per rendere più “facile” il lavoro dei team che dovranno poi verificare la veridicità delle segnalazioni. In questo caso, forte elemento discriminatorio è proprio la segnalazione dell’utente.

Il lavoro dei team preposti alla verifica delle notizie false in questi ultimi mesi si è rivelato il vero anello debole della struttura che Facebook ha messo insieme per contrastare le fake news. Per il semplice motivo che gli stessi controllori, spesse volte, non hanno ritenuto affidabile il sistema, segnalandolo come controverso. Ricordiamo che questa struttura anti fake new prevede l’implementazione di algoritmi che in molto casi si sono rivelati non proprio precisi.

Ora, al netto di tutto, si tratta di un sistema che fa parte di questa struttura messa a punto da Facebook per contrastare le fake news. La valutazione è quindi solo una passaggio, certo non il più affidabile. Le considerazioni che si possono fare è che forse questo potrebbe non bastare. Il fenomeno è troppo diffuso e complesso e se le persone, come abbiamo visto, non riescono ancora a distinguere una notizia da una fake news, forse questo non aiuta del tutto. E’ chiaro che affidare tutto ad un team di verificatori è un lavoro immane, sarebbe meglio introdurre il giusto mix di intelligenza artificiale e machine learning insieme all’attività dei verificatori. Ma potrebbe non bastare neanche questo.

Nel senso che Facebook ha permesso ad ognuno di costruirsi la propria echo-chamers, la propria “camera” all’interno della quale condividere notizie in cui crede prima di tutto, per il semplice fatto che condivide quello che vuole sentirsi dire. E su questo elemento molti siti di notizie false hanno avuto gioco facile, molto facile. Ecco perchè l’82% degli italiani non sa riconoscere una notizia da una bufala su Facebook. Il problema, come vedete, è molto più vasto.

Franz Russo
Franz Russo
Franz Russo, fondatore, nel 2008, del blog InTime, ho collaborato con grandi aziende nazionali e internazionali, come consulente per strategie di comunicazione e come divulgatore. Da sempre impegnato nella comunicazione digitale, cerco di unire sempre una profonda passione per l’innovazione tecnologica a una visione olistica dell’evoluzione dei social media e degli strumenti digitali. Il mio percorso professionale in questo campo, iniziato nel 2007, è stato caratterizzato da un costante impegno nel raccontare e interpretare i cambiamenti nel panorama digitale. Il mio approccio si basa su un mix di analisi strategica, creatività e un profondo impegno per il racconto e la divulgazione.
La tua iscrizione non può essere convalidata.
La tua iscrizione è avvenuta correttamente.

InTime Blog Newsletter

Abbonati alla newsletter e resta aggiornato su articoli e approfondimenti 

Utilizziamo Brevo come piattaforma di marketing. Inviando questo modulo, accetti che i dati personali da te forniti vengano trasferiti a Brevo per il trattamento in conformità all'Informativa sulla privacy di Brevo.

Scrivimi

Se ti piace quello che scrivo e se vuoi conoscermi meglio, clicca il bottone qui di fianco.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Ultimi articoli

InTime Podcast

spot_img

Articoli correlati
Related

Social media e adolescenti, è arrivato il momento di decidere

La tragedia in Francia e l'iniziativa di Macron riaccendono sull’età minima per accedere ai social media. Tra divieti, educazione all'uso delle piattaforme e salute mentale, l’UE è chiamata a decidere. E a farlo in fretta.

Cos’è AI Mode di Google e come cambia la ricerca online

Google ha lancia AI Mode. L’intelligenza artificiale cambia la ricerca online e trasforma l’accesso alle informazioni. Da Search Engine a Answer Engine. Ecco cosa cambia per utenti e creator di contenuti.

Anche su Threads si possono aggiungere fino a 5 link nella bio

Threads introduce la possibilità di inserire fino a 5 link nella bio del profilo, ampliando le opportunità per creator e brand. Una funzione già introdotta su Instagram due anni fa.

La IA e il lavoro umano, i casi Duolingo e Klarna

Duolingo taglia il lavoro umano, Klarna lo reintegra. Due scelte opposte e una verità, e cioè che l’IA da sola non basta. Due casi della stessa medaglia del rapporto tra uomo e macchina.