Facebook è sempre alla ricerca di un sistema che permetta di ridurre al minimo la diffusione delle fake news. Secondo quanto riporta il Washington Post, Facebook ha già iniziato a valutare l’affidabilità per contrastare la diffusione delle fake news. Facebook ha confermato l’implementazione di questo sistema.
Facebook, a ragione e non potrebbe essere diversamente, vede ormai la diffusione delle fake news sulla piattaforma come una sfida da vincere. Come abbiamo visto in questi ultimi mesi, la diffusione delle notizie false e poi tutta una serie di scandali più o meno legati a questo filone, hanno finito per minare, in un certo senso, la stessa affidabilità della piattaforma. E se è vero, come è vero, che Facebook è a livello globale una delle principali fonti attraverso la quale gli utenti si informano, allora è il caso che il fenomeno delle bufale venga ridotto al minimo, infatti è difficile pensare di sradicarlo completamente.
Negli ultimi mesi Facebook ha elaborato una serie di strumenti per contrastare le fake news, ma non adottati pienamente sulla piattaforma. Ultimo, in ordine di tempo, strumento, o meglio, sistema che Facebook ha iniziato ad adottare è quello relativo alla valutazione degli utenti in termini di affidabilità. Questo è quanto riporta il quotidiano, di proprietà di Jeff Bezos, Washington Post e Facebook ha confermato la notizia.
In pratica, Facebook comincia a valutare l’affidabilità degli utenti per fare in modo che sulla piattaforma si sia in grado di riconoscere se una notizia condivisa è vera o falsa. Se fosse davvero così, allora sarebbe una buona idea. Ma è davvero così?
Come funziona il sistema di valutazione degli utenti
Secondo il WP, il sistema è già in vigore da un anno e il sistema si basa sulle valutazioni che forniscono gli utenti. Se un certo numero di persone segnala una notizia come falsa, a quel punto interverrà un membro del team che controlla appunto le segnalazioni. Ma controllare ogni storia segnalata come fake news sarebbe un’attività enorme da portare avanti, così Facebook usa altre informazioni per capire se si è di fronte ad una segnalazione oggettivamente veritiera.
E qui entra il gioco l’affidabilità degli utenti come elemento discriminatorio. Se un utente segnala notizie false che poi, da un controllo del team, risultano effettivamente false, allora questo stesso utente vedrà crescere la sua affidabilità, il suo rating salirà. Se, invece, una persona segnala notizie false che, da un controllo, risultano vere, allora il livello di affidabilità di questo utente scenderà.
Quindi Facebook con questo sistema conta di creare un livello di affidabilità più alto per rendere più “facile” il lavoro dei team che dovranno poi verificare la veridicità delle segnalazioni. In questo caso, forte elemento discriminatorio è proprio la segnalazione dell’utente.
Il lavoro dei team preposti alla verifica delle notizie false in questi ultimi mesi si è rivelato il vero anello debole della struttura che Facebook ha messo insieme per contrastare le fake news. Per il semplice motivo che gli stessi controllori, spesse volte, non hanno ritenuto affidabile il sistema, segnalandolo come controverso. Ricordiamo che questa struttura anti fake new prevede l’implementazione di algoritmi che in molto casi si sono rivelati non proprio precisi.
Ora, al netto di tutto, si tratta di un sistema che fa parte di questa struttura messa a punto da Facebook per contrastare le fake news. La valutazione è quindi solo una passaggio, certo non il più affidabile. Le considerazioni che si possono fare è che forse questo potrebbe non bastare. Il fenomeno è troppo diffuso e complesso e se le persone, come abbiamo visto, non riescono ancora a distinguere una notizia da una fake news, forse questo non aiuta del tutto. E’ chiaro che affidare tutto ad un team di verificatori è un lavoro immane, sarebbe meglio introdurre il giusto mix di intelligenza artificiale e machine learning insieme all’attività dei verificatori. Ma potrebbe non bastare neanche questo.
Nel senso che Facebook ha permesso ad ognuno di costruirsi la propria echo-chamers, la propria “camera” all’interno della quale condividere notizie in cui crede prima di tutto, per il semplice fatto che condivide quello che vuole sentirsi dire. E su questo elemento molti siti di notizie false hanno avuto gioco facile, molto facile. Ecco perchè l’82% degli italiani non sa riconoscere una notizia da una bufala su Facebook. Il problema, come vedete, è molto più vasto.