Facebook in un post ha spiegato la sua strategia per contrastare il fenomeno del deepfake. Verranno rimossi tutti i contenuti modificati “in modo da far credere che il soggetto del video abbia detto cose che in realtà non ha detto”. Anche quelli modificati in modi che “non sono riconoscibili da un utente medio”.
Con una campagna elettorale in corso per le presidenziali Usa 2020, campagna dai toni ormai sempre più accesi, anche alla luce dei recenti fatti di cronaca, Facebook mette in chiaro in un post ufficiale quella che è la sua strategia a proposito del crescente fenomeno del deepfake, un fenomeno che lo scorso anno abbiamo tutti, più o meno, imparato a conoscere. E sono molti i media americani che sottolineano come questa strategia venga resa pubblica alla vigilia di una importante audizione presso la Camera dell’Energia e del Commercio, proprio sui media manipolati, che vedrà protagonista proprio Monika Bickert, vice presidente della gestione globale delle politiche di Facebook, autrice del post.
Il fenomeno deepfake
Facebook rende nota, quindi, quella che è la sua strategia per contrastare il fenomeno del deepfake, ossia il crescente fenomeno di tecniche che, grazie all’ausilio dell’Intelligenza Artificiale, riescono a modificare contenuti video riuscendo a modificare radicalmente il contenuto. La strategia della società fondata da Mark Zuckerberg si basa sulla collaborazione di 50 esperti, provenienti da diversi settori come quello tecnico, politico, mediatico, legale, civico e accademico, al fine di migliorare le tecniche per individuare i contenuti modificati.
Deepfake, la strategia di Facebook
In pratica, Facebook rimuoverà tutti qui contenuti che sono stati modificati in modi che non sono facilmente riconoscibili dall’utente medio, che indurrebbero a pensare che qualcuno abbia fatto affermazioni che nella realtà, invece, non ha mai dichiarato. Saranno rimossi tutti quei contenuti modificati facendo uso di Machine Learning al fine di unire, sostituire e sovrapporre le persone che compaiono all’interno di video o immagini.
Restano fuori da questa strategia tutti quei contenuti di parodia o satira, quei contenuti in cui è evidente la sola inversione dell’ordine delle parole. Tutti gli altri contenuti modificati saranno comunque visionati all’interno della partnership con 50 istituzioni, a cui accennavamo prima, a livello globale in oltre 40 lingue.
Facebook inoltre fa parte della Deepfake Detection Challenge, annunciata a settembre dello scorso anno, di cui fanno parte anche Amazon Web Services, Microsoft, accademici provenienti da università come Cornell Tech, MIT, University of Oxford, UC Berkeley, University of Maryland, College Park e State University of New York.
Cresce dell’84% in uno anno il fenomeno deepfake
Secondo Deeptrace, sono 14.678 i video deepfake online individuati durante il 2019, con un incremento dell’84% rispetto all’anno precedente. Erano infatti 7.964 nel 2018. Il 96% di quelli condivisi online nel 2019 provengono dal mondo del porno. Si tratta quindi di un fenomeno che cresce in maniera vistosa e preoccupante. Per le sue caratteristiche infatti potrebbero essere il volano per diffondere, in maniera molto veloce, informazioni e notizie false proprio in un momento in cui, anche alla luce delle prossime elezioni Usa di quest’anno, è necessaria la massima attenzione. Anche per evitare il ripetersi di quanto avvenne esattamente quattro anni. E questo Facebook lo sa bene.