FAKE News: i software possono aiutare a risolvere il problema

lotta-fake-news

Storie inventate, fatti distorti, accuse gravissime ad aziende e personaggi pubblici tra i più noti: le fake news (lett.: notizie false) si stanno diffondendo a macchia d’olio su Internet e sono spesso condivise senza pensarci, in particolare sui social media. Uno studio nel Regno Unito (pubblicato sugli Atti della conferenza sui fattori umani nei sistemi informatici, CHI 2018) ha rilevato che circa i due terzi degli adulti intervistati leggono regolarmente notizie su Facebook e che metà di loro ha avuto l’esperienza di credere inizialmente a una notizia falsa. Un altro studio, condotto da ricercatori del Massachusetts Institute of Technology, si è concentrato sugli aspetti cognitivi dell’esposizione a notizie false e ha scoperto che, in media, i lettori di notizie credono a un titolo rappresentante una notizia falsa almeno il 20% delle volte.

Le fake news si stanno diffondendo oggi 10 volte più velocemente delle notizie reali e il problema minaccia seriamente la nostra società. Ad esempio, già durante le elezioni del 2016 negli Stati Uniti, un numero incredibile di cittadini hanno creduto e hanno condiviso una cospirazione palesemente falsa che sosteneva che Hilary Clinton era collegata a un organizzazione criminale dedita al traffico di esseri umani gestito da una pizzeria italiana. Il proprietario della pizzeria ha ricevuto minacce di morte ed un esaltato si è presentato nel locale con una pistola. Questo – e una serie di altre notizie false distribuite durante la campagna elettorale – hanno avuto un innegabile impatto sui voti delle persone.

Spesso è difficile individuare l’origine di una notizia dopo che gruppi che la diffondono, bot dei social media e amici di amici l’hanno condivisa migliaia di volte. I siti Web di verifica dei fatti come Snopes e Buzzfeed possono indagare solo su una piccola parte delle notizie sospette. Dato che la tecnologia alla base di Internet e dei social media ha consentito questa diffusione di disinformazione, forse è il momento di chiedersi cosa ha da offrire questa tecnologia per affrontare il problema.

Negli ultimi anni, gli esperti nel settore dell’elaborazione del linguaggio naturale si sono ingegnati nella costruzione di algoritmi per rilevare la disinformazione. Questo ci aiuta a comprendere le caratteristiche delle fake news e a sviluppare la tecnologia per indicare ai lettori quali notizie sono certamente, o almeno probabilmente, false. Quando il machine learning viene applicato all’elaborazione del linguaggio naturale è possibile creare sistemi di classificazione del testo che riconoscono un tipo di testo da un altro.

Un approccio di ricerca del MIT (Massachusetts Institute of Technology) riguarda un software che trova fonti di informazione rilevanti, assegna a ciascuna fonte un punteggio di credibilità e quindi le integra per confermare o smentire una determinata affermazione. Questo approccio dipende fortemente dal rintracciare la fonte originale di notizie e valutarne la credibilità in base a una serie di fattori. Un secondo approccio, frutto della collaborazione di ricercatori di diversi Dipartimenti Universitari statunitensi, esamina lo stile di scrittura di un articolo informativo piuttosto che la sua origine. Le caratteristiche linguistiche di uno scritto possono dirci molto sugli autori e sulle loro motivazioni. Ad esempio, parole e frasi specifiche tendono a comparire più frequentemente in un testo ingannevole rispetto a uno scritto onesto e basato sulla realtà.

I ricercatori dell’istituto di ricerca tedesco Fraunhofer Institute for Communication, Information Processing and Ergonomics (FKIE) hanno sviluppato un sistema che analizza automaticamente i post sui social media, filtrando accuratamente notizie false e disinformazione. Per fare ciò, lo strumento analizza sia i contenuti che i metadati, classificandoli utilizzando tecniche di machine learning ed osservando le interazioni con gli utenti per ottimizzare i risultati man mano che si procede con l’analisi.

Le fake news sono progettate per provocare una risposta specifica come incitare all’odio contro un individuo o un gruppo di persone. Il loro scopo è influenzare e manipolare l’opinione pubblica su argomenti mirati. Le fake news possono diffondersi su Internet, in particolare sui social media come Facebook o Twitter, ma anche su network di siti creati appositamente per diffonderle. Come funziona quindi lo strumento di classificazione sviluppato dal FKIE? Oltre a elaborare il testo, lo strumento considera anche i metadati (insiemi di informazioni relative al testo come data di pubblicazione, luogo, riferimenti, ecc.) nella sua analisi e fornisce i risultati in forma visiva. “Il nostro software si concentra su Twitter e altri siti web. I tweet sono dove trovi i link che puntano alle pagine web che contengono le notizie false. In altre parole, i social media fungono da trigger. Le notizie false sono spesso ospitate su siti Web progettati per imitare la presenza sul Web delle agenzie di stampa e possono essere difficili da distinguere dai siti originali. In molti casi, saranno basati su notizie ufficiali, ma in cui la formulazione è stata modificata “, spiega Ulrich Schade del Fraunhofer FKIE.

Schade e il suo team iniziano il processo costruendo biblioteche composte da notizie serie e da testi che gli utenti hanno identificato come notizie false. Questi formano i set di apprendimento utilizzati per addestrare il sistema. Per filtrare le notizie false, i ricercatori impiegano tecniche di machine learning, che cercano automaticamente marcatori specifici nei testi e nei metadati. Ad esempio, in un contesto politico, potrebbero essere formulazioni o combinazioni di parole che raramente ricorrono nel linguaggio quotidiano o nei reportage giornalistici. Anche gli errori linguistici sono una bandiera rossa. Ciò è particolarmente frequente quando l’autore della fake news scrive in una lingua diversa dalla propria lingua madre. In questi casi, la punteggiatura, l’ortografia, le forme verbali o la struttura delle frasi errate sono tutti avvertimenti di una potenziale notizia falsa. Altri indicatori potrebbero includere espressioni fuori luogo o formulazioni complicate. “Quando forniamo al sistema una serie di marcatori, lo strumento imparerà da solo a selezionare i marker che funzionano. Un altro fattore decisivo è scegliere l’approccio di machine learning che fornisce i migliori risultati. È un processo che richiede molto tempo, perché è necessario eseguire i vari algoritmi con diverse combinazioni di marker “, afferma Schade.

I metadati vengono utilizzati anche come marker. Giocano infatti un ruolo cruciale nel distinguere tra fonti di informazione autentiche e notizie false: ad esempio, con che frequenza vengono pubblicati i post, quando è programmato un tweet ed a che ora? La tempistica di un post, ad esempio, può rivelare il Paese e il fuso orario di chi ha originato la notizia. Un’elevata frequenza di invio suggerisce bot, il che aumenta la probabilità di una fake news. I social bot inviano i loro link a un numero enorme di utenti, per diffondere le mptozoe. Anche le connessioni e i follower di un account possono rivelarsi un terreno fertile per gli analisti. Questo perché consente ai ricercatori di costruire “mappe di calore” e grafici di dati inviati, frequenza di invio e reti di follower. Queste strutture di rete ed i loro singoli nodi possono essere utilizzati per calcolare quale nodo della rete ha fatto circolare una notizia falsa o avviato una campagna di notizie false.

Un’altra caratteristica dello strumento automatizzato del FKIE è la sua capacità di rilevare l’incitamento all’odio. I post che si presentano come notizie ma includono anche incitamento all’odio spesso sono collegati a notizie false. I ricercatori sono in grado di adattare il loro sistema a vari tipi di testo per classificarli. Sia le istituzioni pubbliche che le aziende possono utilizzare lo strumento per identificare e combattere le fake news. “Il nostro software può essere personalizzato e addestrato per soddisfare le esigenze di qualsiasi cliente”, afferma Schade.

Vi sono attualmente alcune testate giornalistiche ed amministrazioni pubbliche, in tutto il mondo, che stanno seguendo e sembrano molto interessate all’acquisto del sistema sviluppato dal FKIE.

Nel frattempo, cosa accade proprio all’interno del più famoso Social Network, spesso fonte primaria per la diffusione delle fake news? Facebook applica già algoritmi di apprendimento automatico per rilevare contenuti sensibili. Sebbene suscettibile di errori, questo software fa del suo meglio per garantire che foto e video contenenti violenza e contenuti sessuali vengano contrassegnati e rimossi il più rapidamente possibile. Ora, l’azienda è pronta a utilizzare tecnologie simili per identificare notizie false. Questo è in parte dovuto al fatto che Facebook è diventato vittima del proprio successo. Con quasi due miliardi di utenti registrati, un miliardo di utenti regolarmente attivi e oltre un miliardo di contenuti pubblicati ogni giorno, è impossibile per chi lavora alla verifica dei contenuti rivedere le storie su base individuale, senza la necessità di impiegare team di migliaia e migliaia di persone per il monitoraggio..

Il Product Manager Tessa Lyons ha spiegato come viene utilizzato il machine learning non solo per rilevare storie false, ma anche per trovare duplicati di storie che sono già state classificate come false. “L’apprendimento automatico ci aiuta a identificare i duplicati di storie già smascherate”, ha scritto. “Ad esempio, un fact-checker in Francia ha smentito l’affermazione che si può salvare una persona che ha un ictus usando un ago per pungere il dito e prelevare sangue. Questo ci ha permesso di identificare oltre 20 domini e oltre 1.400 link che diffondevano la stessa affermazione “.

Facebook sta anche lavorando su una tecnologia in grado di setacciare i metadati delle immagini pubblicate per verificare le informazioni di base rispetto al contesto in cui vengono utilizzate. Questo perché mentre le fake news sono un problema ampiamente noto, la distribuzione di contenuti autentici, come le foto, in contesti falsi o fuorvianti può essere un problema più insidioso. Il machine learning può riconoscere da dove possono provenire false affermazioni. I filtri di Facebook stanno ora tentando di prevedere quali pagine hanno maggiori probabilità di condividere contenuti falsi, in base al profilo degli amministratori della pagina, al comportamento della pagina e alla sua posizione geografica.

Le mosse di Facebook erano attese da tempo. Tuttavia, in un mondo di teorie del complotto – molte girate sui social media – è inevitabile che alcuni sostengano che la segnalazione di contenuti falsi, anche se dimostrata e verificata, sia essa stessa indicativa di pregiudizi o manipolazione da parte dei media. Seguono inevitabilmente le affermazioni che Facebook sta sopprimendo la libertà di parola. In un certo senso, Facebook è impegnato in una battaglia dalle storiche radici, che ora si sta diffondendo in sempre più aree della nostra vita: le opinioni e le convinzioni contro le prove materiali. Gli esperti sono ora abitualmente diffamati e denigrati dai politici populisti, anche se ci fidiamo ancora degli esperti per mantenere gli aerei in cielo, per nutrirci, per vestirci, per curare le nostre malattie e per riscaldare le nostre case.

Molte fake news vengono pubblicate sulle piattaforme social per attirare click e generare introiti pubblicitari (più è sensazionale una notizia, più attira visitatori, più rendono gli spazi pubblicitari inframmezzati al testo sottoposto in lettura), il che non è certo una rivelazione. Tuttavia, il marchio di probabile fake news può essere apposto automaticamente quando, ad esempio, gli amministratori di una pagina vivono in un Paese ma pubblicano contenuti per utenti dall’altra parte del mondo. “Questi amministratori hanno spesso account sospetti che non sono falsi, ma sono identificati nel nostro sistema come aventi attività sospette”, ha affermato Lyons..

Una battaglia, quella contro le fake news, che se non è ormai più agli inizi riserverà ancora molte sorprese. Aspettiamoci software ancora più potenti ed “intelligenti” a proteggerci dalle falsità.

E.P.

CHIUDI