Tra disinformazione, propaganda e pressapochismi degli algoritmi, l’intelligenza artificiale negli ultimi anni ha alterato, e potenziato, il fenomeno delle fake news in rete.
Quello delle false notizie, in italiano spesso indicate come “bufale”, è un argomento sempre più attuale, in particolare l’impiego del software nel fact-checking. Nell’anno appena trascorso sono stati numerosi i casi che hanno visto protagonista l’AI accusata di generare notizie fake, scarsamente accurate o prive di fonti.
Negli ultimi mesi del 2024 ChatGPT ha integrato lo strumento SearchGPT con l’intento di coniugare le funzionalità tipiche dei motori di ricerca e l’interazione discorsiva che caratterizza il noto chatbot: messo alla prova da un team di ricercatori della Columbia University. Gli esiti sono stati discutibili, se almeno in questo caso i contenuti non venivano “copiati” o usati per addestrare l’intelligenza artificiale senza il consenso degli editori, i contenuti di questi ultimi nella ricerca possono essere travisati o erroneamente attribuiti. Su duecento richieste di identificazione della fonte per altrettante citazioni sottoposte, meno di un quarto sono risultate corrette, ma solamente sette volte il chatbot si è espresso in forma dubitativa o condizionale.
E quello di ChatGPT non è un caso isolato, proprio in questi primi giorni del 2025 sta facendo discutere il sistema di notifiche Apple Intelligence, colpevole di aver generato false notizie estrapolando in modo grossolano i contenuti di BBC al quale il software avrebbe accreditato le notizie. Resoconti e risposte false o poco attendibili parrebbero essere all’ordine del giorno anche su tematiche socialmente rilevanti, come evidenziato in uno studio condotto da Democracy Reporting International sui più popolari servizi d’AI in Europa (Gemini di Google, ChatGPT 3.5 e 4.0 di OpenAi e Copilot di Microsoft) interrogati circa le elezioni nell’Unione Europea.
Gli errori e orrori dell’intelligenza artificiale non sono però sempre frutto di superficialità dell’algoritmo. La capacità generativa dell’IA rende ogni giorno più realistici quei contenuti progettati ad-hoc per diffondere la disinformazione, portando la creazione di fake-news a un nuovo livello. Quello delle deepfake, che si distanziano dalle semplici bufale superandole grazie all’integrazione di audio, foto e video, con risultati inquietanti e sorprendenti a un tempo, e a cui l’Intelligenza Artificiale può servire un assist prezioso.
Il fenomeno è spopolato rapidamente e ne abbiamo visto alcuni prodotti nel corso delle ultime elezioni USA, dove sono tra gli altri circolati audio di Joe Biden che esortava gli elettori ad astenersi dal voto. Il focus del deepfake non è solamente politico ma si ramifica in tutte le aree che la disinformazione è interessata a colpire: hate speech, teorie cospirazioniste, contenuti che attribuiscono dichiarazioni e abitudini controverse a personalità più o meno note o segmenti della popolazione, come ad esempio migranti o transgender.
Riconoscere il deepfake non è semplice e la sofisticazione dei contenuti tocca sempre nuove vette di perfezionismo, arrivando a ri-creare la realtà ex novo.
Si veda il caso, più celebre ma affatto isolato, della supermodella Emily Pellegrini: dal lancio del suo account seguita da decine di migliaia di persone, corteggiata da vip del jet-set e sportivi di fama; una personalità social con profilo corredato di foto e video, tutto generato da zero sfruttando le capacità dell’intelligenza artificiale. La notizia potrebbe far sorridere, ma nasconde una realtà meno innocua di quanto si potrebbe pensare tenendo conto che i social media rappresentano una delle principali fonti di informazione e che gli influencer, secondo uno studio del britannico Reuter Institute, stanno progressivamente sostituendosi ai giornalisti propriamente detti, soprattutto tra i giovani e giovanissimi, che rappresentano il più largo bacino di utenza di queste piattaforme. Proprio uno studio italiano dell’Università Vita-Salute San Raffaele di Milano ha evidenziato come circa un giovane su tre fatichi a riconoscere l’affidabilità di una notizia online, in particolar modo quando perviene dai social e attraverso lo smartphone, una periferica con la quale si stima vengano spesi mediamente 5 ore e 46 minuti giornalieri.
Riconoscere il deepfake è difficile, ma non impossibile, gli analisti invitano a esaminare attentamente ogni immagine sospetta, il punto da cui partire è che le foto hanno spesso un aspetto molto sofisticato, luci perfette e un’aria quasi “fiabesca”, è poi necessario concentrarsi sui dettagli: aree che presentano incongruenze e contrasti nelle ombre, nei dettagli anatomici e specialmente del viso, non esiste però purtroppo una regola aurea che ci permetta di affermare se una foto è stata o meno contraffatta, allo stesso modo di audio o video (questi ultimi più difficili da fabbricare).
L’Università di Buffalo ha recentemente sviluppato un pratico tool, in fase di costante aggiornamento, che permette di sottoporre contenuti multimediali (immagini, video o audio) sospetti per il checking, si tratta del DeepFake-O-Meter, seppur non attendibile al cento per cento resta comunque un utile strumento nel caso ci si trovi in dubbio di fronte a un possibile contenuto sospetto.
Ci avviciniamo alla soglia di quel momento in cui si attraversa lo specchio e il mondo appare sovvertito, l’universo online che sempre più si concretizza nelle nostre interazioni quotidiane è un luogo di meraviglie nel quale diviene facile perdersi e non riuscire più a distinguere i miraggi dalla realtà, confondendo il vero con il falso. Lo strumento più importante per districarsi nel fitto labirinto della rete rimane quello di affidarsi ai vari osservatori di fact-checking e per l’informazione a testate giornalistiche registrate, e soprattutto sensibilizzare, in special modo i più giovani, all’enorme esposizione a notizie contraffatte cui si è sottoposti nel tempo che si spende online
Per saperne di più: www.cjr.org; www.bbc.com; it.euronews.com; www.ispionline.it; www.corriere.it; reutersinstitute.politics.ox.ac.uk; www.unisr.it.
Redazione
Immagine by Eta Beta Scs