Servizio Comunitario di Informazione in materia di Ricerca e Sviluppo - CORDIS

Un innovativo modello di fiducia per aiutare i giornalisti a verificare i contenuti dei social media

Usando come esempio gli attacchi di Parigi avvenuti a novembre 2015, il progetto REVEAL, finanziato dall’UE, ha dimostrato nuove soluzioni per aiutare i giornalisti a valutare l’accuratezza dei contenuti postati sui social media da testimoni oculari durante eventi straordinari.
Un innovativo modello di fiducia per aiutare i giornalisti a verificare i contenuti dei social media
Poiché la grande maggioranza delle persone adesso usa attivamente piattaforme come Facebook o Twitter ogni giorno, i social media sono diventati una fonte sempre più importante per i giornalisti. Per gli eventi di attualità adesso i giornalisti possono accedere a rapporti di testimoni oculari che spesso contengono anche foto o filmati. Anche se ci sono tante informazioni genuine a disposizione, è anche troppo facile per un giornalista rischiare accidentalmente la propria reputazione pubblicando satira, propaganda o contenuti copiati invece di contenuti autentici durante una crisi o una situazione di emergenza.

Il progetto REVEAL si è occupato in particolare di sviluppare metodi che permettessero ai giornalisti di distinguere in breve tempo e con precisione le informazioni utili sui social media dal “rumore” – informazioni inutili o ingannevoli – facendo presente che spesso i social media sono come una “cassa di risonanza”, che diffonde voci che in molti casi si rivelano infondate. Non è un grande problema per le notizie a lungo termine perché con il tempo si chiarisce cosa sia accaduto realmente. Nelle notizie dell’ultima ora però può essere molto più difficile distinguere velocemente i fatti dalla finzione.

Modello di fiducia per verificare i contenuti

In una presentazione in occasione del Terzo workshop sulle notizie sociali sul web, tenutosi a Montreal, in Canada, ad aprile 2016, i ricercatori del progetto REVEAL hanno delineato il loro nuovo “modello di fiducia” utilizzabile automatizzare in parte il processo tramite il quale è possibile filtrare le informazioni utili sui social media usando fonti fidate, aiutando così i giornalisti quando cercano di agire velocemente in una situazione ancora in corso di sviluppo. Il modello permette ai giornalisti di tenere una lista delle proprie fonti, collegando i nuovi contenuti agli autori. Quando si segue una notizia sui social media, i contenuti vengono associati agli autori e possono essere filtrati usando liste predefinite. Per ogni nuovo contenuto, è subito chiaro se esso è collegato in qualche modo ad una fonte: se è stato postato da tale fonte, se cita tale fonte o se è attribuito a tale fonte.

Il modello inoltre si propone di aiutare i giornalisti a scegliere velocemente contenuti di testimoni oculari. Questo non significa seguire i contenuti provenienti da organizzazioni o agenzie di stampa, perché tali contenuti non sono più nuovi. Si tratta invece di materiale che contiene immagini o video di testimoni oculari che sono stati postati da meno di cinque minuti e che probabilmente non sono verificati.

I fatti di Parigi come esempio

Per mostrare il modello e le sue capacità, il team di REVEAL ha usato gli attacchi terroristici che hanno colpito Parigi il 13 novembre 2015 come caso di studio. Andando in giro per le piattaforme dei social media, hanno usato tecniche di elaborazione del linguaggio naturale per identificare enti nominati (come “BBC” e “Le Monde”) in inglese e francese e gli URL menzionati. I dati sono stati quindi importati nel modello di fiducia, che conteneva già una lista campione di fonti fidate e non fidate. Così facendo è stato possibile recuperare tutti i contenuti scritti da una fonte specifica, che citano tale fonte o che le sono attribuiti.

Il team ha poi scelto cinque fotografie postate durante la notte degli attacchi a Parigi, tre delle quali erano autentiche. Hanno identificato gli URL delle copie delle immagini postate che potevano essere state condivise invece dell’URL originale dell’immagine. Hanno poi interrogato il proprio database a intervalli di 10 minuti durante la prima ora dopo la pubblicazione di ciascuna immagine per vedere quanto spesso veniva condivisa (in generale e da fonti fidate/non fidate). In un secondo esperimento, hanno ordinato gli URL per numero di menzioni e ogni cinque minuti hanno confrontato gli URL che si trovavano in cima alla classifica e che venivano condivisi sui social media eliminando quelli vecchi. Così facendo, hanno cercato di rilevare nuovi contenuti di testimoni oculari per esaminarli prima che diventassero virali.

Analisi dei risultati

Analizzando i contenuti dei testimoni oculari, il team ha scoperto che le fonti non fidate generalmente condividono immagini prima rispetto alle fonti fidate. Hanno scoperto anche che le fonti fidate sono un’indicazione dell’autenticità di un’immagine. Le fonti fidate collegate a contenuti generati dagli utenti fanno aumentare le probabilità che tali contenuti siano autentici. Questo è il caso in genere 30 minuti dopo la pubblicazione di una foto. Di conseguenza, se un giornalista sa aspettare, il modello può indirizzarli nella giusta direzione per utilizzare mezzi tradizionali di verifica, come effettuare controlli incrociati o contattare direttamente la fonte per mezzo dei canali dei social media.

Il team ha riscontrato anche che, per scoprire contenuti di testimoni oculari utili, è utile filtrare contenuti vecchi. Usando questo metodo, le cinque immagini testate sono state viste nel 6 % di tutti i contenuti principali esaminati durante un intervallo temporale di 5 minuti. Questo significa che un giornalista non deve controllare migliaia di URL di social media, ma può invece concentrarsi sugli URL in cima alla classifica.

Anche se sono preliminari, questi risultati sembrano promettenti. Il modello di fiducia creato da REVEAL potrebbe aiutare i giornalisti a diventare più veloci e più efficienti nell’attività di ricavare contenuti sulle notizie di ultima ora e pubblicare contenuti essendo più sicuri che i materiali ricavati dai social media siano autentici.

Per maggiori informazioni, consultare:
Sito web del progetto

Fonte: Sulla base di informazioni diffuse dal progetto

Informazioni correlate