Skip to main content
European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS

Providing Verification Assistance for New Content

Article Category

Article available in the following languages:

Un assistente digitale personalizzato ci aiuta a migliorare il processo di verifica dei fatti

Sui social media le fake news si diffondono più velocemente della verità. Un progetto finanziato dall’UE sta rendendo più facile la verifica dei fatti.

Economia digitale icon Economia digitale
Sicurezza icon Sicurezza

I social media hanno creato un mondo in cui le persone amano condividere e condividono per piacere. Ha inoltre facilitato la diffusione di informazioni errate, che confondono facilmente le persone, causano perdite economiche e materiali e hanno un impatto sulla salute fisica e sul benessere mentale. Le bufale e le voci si diffondono rapidamente sui social media, pensati per dare priorità alle reazioni immediate. In risposta alla rapida diffusione della disinformazione online, il progetto Provenance, finanziato dall’UE, ha sviluppato un sistema di verifica dei contenuti digitali. «La ricerca sulla disinformazione è nuova e ci sono molte cose che non sappiamo, ma le evidenze della ricerca attuale supportano l’approccio di Provenance», ha affermato Jane Suiter, sperimentatrice principale e direttrice del DCU Institute for Future Media and Democracy and Society. «Per esempio, sembra che le persone non siano in grado di individuare la disinformazione in circostanze ordinarie, ma quando si chiede loro di fermarsi a riflettere, sono piuttosto brave. Questa è l’idea di base di Provenance.» In poche parole, Provenance è una soluzione priva di intermediari che offre un maggiore controllo agli utenti dei social media. Analogamente a un’etichetta nutrizionale, gli utenti ricevono una semplice guida grafica con informazioni sulla fonte e sulla storia di un contenuto. Secondo la ricercatrice del progetto, Kirsty Park, questo approccio garantisce che sia le tecnologie innovative che le competenze di alfabetizzazione mediatica possano lavorare in tandem piuttosto che in opposizione l’una all’altra. «Gli strumenti di verifica che abbiamo sviluppato all’interno di Provenance non dicono agli utenti cosa pensare, ma piuttosto li aiutano a navigare nei contenuti e a sviluppare competenze di alfabetizzazione digitale durante la navigazione sul web e sui social media, inducendoli a fermarsi a riflettere», spiega la ricercatrice.

Il vostro assistente digitale personalizzato

L’assistente digitale personalizzato sviluppato da Provenance fornisce agli utenti un supporto in situ quando interagiscono con i contenuti di notizie sul web. Un componente software (plug-in) aggiunge una caratteristica speciale: costruisce un modello utente che può anche evolvere. Quindi, se qualcuno mostra interesse per i vaccini e la scienza dei vaccini, questo interesse si rifletterà nel suo profilo utente. L’assistente digitale personalizzato e il plug-in forniscono agli utenti informazioni sulle notizie online con cui stanno interagendo. Offre inoltre una guida personalizzata in base al loro livello di competenza. «Se un contenuto fa scattare un avviso all’interno del sistema, l’utente può cliccare sull’icona Provenance per accedere a un riepilogo di ciò che sappiamo sul contenuto», ha spiegato Eileen Culloty, membro del team di gestione del progetto e ricercatrice post-dottorato presso il DCU Institute for Future Media Democracy and Society. «Questo riepilogo è suddiviso in categorie: informazioni generali, informazioni sulle fonti e informazioni sul linguaggio e sulle immagini. Infine, l’utente finale può cliccare sulle icone per scoprire il motivo per cui abbiamo attribuito l’avviso, supportando l’apprendimento dell’alfabetizzazione mediatica.» Secondo Brendan Spillane, ricercatore presso il Centro ADAPT con sede presso la Scuola di Informatica e Statistica del Trinity College di Dublino e parte del team di ricerca Provenance, i componenti di verifica non identificano se qualcosa è disinformazione o meno, ma informano l’utente se un contenuto presenta qualità associate alla disinformazione. «Gli utenti saranno informati se un articolo utilizza un linguaggio informale non conforme alle norme giornalistiche o se le immagini utilizzate sono state in qualche modo manipolate», spiega Spillane. Tutte queste informazioni vengono analizzate e archiviate in un grafico della conoscenza reso disponibile attraverso un’interfaccia di dati collegati. In questo modo l’utente finale riceve un riscontro su ciò che il sistema sa di un contenuto.

C’è vita dopo il progetto

Coordinato dalla DCU, il lavoro si è dislocato tra diversi partner. Il Trinity College di Dublino e NewsWhip hanno sviluppato un monitor dei social media per tracciare i contenuti di tendenza. Il partner spagnolo, Everis, ha sviluppato un registro blockchain per i contenuti originali. Il Trinity College di Dublino e l’Accademia delle Scienze della Repubblica Ceca hanno lavorato per sviluppare nuovi strumenti in grado di individuare le manipolazioni. Nonostante il progetto si sia concluso nel maggio 2022, i partner del consorzio stanno intraprendendo nuovi progetti insieme, basandosi sugli spunti emersi nel corso dello sviluppo di Provenance. «Stiamo esplorando le opportunità di impiego. Ad esempio, il sistema attuale impiega un ricco grafico di conoscenza che incorpora nuove valutazioni dei contenuti online, come le entità riportate altrove, la qualità della scrittura e il tono della scrittura, tutti elementi che trovano applicazione in svariati domini», ha concluso Owen Conlan, responsabile tecnico del Centro ADAPT del Trinity College di Dublino.

Parole chiave

Provenienza, media, alfabetizzazione mediatica, digitale, contenuti, verifica, disinformazione, social media

Scopri altri articoli nello stesso settore di applicazione