Skip to main content
Vai all'homepage della Commissione europea (si apre in una nuova finestra)
italiano it
CORDIS - Risultati della ricerca dell’UE
CORDIS
vera.ai: VERification Assisted by Artificial Intelligence

Article Category

Article available in the following languages:

Strumenti di intelligenza artificiale affidabili per rafforzare la resilienza della società

Un progetto ha sviluppati strumenti di intelligenza artificiale efficaci ed efficienti al fine di contribuire a combattere la minaccia sempre più sofisticata della disinformazione online.

In un’epoca caratterizzata dall’ascesa dell’intelligenza artificiale (IA) e dei «deepfake», verificare se le informazioni sono affidabili o meno può essere un compito difficile e impegnativo. La natura della disinformazione è inoltre spesso multimodale e multipiattaforma: essa combina testi, immagini, video e audio in modalità non analizzabili dagli strumenti di verifica in maniera esaustiva. «Le informazioni false si diffondono rapidamente, ma lo svolgimento di un’analisi approfondita richiede tempo e competenze», spiega Akis Papadopoulos, coordinatore del progetto vera.ai(si apre in una nuova finestra) e ricercatore presso l’Istituto per le tecnologie dell’informazione(si apre in una nuova finestra), in Grecia. «Le soluzioni accessibili e solide sono tuttora limitate.»

Metodi avanzati basati sull’IA per l’analisi dei contenuti

Per affrontare il potenziale grave impatto esercitato dalle campagne di disinformazione sulla fiducia del pubblico e sulla resilienza della società, il progetto vera.ai si è posto l’obiettivo di sviluppare metodi avanzati di IA per l’analisi dei contenuti, la valorizzazione e il reperimento delle evidenze, costruendo inoltre strumenti basati su questa tecnologia al fine di individuare i deepfake e altre forme di contenuti manipolati, nonché di tracciare e misurare gli effetti generati dalle narrazioni e dalle campagne di disinformazione. «Volevamo inoltre sviluppare un assistente di verifica intelligente basato su tecnologie chatbot per supportare i professionisti dei media», osserva Papadopoulos. Per raggiungere questi obiettivi, vera.ai ha riunito un gruppo multidisciplinare di esperti che spazia dalle scienze sociali e della comunicazione all’apprendimento automatico, passando per l’elaborazione del linguaggio naturale e la scienza forense dei media. «Questa varietà di competenze ci ha permesso di affrontare la disinformazione da prospettive tecnologiche e sociali», spiega Papadopoulos. Una volta sviluppati, i prototipi del progetto sono stati convalidati attraverso test reali su casi concreti forniti dai media che hanno collaborato con vera.ai. «La co-creazione con i giornalisti ha contribuito a migliorare significativamente la fruibilità, la trasparenza e la rilevanza nel mondo reale», aggiunge Papadopoulos. «Una metodologia fondata sull’integrazione della verifica dei fatti ha permesso di usufruire di un feedback continuo da parte degli esperti, garantendo solidità scientifica, usabilità e impatto pratico.»

Supervisione umana per garantire la fruibilità

Il progetto ha contribuito a far progredire l’IA spiegabile e affidabile e ha messo in evidenza l’importanza della supervisione umana nel garantire l’usabilità. «Nel complesso, vera.ai ha prodotto strumenti pratici e approfondimenti metodologici che rafforzeranno la capacità dell’Europa di individuare, analizzare e rispondere all’evoluzione della disinformazione guidata dall’IA e delle campagne di manipolazione coordinate», osserva Papadopoulos. Più concretamente, sono stati resi accessibili al pubblico(si apre in una nuova finestra) i risultati ricavati dal progetto, tra cui strumenti aggiornati per i professionisti dei media, in particolare il plugin di verifica (Fake News Debunker), Truly Media e il Database of Known Fakes (banca dati dei falsi conosciuti). Inoltre, vera.ai ha pubblicato una serie di materiale(si apre in una nuova finestra) scientifico ad alto impatto, archivi open-source(si apre in una nuova finestra) e set di dati(si apre in una nuova finestra).

Rafforzare l’integrità delle informazioni

In seguito al completamento del progetto, i partner di vera.ai hanno continuato a supportare e migliorare gli strumenti e le tecnologie fornite. «La disinformazione online è in continua evoluzione, come dimostra l’emergere di nuove tecniche, tattiche e minacce», osserva Papadopoulos. «Ciò richiede lo sviluppo di nuovi metodi di rilevamento e analisi.» Questo lavoro è fondamentale, dato che le campagne di disinformazione coordinate dispongono del potenziale di minare significativamente il dibattito pubblico, distorcere i processi elettorali ed erodere la fiducia nelle istituzioni e nei media. «In situazioni di crisi, come conflitti o disastri naturali, le informazioni non verificate rischiano di amplificare il panico e di causare danni reali», aggiunge Papadopoulos. «Per i giornalisti, l’incapacità di valutare in modo affidabile e rapido i contenuti costituisce una minaccia alla credibilità editoriale e alla reputazione.» Papadopoulos e i suoi colleghi sono fiduciosi sul fatto che il lavoro svolto con il progetto vera.ai contribuirà nel lungo periodo a rafforzare l’integrità delle informazioni. «L’impatto più intenso è previsto per il giornalismo e la verifica dei fatti», afferma l’esperto, che conclude: «L’analisi dei contenuti assistita dall’IA, il rilevamento dei media sintetici e il monitoraggio coordinato dei comportamenti non autentici contribuiranno a migliorare la velocità, l’accuratezza e la credibilità.» Altre aree in cui questo lavoro è dotato di significative potenzialità di applicazione sono le istituzioni pubbliche, la governance delle piattaforme e la conformità normativa, in particolare alla luce di quadri come il regolamento sui servizi digitali(si apre in una nuova finestra).

Scopri altri articoli nello stesso settore di applicazione

Il mio fascicolo 0 0