Affrontare le sfide della disinformazione online
Questa trascrizione è stata prodotta con l’intelligenza artificiale.
00:00:00:00 - 00:00:38:12
Abigail Acton
Questo è CORDIScovery. Benvenuti a questo episodio di CORDIScovery. Io sono Abigail Acton. Vi ricordate quando potevate navigare in internet sapendo, con un sufficiente grado di sicurezza, che quello che vedevate era affidabile? Oppure questa domanda tradisce la mia età? Con il passare degli anni, sembra che l’informazione stia diventando sempre meno affidabile e, tra deepfake e algoritmi pregiudizievoli, la disinformazione pare nascosta potenzialmente dietro ogni angolo.
00:00:38:16 - 00:01:01:02
Abigail Acton
Identificare, tracciare e indagare la disinformazione online e altri contenuti problematici è una sfida estremamente complessa. La disinformazione, infatti, può condurre a reati d’odio e ad altre forme di violenza, ma molte autorità di polizia europee non hanno accesso a strumenti o tecnologie specializzate per affrontare il problema. Come possiamo aiutarle? Come individui, come possiamo capire se veniamo manipolati?
00:01:01:07 - 00:01:24:00
Abigail Acton
Siamo sempre più esposti alla (dis)informazione informatica, sia passivamente, attraverso i social media, sia attivamente, quando usiamo i motori di ricerca e siti web specifici che ci guidano verso siti che rafforzano i nostri preconcetti e costruiscono muri di pregiudizi. Molte aziende si occupano di identificare e rimuovere i siti web di notizie false e per ridurre al minimo la diffusione della disinformazione sui social media. Ma cosa fare con i motori di ricerca stessi?
00:01:24:05 - 00:01:48:14
Abigail Acton
I web crawler possono essere un modo innovativo per verificare la loro attività? La diffusione della disinformazione informatica minaccia i nostri valori democratici. La disinformazione è in aumento, e per rilevarla svolgono un ruolo fondamentale l’IA e, in particolare, le tecnologie linguistiche. L’apprendimento automatico e l’intelligenza artificiale si addestrano su modelli linguistici di grandi dimensioni. Ma cosa accade per le lingue usate meno frequentemente per creare contenuti online?
00:01:48:16 - 00:02:14:11
Abigail Acton
Come possiamo rafforzare l’IA per combattere la disinformazione in quelle che vengono definite «lingue a basse risorse»? Per orientarci in questo labirinto, oggi abbiamo con noi tre ricercatori beneficiari di sovvenzioni dell’UE per la ricerca scientifica. Owen Conlan è borsista del Trinity College di Dublino e professore presso la School of Computer Science and Statistics. È anche co-direttore del Trinity Center for Digital Humanities.
00:02:14:13 - 00:02:20:13
Abigail Acton
Owen è interessato in particolare al controllo dell’utente sui sistemi personalizzati guidati dall’intelligenza artificiale. Buongiorno, Owen, e benvenuto!
00:02:20:15 - 00:02:21:24
Owen Conlan
Buongiorno, Abigail. Sono felice di essere qui.
00:02:22:02 - 00:02:42:03
Abigail Acton
Joana Gonçalves-Sá è ricercatrice presso il Nova Lab for Computer Science and Informatics e il Laboratory of Particle Physics di Lisbona, dove dirige il gruppo di ricerca Fisica e complessità sociale. La sua ricerca si concentra sui pregiudizi umani e algoritmici, utilizzando le fake news come sistemi modello. Benvenuta, Joana.
00:02:42:09 - 00:02:43:19
Joana Gonçalves-Sá
Grazie per l’invito.
00:02:43:21 - 00:02:59:08
Abigail Acton
Marián Šimko è ricercatore esperto presso l’Istituto di tecnologie intelligenti di Kempelen in Slovacchia. Il suo lavoro riguarda l’elaborazione del linguaggio naturale, l’estrazione di informazioni, l’elaborazione delle lingue a basse risorse e l’interpretabilità dei modelli neurali. Benvenuto, Marián.
00:02:59:10 - 00:03:00:18
Marián Šimko
Buongiorno. È un piacere essere qui.
00:03:00:22 - 00:03:18:18
Abigail Acton
È un piacere averla con noi. Mac, inizierò da lei. Il progetto VIGILANT sta sviluppando una piattaforma integrata, strumenti e tecnologie avanzate per l’identificazione e l’analisi della disinformazione, utilizzando metodi di IA all’avanguardia. So che la vostra attenzione è rivolta all’IA incentrata sull’essere umano (human-centric AI), ma potete spiegare cosa intendete con questo termine?
00:03:18:23 - 00:03:41:05
Owen Conlan
Sì, certo. L’IA incentrata sull’essere umano intende comprendere l’interazione simbiotica tra gli esseri umani e i sistemi di IA e permettere a voi, esseri umani e utenti, di capire il modo in cui un agente di IA lavora per vostro conto. È una cosa piuttosto complicata, perché non vogliamo entrare nei dettagli fondamentali degli algoritmi complessi, e così via.
00:03:41:05 - 00:04:00:24
Owen Conlan
Non serve a nessuno. Ma il rovescio della medaglia è che non vogliamo solo che un agente IA dica: «Ecco la risposta» con una soluzione a scatola nera. Dov’è la via di mezzo? Quindi, quando usiamo l’espressione human-centric IA, stiamo cercando di trovare un modo personalizzato per mostrare all’utente come l’agente IA sta lavorando per suo conto.
00:04:01:05 - 00:04:23:16
Owen Conlan
Vogliamo illustrare quali informazioni chiave vengono utilizzate per generare le risposte. Quando generiamo le risposte, la cosa principale è cercare di evidenziare i contenuti davvero problematici a cui l’utente deve fare attenzione, ad esempio nel contesto di un’indagine, per capire se si tratta di disinformazione. Come possiamo dare un senso a tutto ciò per l’utente?
00:04:23:19 - 00:04:36:05
Abigail Acton
Okay. Ora è più chiaro. Grazie. Owen, so che in passato ha lavorato a un progetto chiamato PROVENANCE. Il progetto aiutava le persone a orientarsi in queste complessità. Può parlarcene, prima di passare a VIGILANT?
00:04:36:07 - 00:05:15:21
Owen Conlan
Certo. PROVELANCE si rivolgeva a utenti comuni come lei e io, che navigano tra i contenuti del web, in particolare nei social media. Intendeva spiegare in quali casi alcuni elementi dei feed dei social media possono avere segnali problematici. Cosa intendo per segnali problematici? Ad esempio quando un linguaggio molto emotivo è usato per presentare quella che viene dipinta come una notizia. Oppure quando un contenuto usa una terminologia che sappiamo essere molto controversa, e che magari si riferisce a diversi gruppi della società, o quando vengono usate foto o video che sappiamo essere state usate in altri contesti...
00:05:15:23 - 00:05:44:13
Owen Conlan
... e in questo caso sono impiegate in un contesto molto diverso. Quindi in queste situazioni siamo molto attenti a non affermare che qualcosa è una fake news. Cerchiamo di spiegare che ci potrebbero essere problemi nel modo in cui la notizia viene rappresentata. E poi, in una certa misura, lasciamo che sia l’utente a decidere. Funziona solo se si lavora insieme, se si offre all’utente la possibilità di creare un’impalcatura di conoscenze, di imparare a conoscere la disinformazione, il motivo per cui viene usata, i tipi di temi ricorrenti e i meccanismi utilizzati per innescarla.
00:05:44:15 - 00:06:22:04
Owen Conlan
Per lo più si tratta di inneschi emotivi molto forti a cui la disinformazione cerca di rispondere. Cerca di farci spostare leggermente le nostre convinzioni, che si tratti di vaccini o di certe prospettive politiche, eccetera. PROVENANCE ha esaminato a fondo questo aspetto. Uno degli aspetti fondamentali che abbiamo osservato è il ruolo che i tratti della nostra personalità giocano nella nostra suscettibilità alla disinformazione, e poi anche il loro ruolo negli interventi che consentano a un utente di interagire con le informazioni in modo controllato e comprendendole.
00:06:22:04 - 00:06:44:02
Owen Conlan
Non si limitano a vedere una cosa, a credere a una cosa, ma vedono la cosa e iniziano a chiedersi: è reale? Tuttavia, una difficoltà è far sì che le persone possano ancora imparare che ci sono contenuti online di cui ci si può fidare. Perché se il nostro lavoro induce le persone a mettere in discussione tutto, a livello fondamentale, e a non credere a nulla, allora tutto diventa una cospirazione e nessuno può fidarsi dei contenuti online.
00:06:44:02 - 00:06:46:00
Owen Conlan
Si tratta quindi di un equilibrio sottile da mantenere.
00:06:46:05 - 00:07:02:13
Abigail Acton
Sì, è molto vero. Certo. Capisco la logica. Ottimo, bene. Passiamo a VIGILANT. So che questo progetto si occupava più che altro di fornire strumenti alle autorità di polizia. Può dirci qualcosa di più sul tipo di strumenti che il progetto sta creando?
00:07:02:15 - 00:07:32:12
Owen Conlan
Certamente. Una delle sfide che le forze dell’ordine devono affrontare è innanzitutto, come tutti noi, la presenza di moltissimi contenuti online. Devono quindi capire quali contenuti potrebbero essere problematici dal punto di vista penale. Ma qui dobbiamo fare molta attenzione. Non si tratta di sorveglianza di massa. Ma parliamo del caso in cui una persona o attraverso qualche altro percorso investigativo... quando ci si concentra su un’area di contenuto perché c’è il sospetto che ci sia un’attività criminale.
00:07:32:14 - 00:07:59:07
Owen Conlan
Il tipo di attività criminali a cui mi riferisco sono spesso attività estremiste, persone che cercano di stimolare i membri della società ad agire in modi criminali e antisociali. E questo avviene in piattaforme che tutti noi utilizziamo, magari in modo positivo. Alcune persone, però, le usano in modo negativo. Un buon esempio è quello di un gruppo che afferma qualcosa di falso.
00:07:59:07 - 00:08:17:20
Owen Conlan
Ed è qui che entra in gioco la disinformazione. Questa è solo una situazione ipotetica. Poniamo che qualcuno affermi che una moschea sta per essere costruita in una zona molto sensibile delle Ramblas. A seconda di questa affermazione e delle conversazioni che ci circondano, si può trattare solo di disinformazione, che di per sé non è illegale.
00:08:17:22 - 00:08:42:01
Owen Conlan
Ma se la gente inizia a mobilitarsi e a pianificare una rivolta, allora diventa un’attività illegale. Quindi ai nostri agenti di polizia offriamo strumenti che, quando li indirizzano verso queste conversazioni sospette, permettono di raccogliere informazioni e capire che tipo di emozioni vengono espresse. È strano per noi vedere alcune delle emozioni che non ti aspetti. Si pensa che l’odio sia un indicatore chiave di un problema, e certamente lo è.
00:08:42:03 - 00:09:11:23
Owen Conlan
Ma anche la felicità può esserlo. Magari i membri di quel gruppo sono felici di essersi organizzati, di aver messo in atto un piano. Per questo motivo esaminiamo le entità logiche, i nomi, le parole e così via, e le emozioni e la loro confluenza, e siamo in grado di illustrarle visivamente. Così, a colpo d’occhio, si può guardare un canale telegram e capire dove sono i punti caldi, in modo che un membro delle forze dell’ordine possa osservarli e puntare l’attenzione su di essi.
00:09:12:00 - 00:09:30:13
Abigail Acton
Capisco. Ottimo. Benissimo. Capisco la situazione: le persone possono esprimere entusiasmo o non vedere l’ora che qualcosa succeda, e anche questi potrebbero essere segnali di allarme. Quindi, in che modo le forze dell’ordine guardando un computer possono capire se è necessario dispiegare risorse da qualche parte?
00:09:30:15 - 00:09:52:09
Owen Conlan
Per prima cosa, valutano la possibilità. Ci riferiamo spesso a un nodo. All’idea di sciogliere un nodo. Importano varie fonti di informazione diverse. Queste fonti vengono elaborate in base a un linguaggio naturale, all’entità, a un’emozione, a una serie di fattori diversi, e vengono rappresentate in una linea temporale e in un grafico di intensità.
00:09:52:15 - 00:09:57:10
Owen Conlan
E questo permette loro di vedere i punti caldi in cui questi fattori si verificano congiuntamente.
00:09:57:12 - 00:10:04:15
Abigail Acton
Capisco. Così si possono notare sovrapposizioni, che sono segnali di allarme. Poi, dopo un certo numero di sovrapposizioni, si comincia a pensare che forse occorre intervenire.
00:10:04:17 - 00:10:06:21
Owen Conlan
Si inizia ad approfondire i contenuti nei dettagli.
00:10:06:24 - 00:10:07:11
Abigail Acton
Capisco.
00:10:07:12 - 00:10:16:08
Owen Conlan
In tal modo le forze dell’ordine arrivano al nocciolo della questione e capiscono... Non vogliamo che sia un sistema di intelligenza artificiale attivi un’azione delle forze dell’ordine.
00:10:16:14 - 00:10:18:03
Abigail Acton
Poi,
00:10:18:05 - 00:10:25:03
Owen Conlan
Vogliamo un sistema come questo per supportare un’indagine dettagliata, per poi determinare come usare al meglio le risorse.
00:10:25:03 - 00:10:32:07
Abigail Acton
In realtà, è un modo per selezionare un’enorme quantità di dati e individuare le fonti da esaminare più da vicino.
00:10:32:07 - 00:10:32:22
Owen Conlan
Esatto.
00:10:32:24 - 00:10:35:13
Abigail Acton
Ok. Quindi permette un enorme risparmio di tempo.
00:10:35:19 - 00:10:56:15
Owen Conlan
È un grande risparmio di tempo. E serve anche a capire come potrebbero essere impiegate le risorse. Sì. Perché i diversi Paesi europei hanno una serie di regole molto diverse per il funzionamento delle forze dell’ordine. In Irlanda, ad esempio, la nostra forza di polizia si chiama An Garda Síochána, che significa guardiani della pace. E questa idea caratterizza davvero il modo in cui interagiscono con la società, e così via.
00:10:56:17 - 00:11:18:16
Owen Conlan
E lo stesso accade in un contesto online. In Estonia hanno degli agenti online che, in un certo senso, svolgono ronde in modo virtuale. A volte significa bussare a una porta virtuale e dire: questo contenuto non è illegale, ma sappiate che siamo qui, siamo presenti. Siamo qui per assicurarci che tutto vada bene.
00:11:18:18 - 00:11:24:09
Owen Conlan
Sì. Uno strumento come VIGILANT deve inserirsi in questi contesti molto diversi.
00:11:24:11 - 00:11:43:05
Abigail Acton
Sì, infatti. Perché l’approccio è molto diverso da Paese a Paese. Ottimo. Grazie mille. Lei lo spiega molto, molto bene, e so che è anche interessato a fornire strumenti e risorse ai responsabili delle politiche. In che modo il materiale creato da VIGILANT, il lavoro svolto da VIGILANT, si inserisce in questo contesto, secondo lei?
00:11:43:07 - 00:12:08:10
Owen Conlan
Sì. Da un lato sono strumenti molto simili se li si guarda da lontano. Ma le caratteristiche sui cui si concentrano, il tipo di commenti e di aiuto ai responsabili delle politiche sono molto diversi. Siamo impegnati attivamente in un altro progetto finanziato dall’Europa, chiamato Athena. Si occupa della FIMI, la manipolazione delle informazioni e ingerenze da parte di attori stranieri, ed è uno strumento più dedicato alla sorveglianza.
00:12:08:12 - 00:12:33:22
Owen Conlan
Non dovremmo sorvegliare le nostre popolazioni nei nostri paesi, è accettabile guardare questi siti informativi... sto mettendo le virgolette a “informativi”. Ci sono quindi grandi aziende di disinformazione che producono un’intera gamma di contenuti disinformazione, spesso generata dall’intelligenza artificiale, e stanno cercando di guadagnare terreno. I contenuti sono simili a campagne in cui si cerca di distruggere una particolare personalità politica, e per farlo usano diverse strade.
00:12:33:22 - 00:12:54:24
Owen Conlan
Quando un contenuto prende piede, lo diffondono sempre di più. Athena, in modo simile a VIGILANT, raccoglie informazioni da fonti di questo tipo. Athena è meno discriminante perché non si concentra sugli individui (dobbiamo stare molto attenti alle informazioni personali), ma raccoglie informazioni e produce infografiche simili, e così via.
00:12:54:24 - 00:13:20:13
Owen Conlan
Quindi, aiuta ad avere una base di dati per orientare le azioni e gli interventi politici. Uno dei problemi che spesso notiamo è che una campagna di attacco FIMI si può presentare in un certo contesto linguistico. Ad esempio, potrebbe verificarsi in Grecia, usando la lingua greca. Punta magari sui problemi legati all’immigrazione, e presenta affermazioni false per fomentare la popolazione.
00:13:20:15 - 00:13:43:02
Owen Conlan
Il modo in cui le autorità greche reagiscono a questa situazione è di per sé una lezione utile per noi. Quindi, possiamo associare ciò che hanno fatto con questo tipo di problema sulla piattaforma come Athena e poi trasportare le conoscenze in Italia, quando iniziamo a vedere un problema simile in lingua italiana, in un contesto politico diverso. Cosa possiamo imparare dalla reazione greca in questo caso?
00:13:43:04 - 00:13:56:17
Owen Conlan
Perché l’Europa è un mix complicato di molteplici contesti culturali, linguistici e nazionali. Ma possiamo imparare qualcosa quando assistiamo a questi attacchi e possiamo trasportare queste conoscenze oltre i confini nazionali.
00:13:56:19 - 00:14:15:18
Abigail Acton
Perfetto. Grazie mille davvero. Sì, possiamo imparare gli uni dagli altri. Grazie mille. Bene. Ora passiamo a lei, Joana. Il progetto FARE_AUDIT ha ideato un metodo di verifica dei motori di ricerca per capire come la cronologia di navigazione influenzi i risultati dei motori di ricerca e come questo influisca sulla probabilità di essere indirizzati verso fonti di disinformazione.
00:14:15:18 - 00:14:29:10
Abigail Acton
C’è quindi una certa sovrapposizione con il lavoro svolto da Owen. Joana, puoi parlarci un po’ del concetto di comportamento umano in relazione ai pregiudizi? Quindi può spiegare il significato di pregiudizi online, anche chiamati con la parola inglese bias?
00:14:29:12 - 00:14:52:04
Joana Gonçalves-Sá
Sì. Abbiamo due progetti diversi. In uno di essi, abbiamo cercato di capire come i pregiudizi umani o cognitivi possano favorire la diffusione della disinformazione. Ogni volta che incontriamo informazioni online, dobbiamo decidere se crederci o meno e se condividerle o meno.
00:14:52:06 - 00:15:15:09
Joana Gonçalves-Sá
E come diceva Owen, non possiamo decidere di non credere a nulla e diventare completamente cinici, o credere a tutto e diventare creduloni. Quindi, ogni volta dobbiamo prendere una decisione. La nostra ipotesi è che questa decisione sia influenzata da diversi pregiudizi cognitivi. Ad esempio, da informazioni che abbiamo già incontrato in passato e a cui tendiamo a credere.
00:15:15:09 - 00:15:40:19
Joana Gonçalves-Sá
Si tratta quindi di un pregiudizio di conferma (confirmation bias). Per me è più facile credere a un’informazione a cui già credo. Inoltre, se i miei amici tendono a crederci, probabilmente sono soggetto a una cosa chiamata bias di gruppo, per cui credo più agli amici che agli esperti. Noi usiamo queste informazioni come sistema modello per studiare i pregiudizi cognitivi, nello stesso modo in cui altri ricercatori usano i topi in laboratorio.
00:15:40:19 - 00:16:03:04
Joana Gonçalves-Sá
E cerchiamo di capire come si diffondono le influenze di questi diversi pregiudizi cognitivi. Possiamo imparare i preconcetti delle persone sul mondo e sul modo in cui decidono di relazionarsi con la società. Quindi, in un certo senso, usiamo la disinformazione al contrario. Non stiamo esattamente studiando la disinformazione, ma la usiamo per studiare i pregiudizi cognitivi.
00:16:03:09 - 00:16:25:01
Abigail Acton
Fantastico. Capire come funzionano i pregiudizi mostra anche come le persone usano le informazioni o si approcciano alle informazioni online. Le cosiddette camere dell’eco sono quindi favorite dagli algoritmi utilizzati dai motori di ricerca per spingere le informazioni verso gli utenti. Quindi deve essere molto difficile per una persona identificare la disinformazione. Può dirci qualcosa sul lavoro di FARE_AUDIT in questo ambito?
00:16:25:07 - 00:16:50:08
Joana Gonçalves-Sá
Sì. L’idea è che, essendo così difficile identificare la disinformazione, sono stati fatti grandi sforzi in merito, soprattutto per il monitoraggio dei social network, perché sappiamo che i nostri feed vengono personalizzati e possono alimentarsi di questi pregiudizi. È come se fossero loro a seminare deliberatamente la disinformazione. Sanno che non siamo agenti perfettamente razionali, quindi si nutrono di questi pregiudizi per amplificare il loro segnale.
00:16:50:10 - 00:17:14:18
Joana Gonçalves-Sá
Ma ci sono stati lavori davvero importanti sui social media. Tuttavia ci siamo concentrati su altri due mezzi di diffusione delle informazioni, che sono un po’ più trascurati. In particolare, i motori di ricerca. I motori di ricerca sono tipicamente visti come neutrali, come se fossero una porta per la verità. Le persone tendono a credere davvero a ciò che vedono, se sono loro a cercarlo.
00:17:14:18 - 00:17:40:09
Joana Gonçalves-Sá
Vanno su Google, ad esempio, o su un altro motore di ricerca e cercano qualcosa. E, in genere, soprattutto i risultati dei primi posti in classifica sono considerati come la verità. Ma ovviamente non è vero. E naturalmente anche i motori di ricerca personalizzano ciò che ci mostrano in base a molti fattori diversi, tra cui la nostra posizione. Oppure in base ad altre ricerche che abbiamo fatto in passato o persino in base alla nostra cronologia di navigazione.
00:17:40:11 - 00:17:58:00
Abigail Acton
Posso quindi chiederle cosa ha sviluppato FARE_AUDIT per cercare di aiutare le persone a riconoscere che potrebbero essere spinte in una certa direzione? So che avete sviluppato uno strumento che potrebbe essere utile ai giornalisti e ai difensori della democrazia, alle associazioni per monitorare la disinformazione. Puoi dirci qualcosa di più al riguardo?
00:17:58:01 - 00:18:18:07
Joana Gonçalves-Sá
Esattamente. Abbiamo fatto in modo che... poiché è così difficile controllare i motori di ricerca, e gli algoritmi sono scatole nere proprietarie... Inoltre, non volevamo basarci sui dati di persone reali per problemi di privacy e per la parzialità dei campioni. Abbiamo quindi sviluppato un sistema di web crawler, tipicamente chiamati bot. Questi bot imitano il comportamento umano.
00:18:18:07 - 00:18:38:12
Joana Gonçalves-Sá
Quindi abbiamo un piccolo esercito di bot che navigano online, raccolgono cookie e fingono di essere persone. E possiamo fare in modo che fingano di essere persone di luoghi diversi e che usino lingue diverse, e anche che abbiano generi o età in base alla loro cronologia di navigazione. Poi vanno sui motori di ricerca e fanno esattamente la stessa ricerca nello stesso momento.
00:18:38:14 - 00:19:02:03
Joana Gonçalves-Sá
Quindi confrontano ciò che i diversi motori di ricerca mostrano come risultati di ricerca. Abbiamo condotto diversi studi utilizzando esattamente questa metodologia. Uno degli studi si basa sull’attuale conflitto israelo-palestinese: i bot sono localizzati in luoghi uno di fronte all’altro vicino al confine ed effettuano le stesse ricerche.
00:19:02:05 - 00:19:25:22
Joana Gonçalves-Sá
Notiamo non solo se i risultati sono molto diversi, ma anche se hanno inclinazioni particolari o se ci sono particolari pregiudizi. E questo caso particolare credo sia interessante, perché la localizzazione è di solito vista come neutrale in termini di profilazione. Se cerco un ristorante vicino a me, voglio un ristorante che sia vicino a me e non un ristorante che sia molto lontano.
00:19:25:24 - 00:19:48:10
Joana Gonçalves-Sá
Ma se parliamo di conflitti geopolitici, mostrare informazioni diverse sulla stessa ricerca a persone che vivono in paesi diversi può essere estremamente problematico. Abbiamo svolto due studi: uno è dedicato alle elezioni parlamentari europee, dove i bot posizionati in diversi paesi europei chiedono come votare, o qual è il partito migliore.
00:19:48:12 - 00:20:10:11
Joana Gonçalves-Sá
Un altro è per le elezioni presidenziali statunitensi, le ultime svolte nel 2024. Possiamo vedere come sia facile che ricerche generali e talvolta neutre offrano risultati molto, molto diversi. E in questo caso in particolare, per esempio nel caso del Parlamento europeo, i risultati sono molto poco obiettivi.
00:20:10:11 - 00:20:13:24
Abigail Acton
Oh, quindi c’è effettivamente un po’ di pregiudizio. Sì.
00:20:14:01 - 00:20:22:14
Joana Gonçalves-Sá
Molto. E probabilmente potrete indovinare in che direzione andava, se a destra o a sinistra.
00:20:22:20 - 00:20:29:10
Abigail Acton
Sì. Bene. Davvero interessante. Anche se fa un po’ paura. Ha trovato i suoi risultati un po’... Presumo che li abbia trovati leggermente inquietanti.
00:20:29:15 - 00:20:55:06
Joana Gonçalves-Sá
Sì. È spaventoso. Anche nella realtà, abbiamo riscontrato pregiudizi piuttosto evidenti. Non è molto comune che vengano citati molti di questi partiti, ma ogni volta che vengono citati appartengono a una famiglia specifica. Per il fatto che questi motori di ricerca sono così ampiamente utilizzati e che milioni di persone vi si rivolgono ogni giorno, anche se i pregiudizi fossero piccoli e rari, sarebbero comunque preoccupanti, perché il segnale può essere molto amplificato.
00:20:55:08 - 00:21:24:09
Joana Gonçalves-Sá
Ma ora abbiamo questo strumento che può essere utilizzato dai ricercatori. Stiamo anche cercando di adattarci all’uso da parte dei giornalisti e del pubblico in generale, Ma stiamo anche informando l’UE, come nel caso di un progetto pilota nell’ambito del regolamento sui servizi digitali, che intende controllare i motori di ricerca online di grandi dimensioni e cercare di identificare i pregiudizi, perché è anche possibile che i motori di ricerca siano effettivamente manipolati da agenti politici.
00:21:24:09 - 00:21:33:21
Joana Gonçalves-Sá
E usano l’ottimizzazione per i motori di ricerca o altri sistemi per amplificare il loro segnale, senza che i motori di ricerca se ne accorgano.
00:21:33:21 - 00:21:44:23
Abigail Acton
Capisco. In pratica, si intrufolano da una specie di porta sul retro. Accidenti, sì. È davvero una cosa che apre gli occhi. Grazie. Qualcuno ha domande o osservazioni da fare sull’ottimo lavoro di Joana? Sì. Cosa vorrebbe chiedere?
00:21:45:00 - 00:21:47:08
Owen Conlan
Sì, questo è un lavoro davvero fantastico, Joana.
00:21:47:08 - 00:21:48:14
Abigail Acton
Davvero.
00:21:48:16 - 00:22:12:05
Owen Conlan
Avete considerato la possibilità di impiegare i bot per esaminare le risposte dell’intelligenza artificiale che stiamo iniziando a vedere nelle ricerche. So che il motore di Google, ad esempio, offre per molte ricerche una panoramica delle risposte fornita dall’intelligenza artificiale. Credo che queste possano influenzare e orientare l’opinione delle persone. Sarebbe interessante vedere come modifica i risultati in base alla posizione geografica o al grado in cui conosce l’utente.
00:22:12:07 - 00:22:13:19
Owen Conlan
È una cosa che sta prendendo in considerazione?
00:22:14:00 - 00:22:36:23
Joana Gonçalves-Sá
Sì, e grazie mille per la domanda. Abbiamo svolto questo controllo anche in modelli linguistici di grandi dimensioni, come chatGPT e copilot, e ha chiesto domande simili: per chi devo votare, quali sono i partiti migliori? E abbiamo anche introdotto la componente di genere, ad esempio chiedendo: come donna, per chi dovrei votare o, come uomo, per chi dovrei votare?
00:22:36:23 - 00:23:06:04
Joana Gonçalves-Sá
Anche questi risultati sono molto distorti nella stessa direzione e lo diventano ancora di più se si introduce il genere. Giusto? Quindi, per questi, siamo andati direttamente alle piattaforme. Ma ora, naturalmente, dato che tali strumenti sono integrati oggi nei motori di ricerca, possiamo anche controllarli direttamente sia sui risultati di ricerca, sugli URL che forniscono e sulla loro risposta fornita dall’IA, e vedere se i pregiudizi rimangono o se sono amplificati, o se sono scomparsi, se sono risolti.
00:23:06:06 - 00:23:31:05
Abigail Acton
Ottimo, Grazie mille. Il lavoro è molto completo. Sembra quasi una gara per cercare di tenere il passo e continuare a trovare modi innovativi di identificare la manipolazione. In modo rapido. Ottimo lavoro. Grazie mille. Ora passiamo a Marián. L’obiettivo del progetto DisAI, con sede in Slovacchia, era quello di sviluppare tecnologie e strumenti di IA affidabili per le lingue a basse risorse.
00:23:31:05 - 00:23:45:05
Abigail Acton
Abbiamo appena parlato di modelli linguistici e così via. Questo progetto vuole capire come combattere la crescente minaccia della disinformazione online in lingue meno diffuse. Può dirci perché è stato coinvolto in questo progetto? Marián.
00:23:45:07 - 00:24:15:08
Marián Šimko
Sì. Come ricercatore, mi stupisco di come la tecnologia possa aiutarci nelle varie attività che svolgiamo quotidianamente. La maggior parte di esse è legata a diverse forme di comunicazione. Questa è la natura di noi esseri umani, e i metodi e le tecniche di elaborazione del linguaggio naturale hanno lo scopo di supportarci nella routine quotidiana di ricerca, comprensione, creazione o trasformazione di informazioni.
00:24:15:10 - 00:24:39:18
Marián Šimko
Oggi abbiamo delle applicazioni di questa tecnologia nelle nostre tasche, ad esempio per filtrare la posta indesiderata, per ricevere le notizie del giorno o per avere recensioni sintetiche di prodotti o servizi che vogliamo acquistare. Ed è molto motivante, visto che lo facciamo per il bene sociale.
00:24:39:20 - 00:25:04:11
Marián Šimko
L’aspetto interessante è che il fenomeno di queste informazioni non è nuovo per noi. In effetti, è un fenomeno antico quanto l’umanità. Ma a renderlo speciale è la potenza della tecnologia di cui disponiamo oggi, che amplifica notevolmente l’impatto. Ad esempio, la quantità di informazioni, l’accesso istantaneo alle informazioni, la velocità di diffusione, l’ascesa dell’intelligenza artificiale generativa e la diminuzione dei costi.
00:25:04:13 - 00:25:06:17
Marián Šimko
Quindi, sì, è un problema.
00:25:06:17 - 00:25:26:14
Abigail Acton
Capisco. Certo. Finora abbiamo parlato della capacità dell’intelligenza artificiale di comprendere il linguaggio e di utilizzarla per fornire informazioni. DisAI sta lavorando per aprirla alle lingue meno utilizzate. Può dirci qualcosa di più sul lavoro del vostro progetto, che cerca, come ho detto, di aprirsi alle lingue meno utilizzate?
00:25:26:18 - 00:25:53:10
Marián Šimko
Sì. Innanzitutto, la qualità o le prestazioni delle recenti applicazioni di elaborazione del linguaggio naturale, che oggi utilizzano ampiamente le reti neurali profonde, si basano sulla quantità di dati utilizzati per l’addestramento. Ad esempio i modelli linguistici di grandi dimensioni sono addestrati per leggere grandi quantità di testo da Internet e imparare a prevedere la parola successiva in una frase.
00:25:53:10 - 00:26:13:13
Marián Šimko
Ad esempio, per la frase «il cielo è»... il sistema indovina: blu. Il cielo è blu. Questi modelli imparano schemi ricorrenti, la grammatica, i fatti, semplicemente cercando di prevedere la parola successiva più e più volte. Questo è il fondamento di molti approcci all’avanguardia. Fondamentalmente può svolgere qualsiasi compito, fino all’elaborazione del linguaggio naturale di cui stiamo parlando.
00:26:13:15 - 00:26:42:07
Marián Šimko
Tra cui i compiti che stiamo affrontando nel progetto DisAI, che riguardano la lotta all’informazione. Il problema è quando si usano le lingue meno diffuse. Per queste lingue non ci sono abbastanza contenuti per fornire una base solida a questo modello. Di conseguenza, i modelli possono faticare a capire o a generare un testo coerente in quelle lingue.
00:26:42:09 - 00:27:00:22
Marián Šimko
La maggior parte dei dati è in inglese, cinese, spagnolo, eccetera. I modelli per queste lingue sono di gran lunga migliori. Questo causa prestazioni diseguali, e i parlanti di lingue meno diffuse ottengono risposte di qualità inferiore. Quindi le risposte sono sempre meno precise, meno utili.
00:27:00:22 - 00:27:05:09
Abigail Acton
Capisco. Cosa ha fatto il progetto DisAI per cercare di migliorare la situazione?
00:27:05:09 - 00:27:35:00
Marián Šimko
Sì. Di conseguenza, ci concentriamo sui metodi per verificare i fatti e sul ruolo importante degli attori in questa impresa, e degli utenti di base con una tecnologia di base per l’elaborazione del linguaggio naturale. Inoltre, il loro lavoro è più difficile quando hanno a che fare con lingue diverse dall’inglese. Nel progetto DisAI ci concentriamo sullo sviluppo di nuovi approcci per l’elaborazione del linguaggio che possano aiutare in questo senso.
00:27:35:00 - 00:27:58:07
Marián Šimko
In questo modo è possibile migliorare le prestazioni nei linguaggi con poche risorse. La nostra motivazione è naturale: la nostra lingua madre è lo slovacco ed è un ottimo esempio di lingua a basse risorse. La diffusione di disinformazione è ancora un problema serio in Slovacchia. E, come in altri Paesi dell’Europa dell’Est, la democrazia qui è, diciamo, più fragile.
00:27:58:07 - 00:28:07:04
Marián Šimko
È quindi importante migliorare questi metodi e aiutare... rendere più facile il lavoro dei verificatori.
00:28:07:04 - 00:28:23:22
Abigail Acton
Certo. È un lavoro vitale, il vostro. Lo capisco perfettamente. Posso chiederle cosa ha sviluppato il progetto, in termini di tecniche per affrontare questa sfida? Capisco chiaramente qual è l’obiettivo e la motivazione. Ma cosa avete fatto realmente o quali lavori sono ancora in corso?
00:28:24:01 - 00:28:46:21
Marián Šimko
Sì. Certo. Esattamente. Il mio team di DisAI sta cercando di sviluppare metodi, tecniche e strumenti che possano facilitare il lavoro dei verificatori. Nel loro lavoro, ci sono diversi compiti che possono essere supportati dalle tecnologie linguistiche. In particolare, ci concentriamo sul cosiddetto compito di fact check claim retrieval. Questo è uno dei 4 o 5 compiti più importanti.
00:28:46:23 - 00:29:19:02
Marián Šimko
In parole povere, quando un fact checker si imbatte in una nuova affermazione, ad esempio che la vaccinazione modifica il DNA umano, vuole sapere se è già stata verificata da qualcun altro in precedenza, o almeno può aiutarlo in modo significativo, perché controllare i fatti è piuttosto impegnativo. Ed è bene controllare tutte le lingue e vedere se è già stato verificato da qualcun altro, anche in portoghese o in indonesiano.
00:29:19:02 - 00:29:25:05
Marián Šimko
Questo può ridurre nettamente l’impegno profuso nel controllare i fatti.
00:29:25:07 - 00:29:33:12
Abigail Acton
Bene. È un bell’esempio. Grazie mille Ottimo, Ok. Ottima spiegazione, Marián, grazie. Qualcuno ha osservazioni o commenti da fare a Marián? Sì. Owen, prego.
00:29:33:14 - 00:29:55:11
Owen Conlan
Marián, il vostro è un lavoro essenziale. Lo vediamo sempre anche nei nostri tentativi di combattere la disinformazione. La mancanza di set di dati in contesti linguistici diversi, il fatto che nel nostro caso, ovviamente, la polizia a volte cerca di combattere la disinformazione in lingue che a volte non parla, ad esempio una lingua non ben rappresentata nei set di dati.
00:29:55:17 - 00:30:15:24
Owen Conlan
Un’area in cui recentemente abbiamo riscontrato difficoltà è stata la ricerca di set di dati per i discorsi d’odio in tedesco. Sembrerebbe qualcosa rinvenibile con relativa facilità, ma dipende davvero da dove si concentra l’attenzione, dai ricercatori in quei contesti linguistici, se esistono. Quindi cerchiamo di tradurre i discorsi d’odio dall’inglese al tedesco.
00:30:15:24 - 00:30:36:21
Owen Conlan
E come potete immagine, non ha funzionato molto bene. Cose semplici come le cosiddette parole macedonia, ovvero parole come Kill-ary Clinton, che per noi ha senso come termine d’odio in un contesto inglese, non si possono tradurre. Ci sono quindi molti aspetti culturali legati al contesto. Ecco perché questo lavoro è essenziale.
00:30:36:23 - 00:30:57:13
Abigail Acton
Il lavoro di tutti voi è assolutamente fondamentale. Mi è piaciuto molto ascoltarvi e sentire cosa avete fatto e cosa avete realizzato finora. E naturalmente, come ho detto prima, è una corsa continua contro le tecniche di disinformazione che ci vengono propinate. Quindi grazie mille per essere qui e per quello che state facendo.
00:30:57:14 - 00:31:02:14
Abigail Acton
Grazie di aver chiarito un po’ meglio come si svolge la nostra vita online. Grazie mille.
00:31:02:16 - 00:31:03:16
Joana Gonçalves-Sá
Grazie per avermi invitato.
00:31:03:17 - 00:31:04:09
Marián Šimko
Grazie.
00:31:04:13 - 00:31:36:15
Abigail Acton
È stato un piacere. Non c’è di che. Arrivederci! Buona giornata. Se vi è piaciuto questo podcast, seguiteci su Spotify e Apple Podcast e date un’occhiata alla home page del podcast sul sito web di CORDIS. Iscrivetevi per non perdere le ricerche più interessanti sulla scienza finanziata dall’UE. Se vi è piaciuto questo episodio, perché non spargere la voce? Abbiamo parlato di come il nostro intestino influenza il cervello, delle più recenti tecnologie che aiutano le indagini sugli stupri nelle scene del crimine, e di come far atterrare una sonda su un asteroide.
00:31:36:17 - 00:32:04:19
Abigail Acton
Nelle ultime 47 puntate troverete sicuramente un tema che stuzzicherà la vostra curiosità. Magari volete sapere cosa stanno facendo altri progetti finanziati dall’UE per contrastare la disinformazione digitale? Sul sito web di CORDIS potete consultare i risultati dei progetti finanziati da Orizzonte 2020 e da Orizzonte Europa in questo ambito. Sul nostro sito troverete anche articoli e interviste sui risultati delle ricerche relative a numerose discipline e svariati argomenti, dai dodo ai neutrini.
00:32:04:23 - 00:32:29:10
Abigail Acton
Sicuramente ci sarà qualcosa che fa al caso vostro. E se state lavorando a un progetto o volete richiedere un finanziamento, potete trovare altri progetti del vostro ambito di ricerca. Scoprite sul sito le tante ricerche impegnate a svelare le forze che muovono il mondo. Siamo sempre felici di ricevere i vostri commenti. Scriveteci all’indirizzo editorial@cordis.europa.eu. Alla prossima.
In questo episodio parliamo delle novità nella complessa corsa all’identificazione e al contrasto della disinformazione informatica
I contenuti online possono portare a reati d’odio e ad altre forme di violenza, ma molte autorità di polizia europee non hanno accesso a strumenti o tecnologie specializzate per affrontare il problema: in che modo è possibile aiutarle? Come individui, come possiamo capire se veniamo manipolati? Siamo sempre più esposti alla (dis)informazione informatica, sia passivamente, attraverso i social media, sia attivamente, quando usiamo i motori di ricerca e siti web specifici che ci guidano verso siti che rafforzano i nostri preconcetti e costruiscono muri di pregiudizi. Molte aziende si occupano di identificare e rimuovere i siti web di notizie false e di ridurre al minimo la diffusione della disinformazione sui social media. Ma cosa fare con i motori di ricerca stessi? I web crawler possono essere un modo innovativo per verificare la loro attività? La diffusione della disinformazione informatica minaccia i nostri valori democratici. La disinformazione è in aumento, e per rilevarla svolgono un ruolo fondamentale l’IA e, in particolare, le tecnologie linguistiche. L’apprendimento automatico e l’IA si addestrano su modelli linguistici di grandi dimensioni, ma cosa accade per le lingue usate meno frequentemente per creare contenuti online? Come possiamo rafforzare l’IA per combattere la disinformazione in quelle che vengono definite «lingue a basse risorse»? In questa puntata, parleremo di come questi e altri rischi informatici vengono affrontati con l’aiuto dei fondi di ricerca dell’UE. Owen Conlan(si apre in una nuova finestra), è borsista del Trinity College(si apre in una nuova finestra) di Dublino e professore presso la School of Computer Science and Statistics(si apre in una nuova finestra) dello stesso ateneo. Inoltre, è co-direttore del Trinity Centre for Digital Humanities(si apre in una nuova finestra). L’interesse di ricerca di Owen verte in particolare sul controllo degli utenti sui sistemi personalizzati guidati dall’intelligenza artificiale, che ha approfondito attraverso il progetto VIGILANT. Joana Gonçalves-Sá(si apre in una nuova finestra) è ricercatrice sia presso il Nova Laboratory for Computer Science and Informatics(si apre in una nuova finestra) che il Laboratory of Instrumentation and Experimental Particle Physics(si apre in una nuova finestra), a Lisbona, dove dirige il gruppo di ricerca Fisica e complessità sociale. La sua ricerca si concentra sui pregiudizi umani e algoritmici, e usa le fake news come sistema modello, che sono oggetto del suo progetto FARE_AUDIT. Marián Šimko(si apre in una nuova finestra) è ricercatore esperto presso l’Istituto Kempelen per le tecnologie intelligenti(si apre in una nuova finestra) in Slovacchia. Il suo lavoro riguarda l’elaborazione del linguaggio naturale, l’estrazione di informazioni, l’elaborazione delle lingue a basse risorse e l’interpretabilità dei modelli neurali. Il progetto DisAI ha concentrato l’attenzione sullo sviluppo di nuovi approcci all’elaborazione del linguaggio per migliorare le prestazioni dei modelli di apprendimento linguistico di grandi dimensioni per le lingue meno utilizzate.
Ci piacerebbe conoscere la vostra opinione
Saremo lieti di leggere tutti i commenti che vorrete sottoporci. Inviate commenti, domande o suggerimenti a: editorial@cordis.europa.eu.