Zwiększanie odporności społecznej dzięki godnym zaufania narzędziom sztucznej inteligencji
W erze sztucznej inteligencji (AI) i deepfake'ów weryfikacja prawdziwości informacji może być trudnym i wymagającym zadaniem. Ponadto dezinformacja jest często multimodalna i wieloplatformowa – łączy tekst, obrazy, wideo i audio w sposób, którego narzędzia weryfikacyjne nie potrafią kompleksowo przeanalizować. „Podczas gdy fałszywe informacje rozprzestrzeniają się szybko, dokładna analiza wymaga czasu i wiedzy specjalistycznej”, wyjaśnia koordynator projektu vera.ai(odnośnik otworzy się w nowym oknie) Akis Papadopoulos z Information Technologies Institute(odnośnik otworzy się w nowym oknie) w Grecji. „Wciąż brakuje nam dostępnych i solidnych rozwiązań”.
Zaawansowane metody oparte na sztucznej inteligencji do analizy treści
Aby przeciwdziałać silnemu wpływowi kampanii dezinformacyjnych na zaufanie publiczne i odporność społeczną, zespół projektu vera.ai opracował zaawansowane metody sztucznej inteligencji do analizy treści, ich ulepszania oraz wyszukiwania dowodów. W ramach projektu powstały również narzędzia AI do wykrywania deepfake'ów i innych form manipulacji treści oraz śledzenia i mierzenia wpływu narracji i kampanii dezinformacyjnych. „Chcieliśmy również stworzyć inteligentnego asystenta do weryfikacji, opartego na technologii chatbotów, aby wspierać profesjonalistów z branży medialnej”, zauważa Papadopoulos. Aby osiągnąć te cele, w ramach projektu vera.ai swoje siły połączyli członkowie multidyscyplinarnej grupy ekspertów, obejmującej nauki społeczne i komunikacyjne, uczenie maszynowe, przetwarzanie języka naturalnego i kryminalistykę mediów. „Ta szeroka wiedza specjalistyczna pozwoliła nam zająć się dezinformacją z perspektywy zarówno technologicznej, jak i społecznej”, mówi Papadopoulos. Po opracowaniu prototypy projektu zweryfikowano w warunkach rzeczywistych na przykładach dostarczonych przez partnerów medialnych. „Zaangażowanie dziennikarzy przyczyniło się do znacznej poprawy użyteczności, przejrzystości i rzeczywistego znaczenia”, dodaje Papadopoulos. „Metodologia weryfikacji faktów z udziałem człowieka (ang. fact-checker-in-the-loop) umożliwiła ciągłe dostarczanie informacji zwrotnych od ekspertów, zapewniając solidność naukową, użyteczność i praktyczny wpływ”.
Nadzór człowieka w celu zapewnienia użyteczności
Dzięki projektowi powstała wyjaśnialna i godna zaufania sztuczna inteligencja, a ponadto podkreślone zostało znaczenie ludzkiego nadzoru w zapewnieniu użyteczności. „Ogólnie rzecz biorąc, w ramach projektu vera.ai powstały zarówno praktyczne narzędzia, jak i spostrzeżenia metodologiczne, które wzmocnią zdolność Europy do wykrywania, analizowania i reagowania na co raz to nowe kampanie dezinformacyjne i skoordynowane kampanie manipulacyjne oparte na sztucznej inteligencji”, zauważa Papadopoulos. Co równie istotne, wyniki projektu są publicznie dostępne(odnośnik otworzy się w nowym oknie). Należą do nich zaktualizowane narzędzia dla specjalistów ds. mediów: wtyczka weryfikacyjna (Fake News Debunker), Truly Media i baza danych znanych fałszywych informacji (Known Fakes). Opublikowano również szereg ważnych publikacji(odnośnik otworzy się w nowym oknie), opracowano repozytoria open source(odnośnik otworzy się w nowym oknie) i zbiory danych(odnośnik otworzy się w nowym oknie).
Wzmocnienie integralności informacji
Po zakończeniu projektu vera.ai jego partnerzy kontynuowali wspieranie i ulepszanie dostarczonych narzędzi i technologii. „Dezinformacja w Internecie stale ewoluuje, co oznacza, że pojawiają się nowe techniki, taktyki i zagrożenia”, podkreśla Papadopoulos. „Wymaga to opracowywania nowych metod wykrywania i analizy”. W tym kontekście praca badaczy ma kluczowe znaczenie, biorąc pod uwagę, że skoordynowane kampanie dezinformacyjne mogą znacznie osłabić debatę publiczną, zakłócić procesy wyborcze i podważyć zaufanie do instytucji i mediów. „W sytuacjach kryzysowych, takich jak konflikty lub klęski żywiołowe, niezweryfikowane informacje mogą potęgować panikę i powodować rzeczywiste szkody”, dodaje Papadopoulos. „W przypadku dziennikarzy niezdolność do rzetelnej i szybkiej oceny treści zagraża wiarygodności i reputacji redakcji”. Papadopoulos i jego współpracownicy są przekonani, że rezultaty projektu vera.ai przyczynią się w dłuższej perspektywie do wzmocnienia integralności informacji. „Sądzimy, że ich wpływ będzie najsilniejszy w obszarze dziennikarstwa i weryfikacji faktów”, mówi badacz. „Analiza treści wspomagana przez sztuczną inteligencję, wykrywanie mediów syntetycznych i skoordynowane monitorowanie nieautentycznych zachowań pomoże zwiększyć szybkość, dokładność i wiarygodność”. Inne obszary wykorzystania potencjału rezultatów projektu obejmują instytucje publiczne, zarządzanie platformami i zgodność z przepisami, szczególnie w świetle ram takich jak akt o usługach cyfrowych(odnośnik otworzy się w nowym oknie).