European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Article Category

Article available in the following languages:

Poszukiwanie rozwiązań problemu fałszywych informacji i obrazów

Autorzy nowej białej księgi opisują technologie sztucznej inteligencji i ich rolę w procesie rozpowszechniania dezinformacji, naświetlając przyszłe wyzwania i możliwości.

Gospodarka cyfrowa icon Gospodarka cyfrowa
Społeczeństwo icon Społeczeństwo

Dzięki stale rozwijanym możliwościom w zakresie przygotowywania wysokiej jakości obrazów, tekstów oraz nagrań dźwiękowych, generatywne modele sztucznej inteligencji, takie jak DALL-E i ChatGPT, stanowią prawdziwy przełom w wielu sektorach na całym świecie. Każdy przełom ma jednak swoje ciemne strony. Ze względu na to, że technologia generatywnej sztucznej inteligencji staje się coraz bardziej dostępna i przystępna cenowo, rośnie liczba przypadków wykorzystywania jej w kampaniach dezinformacyjnych na szeroką skalę. Zarówno platformy, jak i weryfikatorzy informacji nie są w stanie skutecznie stawiać czoła zalewowi dezinformacji, a odróżnienie prawdziwych i fałszywych wiadomości staje się coraz trudniejsze. Autorzy nowej białej księgi analizują związek między generatywną sztuczną inteligencją a dezinformacją. Opracowanie będące rezultatem współpracy zespołów finansowanych ze środków Unii Europejskiej projektów vera.ai TITAN, AI4Media i AI4TRUST, omawia najnowsze postępy, wyzwania i możliwości w tej kluczowej dziedzinie. „Jesteśmy obecnie świadkami dynamicznego rozwoju dziedziny sztucznej inteligencji i związanej z nią dezinformacji. Nasza biała księga ma stanowić punkt wyjścia do dalszych badań, rzucając nowe światło na złożone oddziaływania i powiązania między postępem technologicznym, zagadnieniami etycznymi i prawodawstwem”, zauważa Francesco Saverio Nucci, współautor opracowania i pracownik naukowy włoskiej organizacji Ingineering Ingegneria Informatica będącej koordynatorem projektu TITAN, którego wypowiedź została przytoczona w informacji prasowej opublikowanej na stronie internetowej projektu. Autorzy opracowania badali możliwości generowania dezinformacji przy pomocy najnowocześniejszych rozwiązań opartych na sztucznej inteligencji oraz podkreślili szereg kluczowych wyzwań etycznych i prawnych, a także propozycje innowacji w tym obszarze. Jednym z kluczowych zagadnień jest rozwój generatywnych modeli sztucznej inteligencji, w szczególności zaś możliwość wykorzystania ich w celu generowania dezinformacji, rozpowszechniania fałszywych wiadomości i wywierania wpływu na procesy demokratyczne, w tym wybory. „Zagrożenia dla procesów demokratycznych i integralności wyborów wynikające z popularyzacji generatywnych modeli sztucznej inteligencji przestały być jedynie hipotetycznymi rozważaniami […] i nie możemy odrzucać ich stwierdzeniami, że stanowią wyłącznie próbę podsycania paniki i strachu", czytamy w sprawozdaniu. Kampanie dezinformacyjne realizowane z wykorzystaniem treści generowanych przy pomocy modeli sztucznej inteligencji prowadzą do „erozji zaufania obywateli wobec przywódców politycznych, wyborów, mediów i demokratycznych rządów”.

Nowe wyzwania

Autorzy opracowania omawiają zróżnicowane wyzwania związane z wykrywaniem dezinformacji i prostowaniem fałszywych wiadomości, a także opisują najnowsze osiągnięcia w tej dziedzinie i przedstawiają wybrane narzędzia oparte na sztucznej inteligencji, które mogą pomóc pracownikom mediów w weryfikacji treści i przeciwdziałaniu ryzyku związanemu z dezinformacją. W białej księdze znalazło się także miejsce na opis usług opartych na sztucznej inteligencji opracowanych w ramach projektu TITAN, których zadaniem jest rozwój umiejętności krytycznego myślenia wśród obywateli. Dzięki nim mogą być bardziej wyczuleni na manipulacje mające na celu przekonanie ich do przeczytania artykułów oraz świadomi konieczności weryfikacji autorów i źródeł treści czytanych w Internecie. Autorzy przyjrzeli się także zagadnieniom etycznym i prawnym związanym z wykorzystaniem technologii sztucznej inteligencji w celu rozpowszechniania fałszywych informacji. Obejmują one obawy dotyczące jakości danych, wątpliwości na temat praw autorskich oraz „widoczny na pierwszy rzut oka brak równowagi między twórcami treści, środowiskami akademickimi oraz obywatelami z jednej strony, a gigantami technologicznymi (takimi jak spółki OpenAI, Microsoft, Google i Meta) opracowującymi i sprzedającymi generatywne modele sztucznej inteligencji z drugiej”. Badacze kładą szczególny nacisk na konieczność opracowania kompleksowych przepisów i regulacji. Jednym z głównych wyzwań pozostaje fakt, że nowoczesne duże modele językowe nie zostały zaprojektowane z myślą o przedstawianiu faktów. Zamiast tego są szkolone do generowania wiarygodnych stwierdzeń w oparciu o modele statystyczne, dzięki czemu są podatne na generowanie dezinformacji. Inne problemy to między innymi powszechne i niczym nieuzasadnione zaufanie użytkowników wobec sztucznej inteligencji, konieczność opracowania nowych narzędzi, które będą w stanie wykrywać treści generowane przez sztuczną inteligencję oraz poszukiwanie funduszy na badania, które doprowadzą do ich powstania. Autorzy opracowania nie zapominają także o możliwościach realizowania innowacyjnych rozwiązań. Wśród nich można wymienić opracowanie najnowocześniejszych modeli wykrywających dezinformację oraz usprawnienia strategii przeciwdziałania dezinformacji poprzez uwzględnienie rozwiązań opartych na sztucznej inteligencji. Dzięki białej księdze opracowanej dzięki wsparciu zespołów projektów vera.ai (vera.ai: VERification Assisted by Artificial Intelligence), TITAN (AI for Citizen Intelligent Coaching against Disinformation), AI4Media (A European Excellence Centre for Media, Society and Democracy) oraz AI4TRUST (AI-based-technologies for trustworthy solutions against disinformation) znamy kierunki przyszłych badań oraz możemy wyznaczyć ogólne założenia nowych strategii i przepisów dotyczących tej kluczowej dziedziny. Więcej informacji: strona projektu vera.ai strona projektu TITAN strona projektu AI4Media strona projektu AI4TRUST

Słowa kluczowe

vera.ai, TITAN, AI4Media, AI4TRUST, dezinformacja, SI, sztuczna inteligencja, generatywna sztuczna inteligencja

Powiązane artykuły