CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Co-Creating Misinformation-Resilient Societies

Article Category

Article available in the following languages:

Innowacyjne narzędzie do śledzenia fałszywych informacji

Czy zadajesz sobie czasami sobie pytanie, czy informacje rozpowszechniane w mediach społecznościowych są prawdziwe? Jeśli nie zdarza ci się to zbyt często, musisz koniecznie zmienić swoje przyzwyczajenia i zawsze traktować wszystkie wiadomości z internetu z pewną dozą nieufności. Z pomocą przychodzi opracowane w ramach projektu Co-Inform narzędzie, dzięki któremu można skutecznie odfiltrować fałszywe informacje.

Gospodarka cyfrowa icon Gospodarka cyfrowa
Społeczeństwo icon Społeczeństwo

Świat jeszcze nigdy nie był tak połączony. Ale niewiele osób zdaje sobie sprawę z tego, że żyje w tak zwanej bańce informacyjnej. Gdy w 1998 roku John Scruggs, lobbysta firmy Philip Morris, po raz pierwszy opisał zjawisko zwane „echo chamber” (co dosłownie oznacza „komorę pogłosową”, ale metaforycznie opisuje środowisko, w którym osoba ma styczność wyłącznie z informacjami zgodnymi z jej przekonaniami), nie mógł przypuszczać, że w przyszłości za tworzenie takich baniek będą odpowiedzialne media społecznościowe. W efekcie stoimy teraz przed poważnym problemem, w którym bańki informacyjne zagrażają podstawowym wartościom, na których opierają się nasze demokracje. W 2020 roku możemy zaobserwować nowy sposób prowadzenia dyskusji w mediach społecznościowych, coraz częściej kopiowany też „w realu”. Można go obrazowo opisać jako niezliczoną liczbę społeczności skupionych wokół jednego tematu, które tworzą osoby angażujące się w zażarte spory polegające na wytykaniu palcami osób posiadających inną opinię i nieprzyjmowaniu do wiadomości odmiennych argumentów, żyjąc w przeświadczeniu o słusznej prawdzie swoich poglądów. Jakie są tego konsekwencje? Zalew informacji wprowadzających w błąd. Jak tłumaczy Vasilis Koulolias, dyrektor ośrodka badawczego eGovlab przy Uniwersytecie w Sztokholmie, „kanały informacyjne bazujące na algorytmach sztucznej inteligencji kreują bańki informacyjne i filtrujące, co prowadzi do tego, że odbiorcy mogą nigdy nie mieć styczności z kontrargumentami”. Zespół projektu Co-Inform (Co-Creating Misinformation-Resilient Societies) przyjął założenie, że to zjawisko jest bezpośrednim zagrożeniem dla integralności wyborów, a nawet dla samej demokracji. Żeby z nim walczyć i zapobiegać coraz bardziej realnemu wypieraniu źródeł sprawdzonych informacji przez kłamliwe treści, naukowcy proponują „zdecentralizowany, przejrzysty i oparty na działaniach społeczności system śledzenia fałszywych informacji”. Rozwiązanie opracowane w ramach projektu można określić mianem systemu do wykrywania dezinformacji, który ma jednak jedną dodatkową funkcjonalność: pokazuje dowody, dzięki którym każdy użytkownik może sprawdzić, dlaczego jego artykuł czy post został oznaczony jako wprowadzający w błąd. „Podobnie jak w przypadku wykrywania fałszywych informacji, ich śledzenie opiera się na automatycznych algorytmach, które przewidują, czy dane treści są kłamliwe. Polega to na tym, że algorytmy wyszukują w internecie oznaki wskazujące na wiarygodność danej informacji (np. opinie na renomowanych portalach weryfikujących fakty, ratingi wiarygodności), oceniają poprzednie posty publikowane przez to samo źródło oraz szacują rzetelność treści na podstawie reakcji w mediach społecznościowych. Dzięki dodatkowemu poziomowi przejrzystości pozwalamy naszym użytkownikom sprawdzać nasz rating. Zachęcamy ich także do weryfikowania tych oznak wiarygodności, które mogli pominąć”, wyjaśnia Koulolias. Narzędzie opracowane w ramach projektu jest także zdecentralizowane. Oprócz algorytmów wykorzystuje systemy Schema.org i ClaimReview, dzięki czemu każdy może oceniać wiarygodność informacji i dzielić się oceną z innymi. Jedynym warunkiem jest dostarczenie odpowiednich dowodów. Użytkownicy mogą też przesyłać swoje opinie na temat oceny wiarygodności. Narzędzie Co-Inform przeszło szereg różnorodnych testów, osiągając świetne wyniki w zakresie rzetelności. „Udało nam się wykazać, że korzystanie z narzędzia może wpływać na zachowania w sieci. Odkryliśmy też, że wartości wyznawane przez użytkowników mają duży wpływ na to, czy ktoś będzie skłonny uwierzyć w daną informację”, mówi Koulolias. Każdy użytkownik internetu może zainstalować narzędzie Co-Inform jako rozszerzenie do przeglądarki, a decydenci i dziennikarze mogą wybrać specjalny pulpit nawigacyjny, który pozwala na filtrowanie tweetów lub artykułów po temacie i sprawdzanie, czy są wiarygodne. „Dzięki nawiązaniu współpracy z SOMA – projektem ukierunkowanym na tworzenie opartych na współpracy narzędzi dla dziennikarzy – pracujemy nad dodaniem do narzędzia nowych funkcjonalności. Na przykład wtyczka do Twittera sprawi, że informacja opublikowana przez użytkownika zostanie automatycznie przesłana na platformę SOMA do oceny wiarygodności”, mówi Koulolias. Na jesień 2020 roku zespół zaplanował przeprowadzanie testów z dziennikarzami. W tym okresie zamierza też przygotować zalecenia dla Komisji Europejskiej. Koulolias ma nadzieję, że narzędzia opracowane w ramach projektu Co-Inform przyczynią się do wypromowania krytycznego myślenia wśród użytkowników mediów społecznościowych. Informacje wprowadzające w błąd stają się coraz trudniejsze do rozpoznawania, zatem wszyscy będziemy potrzebować skutecznych narzędzi, które uchronią nas przed wpadnięciem w pułapkę „fake newsów”, a projekt Co-Inform oferuje nam jedno z nich. „Oczywiście, walka z dezinformacją wymaga czegoś więcej niż tylko weryfikacji faktów w celu obalania mitów. Kluczowe w tym zakresie są kampanie podkreślające zalety krytycznego myślenia i umiejętności korzystania z informacji, nie obędzie się też bez prawdziwie interdyscyplinarnych strategii”, podsumowuje Koulolias.

Słowa kluczowe

Co-Inform, echo chamber, media społecznościowe, informacje wprowadzające w błąd, dezinformacja, fałszywe informacje, rozszerzenie do przeglądarki, algorytmy

Znajdź inne artykuły w tej samej dziedzinie zastosowania