Skip to main content
European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Providing Verification Assistance for New Content

Article Category

Article available in the following languages:

Spersonalizowany cyfrowy towarzysz pomaga w sprawdzaniu rzetelności informacji

Fałszywe informacje rozpowszechniają się w mediach społecznościowych szybciej niż fakty. Finansowany przez UE projekt ułatwi sprawdzanie prawdziwości informacji.

Gospodarka cyfrowa icon Gospodarka cyfrowa
Bezpieczeństwo icon Bezpieczeństwo

Media społecznościowe stworzyły świat, w którym ludzie mogą łatwo oznaczać treści, które lubią, i dzielić się nimi z innymi użytkownikami. Jednocześnie jednak ułatwiły rozprzestrzenianie fałszywych informacji, które łatwo wprowadzają ludzi w błąd, powodują straty gospodarcze i materialne oraz negatywnie wpływają na nasze zdrowie fizyczne i samopoczucie. Zmyślone historie i plotki szybko rozprzestrzeniają się w mediach społecznościowych, które są skonstruowane tak, aby priorytetowo traktować natychmiastowe reakcje. W odpowiedzi na szybkie rozprzestrzenianie się dezinformacji w sieci w ramach finansowanego przez UE projektu Provenance opracowano system weryfikacji treści cyfrowych. „Badania nad dezinformacją są nowością i wielu rzeczy jeszcze nie wiemy, ale wyniki dotychczasowych prac zdają się potwierdzać słuszność podejścia przyjętego w projekcie Provenance”, mówi Jane Suiter, PI i dyrektorka w DCU Institute for Future Media and Democracy and Society. „Na przykład ludzie wydają się kiepsko radzić sobie z rozpoznawaniem dezinformacji w zwykłych okolicznościach, ale kiedy poprosi się ich o chwilę namysłu, idzie im całkiem dobrze. To właśnie jest idea, na której opiera się Provenance”. Provenance to zasadniczo rozwiązanie niekorzystające z pośredników, które daje większą kontrolę użytkownikom mediów społecznościowych. Niemal jak w przypadku etykiet na produktach spożywczych, użytkownicy otrzymują proste, wzbogacone graficznie informacje o źródle i historii danej treści. Według uczestniczącej w projekcie badaczki Kirsty Park dzięki takiemu podejściu zarówno innowacyjne technologie, jak i kompetencje w zakresie umiejętności korzystania z mediów mogą działać ze sobą w tandemie, a nie w opozycji do siebie. Wyjaśnia ona: „Co niezwykle ważne, narzędzia weryfikacyjne, które opracowaliśmy w ramach projektu Provenance, nie mówią użytkownikom, co mają myśleć, ale pomagają im w odbiorze treści oraz rozwijaniu kompetencji w zakresie świadomego odbioru treści internetowych w czasie korzystania z portali i mediów społecznościowych poprzez zachęcanie ich do zatrzymania się i zastanowienia”.

Spersonalizowany cyfrowy towarzysz

Spersonalizowany cyfrowy towarzysz opracowany w projekcie Provenance zapewnia użytkownikom wsparcie podczas interakcji z treściami informacyjnymi w internecie. Oferuje też wtyczkę oprogramowania, która dodaje szczególną funkcję: tworzy model użytkownika, który również może ewoluować. Tak więc jeśli ktoś interesuje się szczepionkami i nauką o szczepionkach, zainteresowanie to znajdzie odzwierciedlenie w jego profilu użytkownika. Spersonalizowany cyfrowy towarzysz i wtyczka dostarczają użytkownikom informacji na temat wiadomości online, z którymi wchodzą w interakcję. Oferują również wskazówki dostosowane do poziomu wiedzy użytkowników. „Jeśli dana treść generuje ostrzeżenie w systemie, użytkownik może kliknąć ikonę Provenance, aby uzyskać dostęp do podsumowania tego, co wiadomo o tej treści”, wyjaśniła Eileen Culloty, członkini zespołu zarządzającego projektem i badaczka podoktorska w DCU Institute for Future Media Democracy and Society. „To podsumowanie jest podzielone na kategorie – informacje ogólne, informacje o źródłach oraz informacje o języku i materiałach wizualnych. Klikając odpowiednie ikony, użytkownik może dowiedzieć się, dlaczego przypisaliśmy dane ostrzeżenie, co pomaga w rozwijaniu kompetencji medialnych”. Brendan Spillane, pracownik naukowy w Centrum ADAPT przy Szkole Informatyki i Statystyki w Trinity College w Dublinie oraz członek zespołu badawczego Provenance tłumaczy, że mechanizmy weryfikacji nie identyfikują, czy coś jest dezinformacją, czy nie, ale dają użytkownikowi znać, czy dany fragment treści ma cechy, które są związane z dezinformacją. Dodaje też: „Użytkownicy są informowani, jeśli artykuł napisany jest potocznym językiem, który nie spełnia standardów dziennikarskich, lub jeśli zamieszczone zdjęcia zostały w jakiś sposób zmanipulowane”. Wszystkie te informacje są analizowane i przechowywane w grafie wiedzy, który jest udostępniany poprzez połączony interfejs danych. W ten sposób użytkownik końcowy otrzymuje informację zwrotną o tym, co system wie na temat danego fragmentu treści.

Działania po zakończeniu projektu

Koordynowana przez DCU praca została rozdzielona wśród kilku partnerów. Trinity College w Dublinie i NewsWhip opracowały monitor mediów społecznościowych, który śledzi popularne treści. Hiszpański partner, firma Everis, opracował rejestr blockchain na oryginalne treści. Trinity College w Dublinie i Czeska Akademia Nauk pracowały natomiast nad stworzeniem nowych narzędzi do wykrywania manipulacji. Choć projekt zakończył się w maju 2022 roku, partnerzy konsorcjum rozpoczynają wspólnie nowe projekty, opierając się na spostrzeżeniach zdobytych podczas opracowywania Provenance. „Analizujemy możliwości wykorzystania tych rozwiązań. Na przykład, obecny system wykorzystuje bogaty graf wiedzy, który zawiera nowatorskie oceny treści online, takie jak podmioty zgłoszone w innych systemach, jakość stylistyczna i ton tekstu, z których wszystkie mają zastosowanie w różnych dziedzinach”, dodaje na koniec Owen Conlan, kierownik techniczny w Centrum ADAPT w Trinity College w Dublinie.

Słowa kluczowe

Provenance, media, kompetencje medialne, cyfrowe, treści, weryfikacja, dezinformacja, media społecznościowe

Znajdź inne artykuły w tej samej dziedzinie zastosowania