Skip to main content

Devising certifiable and explainable algorithms for verification and planning in cyber-physical systems

Article Category

Article available in the folowing languages:

Wyjaśnianie wyniku działania algorytmu

Zanim algorytmy będą mogły znaleźć zastosowanie w miejscach o kluczowym znaczeniu dla bezpieczeństwa, takich jak wieże kontroli lotów, ludzie muszą być w stanie im zaufać. Wyjaśnienia poprawności działania algorytmu, nazywane także świadectwami, mogą stanowić podstawę budowania tego zaufania.

Gospodarka cyfrowa

Algorytmy to nic innego, jak zestawy reguł lub instrukcji, które mówią komputerowi, jakie działania ma wykonywać. Choć odgrywają one niezwykle ważną rolę i dzięki nim programiści oraz twórcy oprogramowania są w stanie opracowywać wydajne i pozbawione błędów aplikacje, mają swoje ograniczenia – jednym z najważniejszych jest to, że często nie ma możliwości uzyskania żadnego namacalnego dowodu wyników ich działania. Jak twierdzi Shaull Almagor, adiunkt informatyki na Izraelskim Instytucie Technicznym Technion, brak certyfikacji stanowi poważny problem, zwłaszcza gdy jest związany z projektowaniem cyberfizycznych systemów jutra. „Spójrzmy na przykład na algorytm planujący prace robota, który jest wykorzystywany w sytuacji, w której robot otrzymuje zestaw zadań – na przykład znalezienie klucza i otwarcie drzwi”, wyjaśnia badacz. „Załóżmy teraz, że algorytm mówi użytkownikowi, że nie istnieje taka możliwość. Skąd użytkownik może wiedzieć, że ta odpowiedź jest poprawna?” Powstają też inne pytania – co zrobić w sytuacji, w której algorytm znajdzie plan, ale jest on bardzo złożony? Jak użytkownik może zaufać planowi? „Problem ten jest niezwykle istotny w sytuacjach, w których człowiek musi zatwierdzić operację o kluczowym znaczeniu dla bezpieczeństwa, na przykład w wieży kontroli lotów czy w zakładzie przemysłowym”, mówi Almagor. „W takich sytuacjach byłoby idealnie, gdyby algorytm mógł dostarczyć proste wyjaśnienie mówiące, dlaczego jego dane wyjściowe są poprawne”. Dzięki wsparciu z finansowanego ze środków Unii Europejskiej projektu ALGOCERT, Almagor postanowił zająć się opracowaniem takich wyjaśnień, które nazwał roboczo świadectwami.

Dostosowywanie świadectw do określonych kontekstów

Jak wyjaśnia Almagor, aby tego rodzaju certyfikaty miały jakiekolwiek znaczenie, muszą być dostosowane do konkretnych kontekstów. „Aby uzyskać świadectwa, które będą miały realne znaczenie, musimy oprzeć się na specyficznych właściwościach zadania planowania”, dodaje. „Tylko na tej podstawie możemy próbować opracować weryfikowalne algorytmy”, Wystarczy spojrzeć na przykład na problem osiągalności w liniowych układach dynamicznych, które przedstawiają zmiany wektorów w czasie. Choć układy te opierają się na prostych zasadach matematycznych, mogą wynikać z nich bardzo złożone zachowania. „Jeśli w wyniku wykonania algorytmu uda się osiągnąć cel, jego poświadczenie jest bardzo proste – wystarczy podać czas jego osiągnięcia”, wyjaśnia Almagor. „Jednak w przypadku, gdy proces zakończy się niepowodzeniem, poświadczenie działania nastręcza wielu trudności”. Z tego powodu w ramach projektu badacze zaproponowali nowy rodzaj świadectwa dla scenariuszy zakończonych niepowodzeniem. „Tworzymy zbiór, który zawiera kompletną ewolucję układu, jednak nie osiąga celu”, dodaje Almagor. Innym problemem, którym zajmował się zespół projektu, jest wieloagentowe wyznaczanie ścieżki (ang. multi-agent pathfinding, MAPF). Jak twierdzi Almagor, MAPF stanowi jeden z podstawowych problemów w dziedzinie planowania robotycznego, w tym w zastosowaniach takich jak zautomatyzowane magazyny i pojazdy autonomiczne. „Te dziedziny zastosowań wymagają jednoczesnego poruszania się wielu agentów po ustalonych ścieżkach bez zderzania się ze sobą”, dodaje Almagor. W ramach projektu powstał program wyjaśniający poprawność planu MAPF użytkownikowi systemu – człowiekowi. „Przekonujemy użytkownika, że w planie nie występuje ryzyko kolizji, rozkładając go na sekwencję obrazów. W każdym obrazie rozłączamy ścieżki agentów”, mówi Almagor. „To naprawdę intuicyjny sposób, który pozwala udowodnić, że w planie nie występują kolizje”.

Ważny krok naprzód

To tylko kilka spośród wielu problemów, którymi zajęli się badacze finansowanego z działań „Maria Skłodowska-Curie” projektu ALGOCERT – wiele z nich zostało w pełni wyjaśnionych w różnych referatach i prezentacjach. „W ciągu ostatnich kilku lat zagadnienie wyjaśnialności cieszy się dużą uwagą środowiska naukowego”, podsumowuje Almagor. „Choć nie mogę uczciwie powiedzieć, że nasze metody są prawdziwym świętym Graalem w tym zakresie, stanowią ważny krok naprzód w rozwoju tej dziedziny”.

Słowa kluczowe

ALGOCERT, algorytmy, wyjaśnienia, świadectwa, certyfikacja, oprogramowanie, systemy cyberfizyczne, roboty, działania o kluczowym znaczeniu dla bezpieczeństwa, układy dynamiczne, matematyka, wieloagentowe wyznaczanie ścieżki

Znajdź inne artykuły w tej samej dziedzinie zastosowania