Wspólnotowy Serwis Informacyjny Badan i Rozwoju - CORDIS

Roboty przyszłości z inteligentnymi funkcjami wizyjnymi

Zdolność do postrzegania i rozumienia dynamiki świata rzeczywistego będzie miała podstawowe znaczenie dla nowej generacji robotów. W ramach pewnej unijnej inicjatywy badano wizję, niezbędną do większości zadań wykonywanych przez roboty.
Roboty przyszłości z inteligentnymi funkcjami wizyjnymi
Roboty muszą umieć w sposób adaptacyjny wybierać odpowiednie informacje z danej sceny, aby poddać je dalszemu przetwarzaniu. Potrzebują uprzedniej podstawowej wiedzy o tym, gdzie znaleźć cel, a także muszą mieć pewne pojęcie o jego wielkości, kształcie, kolorze czy teksturze. Roboty wymagają mechanizmów uwagi do określenia, której części czujników potrzebują do przetwarzania. Uwaga polega na wybieraniu najistotniejszych informacji z wielu czujników w celu skutecznego wyszukiwania.

Finansowany ze środków UE projekt REAL-TIME ASOC (Real-time understanding of dexterous deformable object manipulation with bio-inspired hybrid hardware architectures) miał na celu opracowanie nowych mechanizmów uwagi wizualnej.

W projekcie REAL-TIME ASOC wykorzystano specjalistyczną kamerę nazywaną dynamicznym czujnikiem wizyjnym (DVS), która nadaje się do zastosowań robotycznych wymagających małych opóźnień w celu działania w czasie rzeczywistym. Rejestruje ona wszystko, co ulega zmianie, z bardzo dużą rozdzielczością czasową mierzoną w mikrosekundach. DVS nagrywa z prędkością około 600 000 klatek na sekundę oraz zmniejsza ilość danych dzięki usuwaniu statycznych fragmentów obrazu.

Prace rozpoczęto od wykorzystania czujnika DVS do wyodrębnienia konturów i granic własności z samych informacji o zdarzeniach. Ponieważ zdarzenia są wyzwalane tylko przez duże zmiany jasności, większość z nich zachodzi na granicy obiektów. Wykrywanie tych konturów jest kluczowym krokiem na drodze do dalszego przetwarzania danych. Naukowcy opracowali podejście polegające na identyfikacji umiejscowienia konturów i ich granic przy pomocy cech reprezentujących ruch, synchronizację, teksturę i orientację przestrzenną. Detekcja konturów i przypisywanie granic zademonstrowane zostały we wstępnej segmentacji sceny.

Uczeni pracowali nad algorytmami do szacowania ruchu obrazu na podstawie informacji o asynchronicznych zdarzeniach, a także programowaną przez użytkownika macierzą bramek umożliwiającą obliczanie uwagi wizualnej. Powstał też zbiór danych zawierający zarówno pozbawione klatek dane dotyczące zdarzeń, jak i klasyczne dane obrazu, ruchu i głębi. Pomaga on w ocenie różnych opartych na zdarzeniach metod oraz porównanie ich z konwencjonalną wizją komputerową opartą na ramkach.

Projekt REAL-TIME ASOC pokazał, jak przyszłe roboty będą mogły wizualnie wybierać i przetwarzać obrazy w sposób podobny jak ludzie.

Powiązane informacje

Tematy

Life Sciences

Słowa kluczowe

Roboty, REAL-TIME ASOC, manipulowanie przedmiotami, hybrydowe architektury sprzętowe, uwaga wizualna
Numer rekordu: 191036 / Ostatnia aktualizacja: 2017-02-08
Śledź nas na: RSS Facebook Twitter YouTube Zarządzany przez Urząd Publikacji UE W górę