Załóżmy, że roboty mogłyby działać razem z nami podczas wykonywania takich czynności jak trening sportowy czy rehabilitacja. W takiej sytuacji, aby pomóc nam osiągnąć nasze cele, musiałyby najpierw zrozumieć wykonywane przez nas działania, a następnie odpowiednio dostosować swoje zachowanie. Chociaż roboty są w coraz większym zakresie wykorzystywane w wielu dziedzinach życia, od hal produkcyjnych po zabiegi medyczne, nie są w stanie optymalnie reagować na zachowanie indywidualnego użytkownika.
W te zagadnienia zagłębili się naukowcy realizujący projekt CogIMon częściowo finansowany ze środków UE. Ich pomysłem na rozwiązanie problemu było zaadaptowanie teorii gier na potrzeby analizy fizycznych interakcji robota z człowiekiem. Wyniki ich prac ukazały się niedawno w czasopiśmie
„Nature Machine Intelligence”. W
komunikacie prasowym umieszczonym na stronie uczelni Imperial College London podsumowano ramy teoretyczne badań: „Aby skutecznie zastosować teorię gier do ich interakcji [robota i człowieka] uczeni musieli rozwiązać problem polegający na tym że roboty nie są w stanie przewidywać intencji człowieka posługując się jedynie logiką”.
Uczenie się ludzkich zachowań
Zespół naukowy analizował, w jaki sposób „robot powinien być sterowany w celu uzyskania od niego stabilnej i właściwej reakcji na nietypowe zachowanie użytkownika wykonującego ruchy podczas takich czynności jak trening sportowy, rehabilitacja czy wspólna jazda samochodem”. W komunikacie Imperial College London czytamy też, że uczeni przyjrzeli się „różnicy między oczekiwanymi a rzeczywistymi ruchami, aby oszacować ludzką strategię – sposób, w jaki człowiek wykorzystuje błędy popełnione w trakcie zadania do inicjowania nowych działań”. Dalej stwierdzono, że: „Na przykład, jeśli strategia przyjęta przez człowieka nie pozwoli mu na wykonanie danego zadania, robot będzie mógł zwiększyć swoje wysiłki, aby pomóc człowiekowi. Uczenie robota, jak przewidywać ludzkie zachowania, umożliwia mu zmianę jego własnych reakcji”.
Uczeni sprawdzili zastosowaną w badaniu metodę w drodze symulacji i eksperymentów z udziałem ludzi, które wykazały, że „robot może się dostosować, kiedy strategia człowieka zmienia się powoli, tak jak w sytuacji odzyskiwania przez człowieka sił, oraz gdy strategia staje się zmienna i wewnętrznie sprzeczna, jak na przykład po doznaniu obrażeń” – dowiadujemy się z tego samego komunikatu.
Na stronie projektu wyjaśniono, że zamysłem uczonych realizujących projekt CogIMon (Cognitive Interaction in Motion) była „zmiana sposobu, w jaki roboty wchodzą w relacje z ludźmi, poprzez opracowanie modelu robota, który jest bardziej elastyczny, podatny, zdolny do uczenia się i przyjazny użytkownikowi”. „Celem projektu CogIMon jest istotna zmiana w relacjach człowiek-robot idąca w kierunku systemowej integracji solidnych i niezawodnych zdolności do interakcji w ramach zespołów złożonych z ludzi i tzw. podatnych robotów, w szczególności podatnych humanoidów COMAN [ang. Compliant Humanoid]”.
Na stronie podano też, że aby zrealizować swój cel, zespół projektu wykonał „skomplikowane testy robotów w warunkach rzeczywistych, obejmujące interaktywne, miękkie chwytanie i rzucanie, interakcje z robotami COMAN w przypadku zróżnicowanej formy kontaktu i zmieniającego się układu w zespole, a także w przypadku w pełni zaprogramowanego, opartego na modelu sterowania wieloramiennego”.
Platforma robotów COMAN została opracowana przez zespół projektu AMARSi (Adaptive Modular Architecture for Rich Motor Skills) finansowanego w ramach 7PR i zrealizowanego w latach 2010–2014. Na
stronie projektu AMARSi wyjaśniono że dzięki solidnej budowie robot COMAN potrafi chodzić i utrzymać równowagę a poza tym posiada całkowicie autonomiczne zasilanie.
Więcej informacji:
strona projektu CogIMon