Wspierani przez UE naukowcy zbadali, jak ludzie przekazują i odczytują złożone sygnały mimiczne.
Na Ziemi jest nas ponad 7 miliardów, a twarz każdego z nas – oczy, nos, usta i policzki – mówi o nim coś wyjątkowego. Twarz wyraża wiele różnych emocji, co czyni ją jednym z najważniejszych narzędzi używanych w kontaktach społecznych. Ale na ile wyjątkowa jest mimika, za pomocą której demonstrujemy nasze uczucia?
Zespół finansowanego ze środków UE projektu FACESYNTAX pokazał, że sposoby mimicznego wyrażania emocji są równie różnorodne i złożone, co nasze twarze. Wyniki ich pracy opublikowano w czasopiśmie „Current Biology”.Korzystając z nowoczesnej platformy grafiki komputerowej, zespół badaczy zaprezentował setce uczestników rozmaite, wygenerowane komputerowo obrazy twarzy i poprosił ich o wskazanie emocji, jakie wyrażały te twarze. Badani wybierali jedną z sześciu tradycyjnych kategorii emocji (radość, zaskoczenie, strach, odraza, gniew i smutek). Ponadto oceniali charakter – negatywny lub pozytywny – oraz natężenie wyrażanych emocji (spokój i zadowolenie, zachwyt lub ekscytacja).
Badacze następnie ustalili, które ruchy mięśni twarzy (np. uniesienie brwi, zmarszczenie nosa, otwarcie ust) mogą komunikować zarówno ogólny charakter emocji (np. pozytywny, negatywny), jak i jej konkretną kategorię (np. radość, smutek). Wskazali także ruchy mimiczne, które mogą służyć do przekazywania tylko jednego rodzaju informacji. Mówiąc w skrócie, uniesiona brew może komunikować jednocześnie dwa rodzaje informacji – ogólny charakter emocji (negatywny) i jej konkretną kategorię (smutek).
Na mimikę składają się kombinacje pojedynczych ruchów mięśni twarzy, nazywanych jednostkami czynnościowymi (ang. action unit, AU). Takie jednostki AU, od zamykania oczu po opuszczanie żuchwy, uważa się za sygnały złożone, ponieważ mogą komunikować dwa rodzaje informacji. Spośród 42 różnych jednostek AU 26 sklasyfikowano jako złożone.„Nasze badanie odpowiada na podstawowe pytanie o to, jak realizujemy zadanie przekazywania emocji w oparciu o złożone sygnały za pomocą mimiki”, wyjaśnia w informacji prasowej współautorka badania prof. Rachael Jack z Instytutu Neuronauki i Psychologii na Uniwersytecie w Glasgow, który pełni rolę koordynatora projektu. „Używając wygenerowanych komputerowo obrazów twarzy w połączeniu z subiektywnymi reakcjami percepcyjnymi ludzi oraz nowatorskimi narzędziami analitycznymi, pokazaliśmy, że mimika może komunikować złożone kombinacje informacji emocjonalnych za pośrednictwem złożonych sygnałów mimicznych”.
Wyniki badania będą miały wpływ na globalizację i integrację kulturową w sytuacji, w której komunikacja społeczna oparta na wirtualnych środkach jest istotną częścią społeczeństwa. Mogą się one również okazać przydatne w rozwoju przyszłych technologii. „Wyniki te pogłębiają naszą podstawową wiedzę na temat systemu ludzkiej komunikacji i mogą zostać bezpośrednio wykorzystane do zwiększenia możliwości społecznie interaktywnej sztucznej inteligencji, w tym robotów społecznych i cyfrowych awatarów, w zakresie sygnalizacji społecznej”, podsumowuje prof. Jack.
Ogólnym celem projektu FACESYNTAX (Computing the Face Syntax of Social Communication) jest przygotowanie „pierwszego formalnego modelu generatywnego ludzkich sygnałów mimicznych w kulturze i pomiędzy kulturami”, jak stwierdzono w serwisie CORDIS. Model ten będzie podstawą ram teoretycznych, które połączą istniejące teorie dotyczące społecznego postrzegania twarzy. Realizacja projektu zakończy się w sierpniu 2024 r.
Więcej informacji: