Na razie to science fiction, w laboratoriach testuje się już jednak procesy emocjonalne i poznawcze za pomocą robotów i agentów wirtualnych symulujących ludzkie zachowania. O eksperymentach sprawdzających interakcje człowiek – maszyna oraz nowych perspektywach diagnozowania i terapii zaburzeń komunikacyjnych z wykorzystaniem sztucznej inteligencji, rozmawiamy z dr Sylwią Hyniewską, psychologiem i specjalistą informatyki afektywnej.
Informatyka afektywna to nowy kierunek psychologii?
Raczej dziedzina wyodrębniona w 1995 roku przez prof. Rosalind Picard ze Stanów Zjednoczonych i określona jako affective computing. To kierunek interdyscyplinarny, na który składają się m.in. elementy psychologii i socjologii, robotyki, informatyki oraz matematyki. Informatyka afektywna zajmuje się metodami rozpoznawania, analizy, interpretacji i symulacji emocji i odczuć.
Dlaczego to pani ulubiona dziedzina?
Zachwycam się technologią, która jeszcze nie istnieje, ale wierzę, że jest nieunikniona w przyszłości. Mam na myśli roboty, które są w stanie samodzielnie funkcjonować, rozmawiać z nami i współodczuwać. Maszyn, które mają swoje własne cele, ale niekolidujące z naszymi celami.
Kto to jest Greta, o której czytałam w Pani pracach?
Greta to agent wirtualny, człowiekopodobny. Narodziła się we Włoszech, a jej „matką” była Catherine Pelachaud. Dzieciństwo Greta spędziła w Telekom ParisTech. Teraz doświadczenia z udziałem tego awatara przeprowadza się na całym świecie, ale laboratorium główne znajduje się w Paryżu. Opracowanie Grety zajęło 15 lat. Ja przez 5 lat brałam udział w testach tego chyba najbardziej znanego w świecie awatara. Greta jest uznawana za agenta idealnego, gdyż ma dużą autonomię i wiele modułów, umożliwiających komunikowanie się z ludźmi na różne sposoby. Zmieniając je, można zmienić jej wygląd i nadać określoną osobowość. Można „stworzyć” na przykład rozzłoszczonego agenta, który podczas rozmowy jest zawsze na „nie”.
Wtedy osoba siedząca przed komputerem ma przed sobą jakby drugiego, wrednego człowieka…
Tak.
A czemu to służy?
Prowadzimy obserwacje interakcji między dwiema osobowościami, analizujemy odpowiedzi badanych na sposób mówienia i zachowania tego wrednego agenta. Jak ów złośliwy agent prowadzi rozmowę z osobą uległą (albo uległym agentem, bo można też obserwować interakcje dwóch maszyn) i do czego to prowadzi, np. w negocjacjach. Ten agent może siedzieć za biurkiem, przypominając nam złośliwego przełożonego, albo nawet w pokoju, w którym się aktualnie znajdujemy (program przewiduje wizualizacje). Możemy więc sprawdzić, jaki jest wpływ agenta posiadającego określone cechy na zachowanie człowieka w określonych okolicznościach.
Takiego doświadczenia nie można przeprowadzić z udziałem ludzi? Można przecież wybrać dwie osoby o różnych typach osobowości, posadzić naprzeciwko siebie i obserwować ich negocjacje…
Efektem byłby wielki chaos, bo w takim doświadczeniu badacze nie mają żadnego wpływu na parametry. Kiedy dwie osoby pozostają w interakcji, jest tak dużo czynników rzutujących na jej przebieg (wszystkie bodźce werbalne i niewerbalne), że nie jesteśmy w stanie ocenić, co miało wpływ np. na efekt negocjacji, a co nie. Obserwacje ludzi mogą być jedynie inspiracją do przeprowadzania dokładnych analiz z udziałem agenta wirtualnego. Jeśli z tych obserwacji wynika na przykład, że w negocjacjach człowiek – człowiek liczy się przede wszystkim komunikacja wzrokowa, to – aby tę tezę udowodnić – należy odtworzyć taką sytuację z awatarem. Zmieniając kolejne pojedyncze parametry, możemy sprawdzić w warunkach laboratoryjnych, czy rzeczywiście kontakt wzrokowy ma tak duże znaczenie, a tym samym dużo nauczyć się o swoich zachowaniach na podstawie zachowań awatara.
Co jest dla Pani najbardziej fascynujące w badaniach z udziałem robotów?
To, że ludzie zaskakująco szybko zaprzyjaźniają się z awatarem. Mogą mu opowiadać o swoim życiu, śmiać się razem z nim, mogą go o coś prosić, zaczepiać itd. Na początek znajomości zawsze chcą jednak sprawdzić granice awatara, zadając czasem zabawne pytania: „A czy pani ma chłopaka?”, „A co dziś wieczorem pani robi? Jeśli pani jest wolna, może zaprosiłbym panią na kawę”.
Opowiadają też dowcipy?
Greta reaguje na dobre żarty. Niektóre bardzo ją rozśmieszają, a przynajmniej jest w stanie się zaśmiać i pokazać nam, co uważa za dobry żart. Na wspomniane propozycje odpowiadała „Chyba pan sobie ze mnie żartuje”. Po takiej wstępnej wymianie zdań ludzie rozluźniają się, zaczynają opowiadać o sobie i swoim życiu, jakby mieli do czynienia z drugim człowiekiem.
To akurat mnie nie dziwi. Pamiętam film, w którym rozbitek na bezludnej wyspie grany przez Toma Hanksa rozmawiał z piłką basebollową…
Chęć rozmowy to cecha bardzo ludzka. Obserwowane przez nas osoby nie były jednak wyizolowane, a mimo to chciały prowadzić konwersację. Choć mieliśmy też model awatara, który był mrukiem i zdawkowo odpowiadał na zadawane pytania. Nikt nie chciał z nim rozmawiać. Z kolei innym razem awatar był tak zaprogramowany, że utrzymywał bardzo długie i bardzo serdeczne rozmowy. Nasi pacjenci dawali się w nie wciągać i w ogóle nie przeszkadzało im, że to postać wirtualna.
Prowadziła Pani badania z udziałem Grety?
Tak, nad symulacją zachowań. Testowałam teorię, mówiącą że zachowania emocjonalne występują w sekwencjach. Na początku sądzono, że emocjom towarzyszy bardzo specyficzna ekspresja, np. jak człowiek dostanie czekoladę, to odpowiada radosnym uśmiechem. Kiedy weszły modele modularne, zaczęto myśleć, że ekspresja zmienia się wraz z różnymi fazami emocji (np. obdarowany czekoladą wykonuje najpierw ruch głowy, kieruje na nią wzrok, przez chwilę dziwi się, wreszcie zaczyna radośnie uśmiechać się). Przeanalizowałam nagrania z ukrytych kamer, programów typu reality show i zakodowałam zmiany w ekspresji twarzy i zmiany w posturze ciała, jakie następowały u ludzi w określonych sytuacjach. Później zaprogramowaliśmy Gretę w taki sposób, aby miała podobny sposób ekspresji i sprawdziliśmy – odejmując za każdym razem jeden parametr, np. ruch brwiami w górę – na ile trafnie uczestnicy naszego doświadczenia odgadują na podstawie tej ekspresji odczucia awatara. Wcześniej psychologowie badali, jak oceniane są konkretne parametry, czyli elementy mimiki twarzy. Nam chodziło o to, by sprawdzić reakcję na pełną ekspresję z pominięciem jednego elementu, takiego jak na przykład wspomniane poruszanie brwiami. Tym właśnie sposobem wykazałam, że ruchy brwi są podstawą naszej oceny, czy drugi człowiek panuje nad sytuacją.
Ktoś, kto panuje nad sytuacją, opuszcza brwi czy je unosi?
Jeśli brwi opadają, to znaczy, że jesteśmy skupieni i nie poddajemy się nawet w trudnej sytuacji. Gdy brwi wędrują w górę, to może oznaczać, że przestaliśmy nad nią panować.
Unoszenie brwi w górę kojarzy się ze zdziwieniem…
Zdziwienie oznacza właśnie, że nie mamy wszystkiego pod kontrolą. Samo poruszanie brwi nie przesądza zresztą sprawy. Byśmy mogli wyciągnąć jednoznaczne wnioski, ten element naszej mimiki musi niejako współgrać z całą dynamiką ekspresji twarzy w określonej sytuacji.
Co ta wiedza dotycząca ekspresji może nam dawać w praktyce?
Może być przydatna na przykład do diagnozowania rozmaitych zaburzeń. Są osoby, które nie wychwytują sygnałów niezbędnych do normalnej komunikacji. Wiedząc, jakie sygnały umykają takiej osobie, możemy podjąć próbę kompensacji. Albo sprawdzić, czy nie kryją się za tym jakieś zaburzenia. Jeśli ktoś podczas rozmowy nie patrzy na twarz drugiej osoby, to wiadomo, że coś jest nie tak. Może to świadczyć o braku stymulacji społecznej, mającym różne przyczyny braku rozwoju emocjonalnego – niezwracanie uwagi na swoje własne emocje i emocje innych, na przykład z powodu braku odpowiedniego rozwoju językowego. Niektórzy pacjenci z takim problemem bardzo szybko kompensują braki, a niektórzy poddają się – nie patrzą na rozmówcę, tylko skupiają wzrok na czymś innym. Nietypowe postrzeganie emocji u innych może być powiązane z różnymi fobiami, a także z autyzmem, depresją, lękami, schizofrenią.
W kontakcie z awatarem można więc dowiedzieć się o człowieku rzeczy, o których innym sposobem nigdy byśmy się nie dowiedzieli?
W niektórych przypadkach na pewno. Awatary ułatwiają diagnostykę zaburzeń związanych z komunikacją, ale przy ich odpowiednim zaprogramowaniu można również sprawdzić, jakie znaczenie w komunikacji ma na przykład płeć czy kolor skóry, na ile ulegamy przesądom czy stereotypom.
Z badań wynika, że wirtualni agenci mogą sprawdzać się także jako terapeuci.
Tak. Awatary mogą być pomocne w terapii zaburzeń autystycznych i komunikowania się, np. u osób mających problemy z wymawianiem słów. W tym ostatnim przypadku maszyna może mieć nawet funkcję detekcji wymowy, aby pacjent dostawał informację zwrotną, ułatwiającą korygowanie błędów. W przypadku osób z zaburzeniami słuchu i mowy taka rozmowa może też być na początku połączona z miganiem. Niektóre badania wskazują, że percepcja migania przez awatary nie byłaby trudna. Awatar też może migać od czasu do czasu, co ułatwiałoby pełne zintegrowanie maszyny z pacjentem.
Jedno z badań wykazało, że pacjenci mający za sobą traumatyczne przeżycia chętniej otwierają się przed wirtualnym terapeutą niż przed lekarzem czy psychologiem. Dlaczego?
Bo mają wrażenie, że w kontakcie z awatarem są w stanie zachować większą anonimowość. Ludzie z zasady nie chcą okazywać swoich słabości, nawet jeśli wiedzą, że terapeuta to osoba, która ma służyć im pomocą. Psychiatra, psycholog to obcy człowiek, a mimo to starają się przed nim zachować twarz. Nierzadko zresztą wstydzimy się przed samym sobą. Sami przed sobą retuszujemy rzeczywistość albo się nawet okłamujemy. Nic więc dziwnego, że nie chcemy mówić terapeucie o czymś, co sami negujemy. Podczas wspomnianego doświadczenia zachowania były typowe – pacjenci przekonywali najpierw, że nie mają większych problemów. Po pewnym czasie dopowiadali tylko więcej, np. że mają nieprzyjemne sny. Wirtualny agent podchwytywał temat, dopytywał o ich treść, sprytnie ciągnął wątek, uzyskując w ten sposób dodatkowe informacje.
Awatary mogą zastąpić psychoterapeutów w gabinetach?
Raczej nie zastąpią, ale mogą wspomóc. Wspomniane doświadczenie z powodów etycznych odbywało się pod ścisłym nadzorem. Ponieważ badanymi byli pacjenci po traumatycznych doświadczeniach, zadawanie pytań, które mogłyby być dla nich trudne lub bolesne, było wykluczone. Myślę, że na podobnej zasadzie wirtualne maszyny mogą kiedyś pojawić się w gabinetach terapeutycznych.
Rozmawiała: Jolanta Chyłkiewicz
dr Sylwia Julia Hyniewska
W 2013 roku obroniła pracę doktorską z psychologii na Uniwersytecie Genewskim w Szwajcarii i z informatyki afektywnej w Telecom ParisTech we Francji. Przez siedem lat prowadziła badania nad postrzegania emocji w komunikacji międzyludzkiej, w sytuacjach twarzą w twarz i nad wpływem sygnałów niewerbalnych na postrzeganie emocji u innych. Członek Japan Society for the Promotion of Science. W NCOB IFPS prowadziła badania z zastosowaniem analizy neuroobrazowej.