Efekt Proteusza – jak awatar wpływa na odbiorcę

Relacja człowieka z technologią jest jednym z obiektów zainteresowania filozofii od pewnego czasu. Na przestrzeni lat powstało wiele teorii, które próbowałyby wytłumaczyć wzajemny wpływ człowieka na technologię i technologii na człowieka, czy całe społeczeństwa. Choć spory deterministów (twierdzących, że to technologia kształtuje człowieka) oraz konstruktywistów (twierdzących, że to człowiek kształtuje technologię) prawdopodobnie nigdy nie zostaną rozstrzygnięte, w tym artykule opisano efekt Proteusza, który może być bliższy jednemu z wymienionych nurtów. 

Czym jest efekt Proteusza? 

Efekt Proteusza jest zjawiskiem, które jako pierwsi opisali Yee oraz Bailenson w 2007 roku. Został on tak nazwany ze względu na mit o bogu Proteuszu, który mógł zmieniać swój wygląd w dowolny sposób. Miał on wykorzystywać swoją moc, aby skrywać swoją wiedzę o wydarzeniach, które miały miejsce oraz o tych, które dopiero miały się stać. Yee i Bailenson zauważyli, że osoby posługujące się wirtualnymi awatarami zmieniają swoje zachowanie na podstawie obserwowanych cech tych postaci, grając nimi w wirtualnym świecie. Para badaczy twierdzi, że gracze wnioskują na podstawie wyglądu i cech awatarów, w jaki sposób powinni dopasować swoje zachowanie oraz ogólne nastawienie, aby sprostać oczekiwaniom, które stawia ich wirtualna reprezentacja. Stwierdzono również, że istnieją podstawy do tego, aby sądzić, iż efekt ten może przedostawać się poza ramy światów cyfrowych i oddziaływać na zachowanie oraz nastawienie osób w świecie rzeczywistym [1].

Efekt Proteusza – przykład występowania

Aby zobrazować na czym polega efekt na realnym przykładzie, posłużę się badaniem, w którym autorzy sprawdzają występowanie efektu Proteusza w trakcie rozgrywania meczy różnymi postaciami w popularnej grze MOBA, Lidze Legend (ang. League of Legends). Uczestnicy rozgrywki są rozdzielani przez grę na dwa zespoły po pięciu graczy, którzy następnie toczą walkę na mapie. Zanim jednak się jej podejmą, każdy z nich musi dokonać wyboru tzw. bohatera (ang. champion). Liga Legend pozwala na rozegranie meczu jednym z ponad 140 bohaterów [2], z których każdy charakteryzuje się innym wyglądem i umiejętnościami. Autorzy tego badania poddali analizie sposób w jaki gracze komunikują się ze sobą, biorąc pod uwagę to, którym bohaterem grają.

Występowanie efektu Proteusza zmierzono wykorzystując czat gry. Na jego podstawie badacze ustanowili wskaźniki takie jak: wokalność („acting more vocal”), zachowania toksyczne („acting more toxic”) i pozytywną lub negatywną wartościowość („valence”). Wartościowość jest formą analizy sentymentu mającą na celu zobrazowanie stanu emocjonalnego gracza. Wyniki analizy potwierdziły występowanie efektu Proteusza, ale nie dla każdego bohatera lub jego typu. Obecność efektu zaobserwowano głównie poprzez wartościowość i toksyczność wypowiedzi. Najważniejszym odkryciem tego badania było dowiedzenie, że sposób komunikacji graczy przez czat rzeczywiście zmieniał się razem z bohaterem, którego wybierali gracze. W zależności od obranej postaci gracz nie wypowiadał się mniej lub więcej, ale mógł być bardziej toksyczny i w gorszym humorze [3].

Efekt Proteusza i jego wykorzystanie

Efekt Proteusza jest fenomenem, który szczególnie zwraca naszą uwagę na relację ludzi z wirtualnymi światami. Dzięki niemu możemy jasno stwierdzić, że w ten, czy inny sposób, technologia wywiera na nas bezpośredni wpływ, nawet zmieniając nasze zachowanie. Niektórzy naukowcy starali się sprawdzić czy można go wykorzystać praktycznie, np. w przypadku wykonywania niektórych zawodów. Zagłębmy się w przeprowadzone przez nich badania.

Wpływ na siłę 

Piątka niemieckich badaczy postawiła hipotezę, według której wykorzystanie odpowiednio dopasowanego awatara sprawi, że osoba sterująca nim będzie wykonywać odpowiednie zadania lepiej, niż gdyby ucieleśniała inną, niewyróżniającą się postać lub siebie samą. W tym przypadku naukowcy zdecydowali się sprawdzić, czy osoba, której wirtualny wygląd sugeruje, że jest silniejsza od badanego, sprawi, że będzie podejmować się większego wysiłku w ćwiczeniach fizycznych. Oprócz śledzenia ruchów badanych ubranych w sprzęt VR, mierzeniu poddano również siłę chwytu.

W trakcie badania uczestnicy byli przydzielani do awatarów zgodnie ze swoją płcią. Badani zostali poddani serii zadań ćwiczeniowych, w których m.in. podnosili ciężarki o różnej ciężkości, czy musieli przez pięć sekund jak najsilniej ściskać dłoń. Zgodnie z rezultatami, autorzy uznają, że badania nie można jednak uznać za reprezentacyjne. W przypadku kobiet nie stwierdzono zwiększonej siły chwytu. U mężczyzn, aczkolwiek, takie wyniki są widoczne. Można zatem cząstkowo wnioskować, że bardziej muskularny awatar może mieć wpływ na siłę mężczyzn [4].

Stymulant kreatywności

W poniższym badaniu sprawdzano, czy awatar jako reprezentacja jednostki w świecie wirtualnym stymuluje kreatywność. W ramach badania organizowano sesje kreatywne, podczas których uczestnicy przeprowadzali burzę mózgów ucieleśniając daną postać. Przed umówieniem sesji badacze wyłonili kilka awatarów, które były postrzegane jako kreatywne i neutralne. Uczestników podzielono na trzy grupy: kontrolną (brainstorming w świecie rzeczywistym), wykorzystującą awatary neutralne oraz wykorzystującą awatary kreatywne, określonych jako wynalazców. Wszystkie grupy odbywały sesje kreatywne w tych samych pomieszczeniach – grupa kontrolna zbierała się wokół okrągłego stołu, a pozostałe korzystały ze sprzętu w tym samym pokoju w oddzielnych kubikach. Następnie w wirtualnej rzeczywistości siadały przy okrągłym stole w odtworzonej przestrzeni. 

W lewej części znajduje się pomieszczenie z okrągłym stołem i krzesłami wokół niego w przestrzeni wirtualnej. W prawej części widnieje pierwowzór w świecie rzeczywistym.
Rysunek 1. Po lewej pomieszczenie z okrągłym stołem i stanowiskami odtworzone w przestrzeni wirtualnej. Po prawej jej pierwowzór w świecie rzeczywistym. [5]

Badacze uniknęli jakiegokolwiek kontaktu badanych z grup awatarowych między sobą, przed oraz po odbyciu się głównej części sesji burzy mózgów; badani nigdy się ze sobą nie spotkali poza eksperymentem. Pierwszym ważnym wynikiem, szczególnie istotnym dla przyszłości zdalnej współpracy, jest fakt, że grupy korzystające z niekreatywnych awatarów osiągały takie same wyniki, jak te które siedziały przy stole w świecie rzeczywistym. Jednakże najważniejszym rezultatem jest dowiedzenie, że osoby, które ucieleśniały awatar wynalazcy odznaczały się konsekwentnie lepszymi wynikami dla każdego ze wskaźników mierzących poziom kreatywności wykorzystywanych w eksperymencie [5].

Pomoc w poprawie komunikacji 

Kolejne badanie zostało przeprowadzone, aby zbadać możliwości szkolenia umiejętności skutecznej komunikacji lekarzy na etapie przedoperacyjnym. Komunikacja z pacjentem może być nieskuteczna m.in. przez to, że lekarze przenoszą zwroty ze środowiska zawodowego. W ramach tego badania wykorzystano dwa doświadczenia w rzeczywistości wirtualnej. W trakcie doświadczenia uczestnicy wcielali się w rolę pacjenta. Na ich podstawie udało się opisać rozwój i wrażenia, które towarzyszyły badanym.

W trakcie eksperymentu uczestnicy przeżywali negatywny lub pozytywny styl komunikacji w sytuacji, w której za niedługo mieliby być poddani operacji. Dzięki przeprowadzonym wywiadom na następnym etapie badawczym wynikło, że uczestnicy uznali istotność znaczenia dobrych umiejętności komunikacyjnych. Ogólnie rzecz biorąc, uczestnicy nauczyli się i dostosowali swój styl komunikacji w późniejszej pracy. Rzeczywistość wirtualna, w której uczestnicy ucieleśniali pacjenta w jednym z dwóch doświadczeń, okazała się skuteczna w zapewnianiu w pełni immersyjnego doświadczenia. Jak twierdzą uczestnicy – czuli się, jakby byli pacjentem. Można zatem dalej wyciągnąć z tego badania, że efekt Proteusza przydaje się również w celach edukacyjnych, poprawy komunikacji i zwiększaniu empatii wobec drugiego człowieka [6].

Podsumowanie

W obliczu nieustannego rozwoju technologii ciągle odkrywamy nowe zjawiska, które mogą następnie kształtować nasze podejście do niej w przyszłości. Efekt Proteusza pokazuje nam, że jej wpływ potrafi być znacznie bardziej bezpośredni niż możemy przypuszczać na co dzień. Choć ten fenomenom jest w dużej mierze nieszkodliwy, wskazuje na to jak dajemy się porwać naszej reprezentacji w świecie wirtualnym. Człowiek już rozpoczął poszukiwanie zastosowania jego właściwości w zróżnicowanych środowiskach – jako mentalne odblokowanie swojej siły, wspomaganie procesów kreatywnych, czy edukacja skutecznej komunikacji. Jednakże, aby móc odpowiedzieć na pytanie, czy efekt Proteusza zadomowi się na dobre w naszej codzienności, musimy jeszcze poczekać. Dodatkowo, warto wiedzieć, iż firma Microsoft rozpoczęła prace nad organizowaniem konferencji międzynarodowych w świecie wirtualnym, z wykorzystaniem awatarów. Z kolei polski startupowiec Gryń – były właściciel firmy Codewise – założył firmę w Londynie, aby skanować ludzi do tego typu przeznaczeń. W BFirst.Tech, dzięki wykorzystaniu jednego z obszarów firmy, czyli Data Architecture & Management (a konkretnie produktu Artificial Intelligence Adaptations) zrealizowany został projekt dla sieci klinik Rehasport, który pozwala na przeprowadzanie operacji w tzw. rzeczywistości rozszerzonej (AR).

Bibliografia

[1] The Proteus Effect: The Effect of Transformed Self‐Representation on Behavior: https://academic.oup.com/hcr/article-abstract/33/3/271/4210718?redirectedFrom=fulltext&login=false 

[2] Liczba na podstawie opisu na stronie: https://www.leagueoflegends.com/en-us/champions/ (dostęp: 23.06.2024) 

[3] Do players communicate differently depending on the champion played? Exploring the Proteus effect in League of Legends: https://www.sciencedirect.com/science/article/abs/pii/S0040162522000889

[4] Flexing Muscles in Virtual Reality: Effects of Avatars’ Muscular Appearance on Physical Performance: https://www.academia.edu/77237473/Flexing_Muscles_in_Virtual_Reality_Effects_of_Avatars_Muscular_Appearance_on_Physical_Performance 

[5] Avatar-mediated creativity: When embodying inventors makes engineers more creative: https://www.sciencedirect.com/science/article/pii/S0747563216301856 

[6] Patient-embodied virtual reality as a learning tool for therapeutic communication skills among anaesthesiologists: A phenomenological study: https://www.sciencedirect.com/science/article/pii/S0738399123001696 

Problemy w danych historycznych i zakodowane uprzedzenia

Prater & Borden

 

W 2014 roku osiemnastoletnia Brisha Borden została oskarżona o popełnienie kradzieży mienia wartości osiemdziesięciu dolarów po tym, jak postanowiła przejechać się pozostawionym i niezabezpieczonym rowerkiem dziecięcym. Brisha w przeszłości, w wieku nieletnim, popełniła mniejsze wykroczenia. 

 

Rok wcześniej czterdziestojednoletni Vernon Prater został przyłapany na kradzieży narzędzi ze sklepu o łącznej wartości 86,35 dolarów. Vernon był już oskarżony o kradzież z bronią w ręku, za co dostał wyrok pięciu lat pozbawienia wolności. Był też oskarżony o próbę dokonania napadu z bronią w ręku. 

 

W USA w tamtym czasie używany był system służący predykcji ryzyka, który miał na celu ocenę, czy dana osoba w przyszłości będzie popełniać inne przestępstwa. System ten dawał ocenę od 1 do 10, gdzie im wyższa wartość liczbowa, tym większe ryzyko popełniania przestępstw w przyszłości. Borden – czarna nastolatka – dostała ocenę wysokiego ryzyka: 8. Prater zaś – biały, dorosły mężczyzna – ocenę niskiego ryzyka: 3. Po dwóch latach Brisha Borden nie popełniła żadnego przestępstwa, natomiast Vernon Prater odsiadywał wyrok ośmiu lat pozbawienia wolności po tym, jak włamał się do magazynu i ukradł elektronikę wartości kilku tysięcy dolarów. [1] 

 

Ukryte dane

 

Zautomatyzowane systemy uczenia maszynowego i big data są coraz liczniejsze w naszym codziennym życiu. Poczynając od algorytmów proponujących użytkownikowi serial do obejrzenia, kończąc na takim, który zadecyduje o racie twojego kredytu hipotecznego. I właśnie, w momencie, kiedy algorytm decyduje o tak ważnej dla człowieka sprawie wchodzimy na dość niebezpieczny grunt. Czy możemy w ogóle ufać takim systemom, aby podejmowały istotne decyzje? Algorytmy komputerowe dają poczucie bezstronności i obiektywności. Czy jednak istotnie tak jest? 

 

W dużym skrócie – algorytmy uczenia maszynowego „uczą się” podejmować decyzje na podstawie dostarczonych danych. Niezależnie od sposobu tej nauki, czy to proste drzewa decyzyjne, czy bardziej zaawansowane sztuczne sieci neuronowe, z założenia algorytm powinien wyciągnąć ukryte w danych wzorce. Tak więc algorytm będzie tak obiektywny, jak obiektywne są dane uczące. O ile możemy się zgodzić, że na przykład dane medyczne czy pogodowe są obiektywne, ponieważ oczekiwane rezultaty nie wynikają z decyzji ludzkich, o tyle decyzje o np. przyznaniu kredytu czy zatrudnieniu były historycznie podejmowane przez ludzi. A ludzie, jak wiadomo, nie są stuprocentowo obiektywni i kierują się określonym światopoglądem i niestety też uprzedzeniami. A te uprzedzenia trafiają do danych w mniej lub bardziej bezpośredni sposób. 

 

Kwestia przygotowania danych nadających się do trenowania algorytmów uczenia maszynowego to bardzo obszerne zagadnienie. Omówienie możliwych rozwiązań to temat na osobny artykuł. 

 

W takim razie, skoro nie chcemy aby algorytm podejmował decyzje na podstawie płci, wieku czy koloru skóry, to czy nie można po prostu nie podawać tych danych? Takie naiwne podejście, choć wydaje się logiczne, ma jedną dużą lukę. Informacja o tych danych wrażliwych może być (i prawdopodobnie jest) zakodowana w innych, pozornie niepowiązanych informacjach. 

 

Dane historyczne są tworzone przez ludzi, a ludzie niestety kierują się pewnymi uprzedzeniami. Decyzje te przesiąkają przez dane, i nawet jeśli tworząc model uwzględni się, aby na wejściu nie uwzględniał danych o rasie, wieku, płci itp. to może się okazać, że informacje te przedostają się pośrednio poprzez np. informacje o kodzie pocztowym. Można przykładowo użyć sieci Bayesowskich (Bayesian networks) do zwizualizowania wzajemnych połączeń między różnymi cechami. To narzędzie ma na celu wskazanie gdzie mogą ukryte być dane, na podstawie których nie chcielibyśmy podejmować decyzji. [2]

Sądowy system oceny ryzyka w USA

 

Powróćmy do algorytmu wykorzystywanego w systemie karnym USA (system COMPAS). Julia Dressel i Hany Farid [3] spróbowali zbadać działanie tego systemu. Na początku przeprowadzili sondę, w której ankietowani bez żadnego doświadczenia w kryminologii dostali krótki opis dokonanego przestępstwa osoby oskarżonej (w tym jej wiek i płeć, ale nie rasę) i historię jej wcześniejszych oskarżeń, ich celem było przewidzenie, czy dana osoba będzie ponownie karana w ciągu najbliższych dwóch lat. Wyniki przeprowadzonego badania wykazały skuteczność (67%) podobną do systemu wykorzystywanego przez system karny USA (65,2%). Co ciekawe, udział odpowiedzi fałszywie pozytywnych, czyli takich, w których osoby oskarżone zostały przydzielone błędnie do grupy wysokiego ryzyka, był stały bez względu na rasę. Osoby czarnoskóre, zarówno w anonimowej sondzie, jak i według systemu COMPAS, miały większe prawdopodobieństwo bycia zakwalifikowanymi do grupy wyższego ryzyka niż osoby białe. Dla przypomnienia – ankietowani nie posiadali informacji o rasie osób oskarżonych. 

 

Następnie przetestowane zostały inne metody uczenia maszynowego, w tym algorytm regresji logistycznej z dwoma cechami na wejściu – wiek i liczba wcześniejszych oskarżeń. Algorytm ten działa w taki sposób, że na (w tym przypadku) dwuwymiarowej płaszczyźnie (każda oś jest wartością danej cechy) umieszczane są poszczególne pomiary ze zbioru treningowego. Następnie wyznaczana jest prosta oddzielająca przypadki z dwóch różnych kategorii. Zwykle nie jest możliwe idealne wyznaczenie prostej, która by bezbłędnie oddzielała dwie kategorie. Dlatego też wyznacza się prostą, której błąd jest minimalny. W ten sposób uzyskano takie działanie prostej, która dzieli płaszczyznę na dwie kategorie – osoby które w przeciągu dwóch lat zostały oskarżone, i te które nie zostały oskarżone (Rys.1). 

wykres liniowy przedstawiający analizę danych historycznych
Rys.1 Sposób działania algorytmu regresji logistycznej.

Algorytm ten ma skuteczność (66,8%) zbliżoną do systemu COMPAS (65,4%). W tym przypadku również zaobserwowano dużo wyższy odsetek osób czarnych niepoprawnie sklasyfikowanych jako osoby wyższego ryzyka od osób białych. 

 

Jak się okazuje, informacja o rasie może przeniknąć też w danych o ilości zatrzymań [2][3]. Na przykład w USA osoby czarnoskóre są aresztowane za posiadanie narkotyków cztery razy częściej od osób białych [8][9]. 

 

Niedziałające modele

 

Czasami modele po prostu nie działają. 

 

W 2012 roku opublikowano dane systemu oceniającego nowojorskich nauczycieli z lat 2007-2010. System ten dawał nauczycielom ocenę od 1 do 100 rzekomo na podstawie osiągnięć uczniów danego nauczyciela. Gary Rubinstein [4] postanowił przyjrzeć się opublikowanym danym. Zauważył, że w statystykach nauczyciele, którzy zostali objęci programem oceny przez kilka lat, mają osobną ocenę z każdego roku. Wychodząc z założenia, że ocena nauczyciela nie powinna się dramatycznie zmienić z roku na rok, postanowił sprawdzić jak zmieniła się w rzeczywistości. Wykreślił oceny nauczycieli, gdzie na osi X oznaczył ocenę z nauczania pierwszego roku, a na osi Y ocenę z drugiego roku nauczania tej samej klasy. Każda kropka na wykresie reprezentuje jednego nauczyciela (Rys.2).

analiza danych historycznych na wykresie z różowymi kwadratami
Rys.2 Wykres ocen nauczycieli w dwóch następujących po sobie latach. [4]

Logicznym wynikiem byłaby zależność zbliżona do liniowej, bądź inna korelacja, ze względu na to że wyniki tej samej klasy u jednego nauczyciela z roku na rok nie powinien się drastycznie zmienić. Tutaj wykres przypomina bardziej generator liczb losowych, a niektóre klasy oceniane na ocenę bliską 100, następnego roku miały wynik bliski 0 i vice versa. Nie jest to wynik, który powinien zwracać system, na podstawie którego ustalane są płace nauczycieli, czy nawet decyzja czy zwolnić taką osobę. Ponieważ ten system po prostu nie działa. 

 

Podobny problem mają algorytmy rozpoznawania twarzy. Zwykle takie technologie są tworzone w taki sposób, że algorytm uczenia maszynowego analizuje wiele obrazów, które są twarzą, i wiele obrazów które przedstawiają coś innego. System wykrywa wzorce, które są charakterystyczne dla twarzy, które nie występują na innych obrazach. Problem zaczyna się, gdy ktoś ma twarz odbiegającą od tych występujących w zbiorze treningowym. Osoby tworzące taki algorytm powinny postarać się o jak najbardziej różnorodny zbiór treningowy. Niestety okazuje się, że często w zbiorach treningowych jest niedostateczna reprezentacja osób o ciemniejszym kolorze skóry. Zbiory treningowe najczęściej mają dystrybucję koloru skóry podobną do społeczeństwa, z którego są zbierane dane. To znaczy, jeżeli zbiór treningowy składa się na przykład ze zdjęć obywateli USA i Europy, wtedy procentowy udział każdego koloru skóry w zbiorze danych będzie zbliżony do tego w demografii USA i Europy, gdzie przeważają osoby o jasnej karnacji (Rys.3). 

wykres słupkowy przedstawiający dane historyczne z podziałem na rasy
Rys.3 Po lewej: dane ze spisu ludności w USA [6]. Po prawej: procentowy udział ras w ogólnodostępnych zbiorach danych [7].

Na uniwersytecie MIT [5] zbadano dokładność algorytmów rozpoznawania twarzy z uwzględnieniem podziału na płeć i kolor skóry. Okazało się, że technologie najpopularniejszych firm, takich jak Amazon czy IBM, nie radzą sobie z rozpoznawaniem kobiet o ciemnym kolorze skóry (rys.4). W sytuacji, gdy technologie te używane są w produktach wykorzystujących technologię rozpoznawania twarzy, pojawia się problem dostępności i bezpieczeństwa. Jeśli dokładność działania jest niska nawet dla jednej określonej grupy odbiorców, istnieje duże ryzyko uzyskania dostępu do np. telefonu przez osobę do tego nieupoważnioną. W czasach kiedy technologie rozpoznawania twarzy wykorzystywane są przez policję w kamerach monitoringu, istnieje duże ryzyko, że niewinne osoby zostaną błędnie rozpoznane jako osoby poszukiwane. Takie sytuacje już miały wielokrotnie miejsce. A wszystko przez niepoprawnie działający algorytm, który dość łatwo można by naprawić poprzez odpowiednie dobranie danych uczących. 

wykres słupkowy przedstawiający dane historyczne z podziałem na przedsiębiorstwa
Rys.4 Zbadana dokładność technologii rozpoznawania twarzy. [5]

Po opublikowaniu badania MIT większość firm poprawiła działanie swoich algorytmów, dzięki czemu dysproporcje w rozpoznawaniu twarzy są znikome. 

 

Inkluzywny kod

 

Nie możemy być w stu procentach ufni algorytmom uczenia maszynowego i big data. Zwłaszcza jeśli w grę wchodzi decydowanie o ludzkim losie. 

Jeśli chcemy tworzyć narzędzia, które są skuteczne, i nie uczą się uprzedzeń ludzkich, należy zejść do poziomu danych. Trzeba analizować wzajemne zależności atrybutów, które mogą wskazywać na rasę, płeć, czy wiek. Selekcjonować te, które są naprawdę niezbędne do poprawnego działania algorytmu. Następnie konieczna jest analiza samego działania algorytmu i jego wyników, aby zapewnić, że algorytm jest w istocie obiektywny. 

Modele uczenia maszynowego uczą się poszukując wzorców i odtwarzając je. Jeśli podajemy nieprzefiltrowane dane historyczne, nie tworzymy tak naprawdę nowych, skuteczniejszych narzędzi, tylko automatyzujemy status quo. A gdy w grę wchodzi ludzki los, my, jako developerzy, nie możemy pozwolić sobie na powtarzanie starych błędów.

 

Bibliografia