Psychoterapia w smartfonie

Z powodu niedoboru specjalistów i obaw przed stygmatyzacją większość osób zmagających się z chorobami psychicznymi pozostaje bez profesjonalnej opieki. Czy pomoże im sztuczna inteligencja?

15.08.2022

Czyta się kilka minut

W metrze w Singapurze, maj 2019 r. / GRANT ROONEY / EAST NEWS
W metrze w Singapurze, maj 2019 r. / GRANT ROONEY / EAST NEWS

Możesz powiedzieć więcej o tym, co się dzieje?

– Słabo się czuję.

– Czy dobrze rozumiem, że problem w tym, że czujesz się przybity?

– Dokładnie.

– Smutek może sprawić, że najmniejsze wyzwania wydają się nam górami, na które nie da się wspiąć, ale chcę żebyś wiedział: jestem tu, żeby ci pomóc, i razem możemy przez to przejść.

Mogłoby się wydawać, że to początek typowej sesji psychoterapeutycznej. Rozmówcy siedzą w głębokich fotelach ustawionych naprzeciw siebie pod lekkim kątem. Na niskim stoliku między nimi leży pudełko chusteczek.

Ale powyższy dialog odbył się w supermarkecie. W długiej kolejce zacząłem rozmawiać na telefonie z Woebotem – anglojęzycznym czatbotem terapeutycznym. Gdyby ktoś na mnie spojrzał, pomyślałby pewnie, że sprawdzam listę zakupów.

Inteligencja na co dzień

Sztucznej inteligencji (ang. artificial ­intelligence – AI) chyba już nikomu nie trzeba przedstawiać. Przypomnijmy tylko, że mianem tym określamy każdy sztucznie stworzony system, który zdolny jest w pewnym zakresie naśladować ludzką inteligencję poprzez realizowanie zadań takich jak posługiwanie się językiem, rozpoznawanie wzorców czy przeprowadzanie rozumowań. W odróżnieniu od klasycznych programów komputerowych algorytmy AI mają zdolność ciągłego samodoskonalenia zwaną „uczeniem maszynowym”. Podobnie jak w przypadku nabywania wielu umiejętności przez ludzi, im więcej razy algorytm wykona dane zadanie, tym lepiej będzie sobie z nim radził w przyszłości.

Sztuczną inteligencję wyposażoną w rodzaj mechanicznego ciała, z którego pomocą może ona bezpośrednio oddziaływać ze światem zewnętrznym, nazywamy „inteligentnymi robotami” – to np. samosterujące się samochody. Większość systemów AI zamieszkuje jednak wyłącznie świat wirtualny. To one napędzają wyszukiwarki internatowe, czyszczą nasze skrzynki mailowe ze spamu, w mgnieniu oka upiększają wrzucane na Instagram zdjęcia, a na serwisach stream­ingowych polecają nam seriale.

Jednym z zadań, z którymi AI radzi sobie całkiem nieźle, jest analiza obrazów. Dlatego też szeroko eksplorowane jest wykorzystanie AI w diagnostyce medycznej. Np. w marcu 2019 r. zespół Ioannisa Sechopoulosa z Uniwersytetu im. Radbouda w Nijmegen wykazał, że sztuczna inteligencja może analizować wyniki mammografii nie gorzej niż doświadczeni radiolodzy.

Wyglądasz, jakbyś cierpiał

Coraz częściej AI wykorzystywana jest także w psychiatrii. Tu również na plan pierwszy wysuwa się diagnostyka. Podejmuje się już np. pierwsze próby stosowania algorytmów uczenia maszynowego do rozpoznawania objawów depresji na podstawie analizy ludzkiej mowy i mimiki, i można mieć nadzieję, że w przyszłości maszyny będą umiały robić to przynajmniej tak dobrze jak ludzie. Może się jednak okazać, że uczenie maszynowe otworzy przed nami dostęp do zupełnie nowych zasobów, nieosiągalnych dla ludzkich diagnostów.

Zakładając, że depresji często towarzyszy pewien stopień zaburzenia funkcji motorycznych, zespół profesora Leontiosa Hadjileontiadisa z Uniwersytetu w Tesalonikach zaproponował w 2019 r. metodę wczesnego rozpoznawania depresji na podstawie analizy rytmu, w jakim użytkownicy piszą wiadomości na swoich telefonach komórkowych. Chodzi tu o analizę nie treści tych wiadomości, lecz jedynie szybkości i częstotliwości, z jaką ludzie wybierają kolejne litery na ekranach dotykowych. W podobnym duchu Shweta Ware z Uniwersytetu w Connecticut ze współpracownikami zaproponowali metodę diagnostyczną opartą na śledzeniu lokalizacji właścicieli urządzeń mobilnych. Badanie zostało przeprowadzone wśród studentów na kampusie uniwersyteckim, a jego podstawowa przesłanka była prosta: studenci zmagający się z depresją spędzają średnio więcej czasu w swoich pokojach, rzadziej odwiedzają nowe miejsca i rzadziej korzystają z infrastruktury sportowej czy rozrywkowej.

Oczywiście skuteczność każdej z tych metod jest ograniczona. Jednak algorytmy – w przeciwieństwie do ludzi – są niestrudzone. Wyposażony w odpowiednią moc obliczeniową algorytm będzie mógł w przyszłości równocześnie analizować dane o naszej lokalizacji i sposobie korzystania z urządzeń mobilnych, treść i intonację naszych wypowiedzi, naszą mimikę i wiele innych parametrów. Potencjał takiego kumulatywnego rozwiązania jest ogromny.

Ten głos ma w końcu twarz

Możliwości AI w psychiatrii nie ograniczają się jednak do diagnostyki. Można ją też stosować w samym procesie leczenia. Jednym z przykładów takiego zastosowania jest fascynująca metoda terapeutyczna przeznaczona dla osób doznających tzw. halucynacji słuchowych słownych – co potocznie określa się mianem „słyszenia głosów”. Chociaż to zjawisko może mieć różne podłoże, stanowi jeden z typowych objawów schizofrenii – uznaje się, że około 70 proc. osób, u których zdiagnozowano schizofrenię, słyszy głosy. Objaw ten najczęściej pojawia się u pacjentów po raz pierwszy już w okresie dojrzewania lub wczesnej dorosłości – przed 25. rokiem życia. Treść wypowiedzi, które pacjenci słyszą w swojej głowie, jest różna, ale dominuje przekaz negatywny i oskarżycielski. Pacjent może np. słyszeć głos mówiący „Jesteś bezwartościowy”, „Nikt cię nie potrzebuje”, a nawet „Zabij się” czy „Skocz z mostu”.

Wspomniana terapia wykorzystuje połączenie AI oraz wirtualnej ­rzeczywistości. Pierwszym krokiem jest stworzenie przez pacjenta i terapeutę awatara, czyli wirtualnej reprezentacji danego głosu. Korzystając z obszernych bibliotek zawierających dziesiątki tysięcy kombinacji cech fizycznych, pacjenci mogą stworzyć niejako „portret pamięciowy” postaci, której głos słyszą. Mogą też wybrać odpowiedni ton głosu, którym awatar będzie się posługiwał. Tym samym awatary stają się uosobieniami głosów w głowie pacjentów. W trakcie samej terapii pacjent widzi na ekranie stworzonego przez siebie awatara, który sterowany jest przez terapeutę z innego pomieszczenia. Awatar naśladuje mimikę terapeuty i powtarza jego wypowiedzi – robi to jednak własną wirtualną twarzą i własnym wirtualnym głosem. Dzięki takiemu rozwiązaniu pacjenci stają twarzą w twarz z głosami słyszanymi w swoich głowach, a tym samym – w bezpiecznych i kontrolowanych warunkach terapii – mogą się uczyć odpowiedniego reagowania na doświadczane przez siebie halucynacje. Terapeuta, kontrolując awatara, kontroluje także intensywność pracy terapeutycznej i dostosowuje ją do aktualnych potrzeb i możliwości pacjenta.

Sztuczny terapeuta

Tego typu awatary stanowią potencjalnie znakomite narzędzie wspomagające pracę terapeutów. Brak specjalistów w zakresie zdrowia psychicznego jest jednak sporym problemem – według Światowej Organizacji Zdrowia na całym świecie na każde 100 tys. osób przypada ich zaledwie 13. Szacuje się też, że 70 proc. osób zmagających się z chorobami psychicznymi pozostaje bez profesjonalnej opieki. Jeśli więc AI ma nam pomóc, powinniśmy poszukiwać rozwiązań, które w ogóle nie będą wymagały uczestnictwa człowieka.

Pierwszym krokiem w tym kierunku są coraz popularniejsze czatboty terapeutyczne. Zdecydowana większość z nich posługuje się językiem angielskim. Do najpopularniejszych należą Tess, Wysa czy wspomniany na początku Woebot – uosabiany przez żółtego robota o wielkich, okrągłych oczach. Zespół kierowany przez Jarosława Michałowskiego z Uniwersytetu SWPS pracuje obecnie nad przygotowaniem pierwszego polskojęzycznego czatbota terapeutycznego, który ma nosić imię Fido. Na czym dokładnie polega działanie takich czatbotów?

Zalicza się je do tzw. czatbotów konwersacyjnych. To algorytmy wyspecjalizowane w przetwarzaniu języka, które coraz częściej spotykać można np. na stronach banków czy sklepów internetowych, gdzie mają za zadanie ułatwić klientowi rozwiązanie często napotykanego problemu lub odnalezienie odpowiedniej usługi. Czatboty terapeutyczne stoją, rzecz jasna, przed znacznie trudniejszym zadaniem – przeprowadzaniem interwencji terapeutycznej.

By to zilustrować, wróćmy na chwilę do rozmowy, którą odbyłem w supermarkecie z czatbotem Woebot. Po tym, jak zapewnił mnie o swoim wsparciu, Woebot zaproponował mi kilka rzeczy, które mógłbym zrobić w związku z moim obniżonym nastrojem. Jedną z nich była próba uchwycenia, przeanalizowania i w końcu zmiany sposobów myślenia, które mogą leżeć u podłoża mojego złego samopoczucia.

Choć termin ten nie padł w mojej rozmowie z Woebotem, każdy, kto zna się na psychoterapii, rozpoznałby w tym proces tzw. restrukturyzacji poznawczej – wykorzystywany w niezwykle popularnej ­terapii poznawczo-behawioralnej. Kiedy, na prośbę Woebota, wpisałem do aplikacji trzy myśli, które mnie wówczas dręczyły, czatbot przeprowadził mnie przez listę błędów poznawczych, na których myśli te mogą bazować.

Myśl o tym, że jak zawsze nie zdążę wysłać artykułu w wyznaczonym terminie, okazała się oparta na nadmiernej generalizacji – czyli dokonaniu nieuprawnionego uogólnienia. Fakt, że ostatnio zdarzyło mi się wysłać artykuł po terminie, nie oznacza, że robię to zawsze. Z łatwością mogłem pomyśleć o kilku niedawnych sytuacjach, kiedy wysłałem obiecany tekst na czas. Krótką sesję terapeutyczną przerwał głos kasjera pytającego, czy potrzebuję siatki.

Problemy z czatbotami

Twórcy czatbotów terapeutycznych przedstawiają liczne argumenty na rzecz oferowanych przez siebie rozwiązań. Podstawowymi są wspomniany już niedobór specjalistów w zakresie zdrowia psychicznego oraz wysokie koszty pomocy ­psychoterapeutycznej oferowanej przez specjalistów prywatnie. Innym argumentem jest wciąż obecna w naszym społeczeństwie stygmatyzacja problemów psychicznych. Wiele osób nie zgłasza się do psychiatry lub terapeuty, ponieważ mniej lub bardziej świadomie boi się, że w konsekwencji przylgnie do nich łatka „wariata”. Obawa ta może być szczególnie paraliżująca w przypadku ludzi młodych, którzy znacznie bardziej komfortowo będą czuli się w interakcji ze swoim telefonem niż z obcym dorosłym wypytującym o ich problemy.

Ten ostatni argument ma jednak swoje ograniczenia. Jak zauważa filozofka Şerife Tekin z Uniwersytetu Teksańskiego w San Antonio, naszym celem powinno być przeciwdziałanie społecznej stygmatyzacji chorób psychicznych, a nie obchodzenie tego problemu. Mimo iż powstają w dobrej wierze, czatboty terapeutyczne mogą przyczynić się do pogłębienia izolacji osób zmagających się z problemami psychicznymi, jeśli te nabiorą mylnego wrażenia, że wraz z nadejściem czatbotów wszystkie narzędzia potrzebne do poprawy swojego stanu mają w kieszeni.

Wiąże się z tym jeszcze jeden, być może najistotniejszy problem wywołany przez współczesny boom na czatboty terapeutyczne. Wielu producentów czatbotów bardziej lub mniej otwarcie reklamuje oferowane przez siebie produkty jako substytut psychoterapii. Na swojej stronie internetowej Woebot nie jest przedstawiany jako terapeuta, lecz jako „Twój osobisty sprzymierzeniec w zakresie zdrowia psychicznego”. Na tej samej stronie czytamy jednak, że zadaniem Woebota jest „dostarczanie indywidualnego wsparcia terapeutycznego poprzez wykorzystanie łatwych w obsłudze rozwiązań terapeutycznych” oraz że „nie ma u nas umawiania terminów spotkań czy siedzenia w poczekalniach”. Tym samym twórcy aplikacji sugerują, że ich produkt może i powinien być porównywany z wizytą u specjalisty, a nie np. z lekturą książki samopomocowej. Problem w tym, że czatboty terapeutyczne nie oferują psychoterapii.

To nie jest terapia

Jak zauważa wspominana Şerife Tekin, żeby mówić o psychoterapii, musimy mieć do czynienia z zaistnieniem szczególnego rodzaju relacji – zwanej „relacją terapeutyczną”. Istotnymi elementami tej relacji są empatia, zaufanie czy wzajemne zrozumienie. Czatboty, nie będąc podmiotami czy osobami, nie mogą z nami budować tego rodzaju relacji. Trudno jest np. powiedzieć, że mogę obdarzyć czatbota zaufaniem. Jeśli ufam, że czatbot będzie dobrze działał albo że informacje, które wprowadzam do aplikacji, nie trafią w niepowołane ręce, to być może obdarzam zaufaniem twórcę czatbota, ale na pewno nie sam program czy algorytm.

Podobnie jest z empatią. Czatboty mogą naśladować niektóre zachowania kojarzone z empatią, np. mówiąc „przykro mi, że tak się czujesz”. Nie znaczy to jednak, że faktycznie z nami empatyzują. Jak wie każdy, kto ma szczęście posiadać przyjaciół, empatia nie sprowadza się do zrobienia w odpowiednim momencie smutnej, zamyślonej miny. Prawdziwa empatia wymaga zdolności współodczuwania i współdoświadczania, której czatbotom brakuje.

Jeśli jednak czatboty nie prowadzą terapii, to co robią? Dostępne czatboty potrafią przeprowadzić użytkowników przez wybrane techniki terapeutyczne (jak chociażby wspomniana restrukturyzacja poznawcza, czyli zauważanie, analiza i zmiana problematycznych sposobów myślenia), zasugerować ćwiczenie relaksacyjne, trening uważności lub odpowiednie materiały psychoedukacyjne.

Mogą więc służyć jako uzupełnienie psychoterapii prowadzonej przez człowieka lub jako wsparcie dla osób, które nie potrzebują psychoterapii, ale chcą popracować nad poprawą jakości swojego życia. Na skali pomiędzy terapią oferowaną przez wykwalifikowanego specjalistę a książką samopomocową czatboty terapeutyczne znajdują się jednak znacznie bliżej książki.

Spojrzenie w przyszłość

Kiedy zatem będziemy mogli umówić naszą pierwszą sesję terapeutyczną u sztucznej inteligencji? Niestety najpewniej nie wydarzy się to w najbliższej przyszłości.

Być może wraz z rozwojem technologii będą powstawały algorytmy i roboty coraz lepiej udające ludzki sposób doświadczania rzeczywistości i pewnie coraz częściej będziemy się na to nabierać. Czy jednak w psychoterapii wystarczy, żeby wydawało się nam, że terapeuta nam współczuje i nas rozumie? A może warunkiem jej skuteczności jest autentyczne współczucie i zrozumienie?

Poza tym obecnie dostępna AI radzi sobie najlepiej z wąskimi, jasno wytyczonymi zadaniami. Łatwo jest zbudować czatbota, który będzie umiał pomóc nam wybrać spośród puli usług oferowanych przez dany bank. Jeśli jednak tego samego czatbota zapytamy o przepis na jagodzianki, najprawdopodobniej okaże się bezradny. Mało prawdopodobne, że da się zbudować stosunkowo wąską listę wszystkich tematów, które poruszane są w trakcie psychoterapii. Jak głosi słynne pierwsze zdanie powieści „Anna Karenina”: „Wszystkie szczęśliwe rodziny są do siebie podobne, każda nieszczęśliwa rodzina jest nieszczęśliwa na swój sposób”. Ludzkie cierpienie ma bardzo różne oblicza. Długo jeszcze trzeba będzie czekać, żeby o nich wszystkich porozmawiać z maszyną. ©

DO KTÓREJ SZKOŁY ZAPISAĆ CZATBOTA?

PSYCHOTERAPIA nie jest monolitem. James Prochaska i John Norcross, autorzy znanego kompendium podejść psychoterapeutycznych, szacują, że istnieje obecnie około 500 różnych metod terapeutycznych. Większość z nich należy do jednej z głównych tradycji, jak np. psychoanalityczna, psychodynamiczna, egzystencjalna, ­Gestalt czy poznawczo-behawioralna.

TRADYCJE TE różnią się między sobą sposobem rozumienia źródła problemów psychologicznych, a w konsekwencji stosują różne metody i techniki pracy z klientami. Podczas gdy psychoanalityk będzie starał się pomóc klientowi w rozwiązaniu wewnętrznego konfliktu poprzez analizę swobodnych skojarzeń, snów czy przeniesienia na ­terapeutę emocji, których klient doświadcza w stosunku do innych osób, terapeuta poznawczo-behawioralny będzie raczej koncentrował się na zauważaniu i zmianie problematycznych sposobów myślenia lub kontrolowanej ­ekspozycji na bodźce, które wywołują u klienta lęk.

NA WYBÓR konkretnej szkoły przez przyszłych terapeutów wpływają takie czynniki, jak chociażby indywidualny styl uczenia się, wyznawane wartości czy osobowość. Jednak w przypadku czatbotów terapeutycznych wybór metody, z której będą korzystały, należy do ich twórców. Istniejące dzisiaj czatboty oparte są niemal wyłącznie na metodach terapii poznawczo-behawioralnej. Kontrowersją pozostaje jednak, czy jest to jedyne lub najlepsze rozwiązanie. Ponadto większość terapeutów deklaruje, że w swojej pracy integruje metody należące do różnych szkół i tradycji. Być może więc powinniśmy także czatbotów uczyć wykorzystywania różnych technik, np. dając im do analizy dane pochodzące z zapisu sesji psycho­terapeutycznych prowadzonych różnymi metodami. ©

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]

Artykuł pochodzi z numeru Nr 34/2022