Czy chatboty do terapii zaburzeń psychicznych są bezpieczne?


Aplikacje oparte na AI i terapii CBT mają pomagać zmieniać niekorzystne nawyki. Ale czasami mogą szkodzić
Aplikacje oparte na AI i terapii CBT mają pomagać zmieniać niekorzystne nawyki. Ale czasami mogą szkodzić

Chatboty wykorzystujące zasady terapii poznawczo-behawioralnej (Cognitive behavioural therapy, CBT) szybko zyskały na popularności, dając nadzieję na pomoc osobom z lekkimi zaburzeniami psychicznymi. Ale czy nie wyrządzają więcej szkody niż pożytku?

Epidemia zaburzeń psychicznych

WHO szacuje, że globalnie na 100 000 osób przypada jedynie 13 psychologów i psychiatrów. To zdecydowanie za mało w stosunku do potrzeb. Do tego nie ma perspektyw na poprawę tak złej sytuacji – brakuje lekarzy, a pandemia COVID-19 jedynie pogorszyła wskaźniki zdrowia psychicznego, zwłaszcza u młodych osób.

W Unii Europejskiej, już co szósta osoba – czyli 84 mln mieszkańców UE – boryka się z problemami psychicznymi jak depresja, zaburzenia lękowe oraz zaburzenia związane z używaniem alkoholu i narkotyków. Dostęp do prawidłowego leczenia ma tylko połowa z chorych. Wśród przeszkód dominuje stygmatyzacja i kolejki do specjalistów.

Czy rozmowa z czatem poprawia nastrój?

Dużą przepaść pomiędzy potrzebami pacjentów a możliwościami systemów ochrony zdrowia mogą częściowo zniwelować aplikacje i platformy cyfrowe. Do takich narzędzi sięga nawet Światowa Organizacja Zdrowia (WHO), która opracowała bota Sarah – pierwszego cyfrowego pracownika służby zdrowia. Chatbot oferuje zautomatyzowane rozmowy oparte na terapii poznawczo-behawioralnej, pomagając pacjentom w identyfikowaniu i zmianie negatywnych wzorców myślowych. Dużą popularnością cieszy się też Woebot – bot, z którym można porozmawiać o swoich problemach i negatywnych emocjach. Dzięki rozwojowi generatywnej AI, tego typu chatboty będą mogły prowadzić rozmowę używając naturalnego języka. Z kolei ewolucja urządzeń ubieralnych jak smartwatche i systemów telemedycyny ułatwi monitorowanie pacjentów w domu i automatyzację opieki.

Korzyści z chatbotów AI potwierdzają badania naukowe. Rozwiązania tego typu mogą radykalnie zmniejszyć objawy depresji i niepokoju. W połączeniu z technologiami rozpoznawania twarzy, systemy AI są w stanie wykryć wczesne oznaki poważnych zaburzeń depresyjnych na podstawie subtelnych zmian mimiki uchwyconych przez kamerę smartfona albo wzorców pisania tekstów na klawiaturze.

Naukowcy z Northwestern University opracowali metodę identyfikacji myśli samobójczych. Ich model był w stanie oszacować prawdopodobieństwo samookaleczenia w 92 na 100 przypadków i to jedynie na podstawie odpowiedzi na pytania ankietowe i danych behawioralnych. Model czekają teraz badania kliniczne, aby można go było wprowadzić do rutynowej opieki i profilaktyki.

Sztuczna inteligencja nie zna kontekstu zaburzeń

Mimo tych osiągnięć, naukowcy studzą entuzjazm: chatbot nie jest substytutem terapii prowadzonej przez człowieka. Sztucznej inteligencji brakuje empatii i doświadczenia terapeutów, a systemy oparte na generatywnej AI są nieprzewidywalne.

Richard Lewis, psychoterapeuta z Bristolu nie pozostawił suchej nitki na Woebocie. Jego zdaniem, chatbot nie wychwytuje ważnych niuansów rozmowy i uparcie dąży do zastępowania negatywnych emocji pozytywnymi. Według Lewisa, takie podejście sprawdza się jedynie u części chorych.

Niektóre chatboty mają tendencję do znajdowania szybkich rozwiązań. Jeśli powiemy, że jesteśmy przytłoczeni pracą, mogą zasugerować np. znalezienie sobie hobby. To pokazuje, że AI nie jest w stanie rozpoznać kontekstu problemu człowieka, dopasować pytań i na tej podstawie odpowiednio prowadzić rozmowę.

Większość terapeutów zgadza się, że aplikacje AI mogą sprawdzić się jako narzędzie pierwszego kontaktu dla pacjenta, a nie stałej terapii. Istnieją już przypadki szkodliwego działania chatbotów. Przykładowo, amerykańskie Narodowe Stowarzyszenie Zaburzeń Odżywiania zawiesiło chatbota Tessa, który udzielał szkodliwych porad dietetycznych.

Człowiek jest zbyt skomplikowany, aby chatboty przejęły w całości terapię chorób psychicznych. Mimo to, będą pomocne we wczesnej diagnozie i opiece, dopóki nie znajdzie się wolny termin wizyty u najbliższego psychologa.