Pacjenci: AI jest bardziej empatyczna niż psychologowie

Dodano: 02.05.2025


AI potrafi identyfikować nawet drobne szczegóły w rozmowie z pacjentem. Jest zawsze cierpliwa
AI potrafi identyfikować nawet drobne szczegóły w rozmowie z pacjentem. Jest zawsze cierpliwa

Kolejne badanie potwierdza, że pacjenci interpretują odpowiedzi udzielane przez sztuczną inteligencję (AI) za bardziej empatyczne niż te udzielane przez lekarzy-ludzi. Co to oznacza dla psychologii i psychiatrii?

AI słucha i rozumie

W badaniu Third-party evaluators perceive AI as more compassionate than expert humans opublikowanym w styczniu 2025 r. w czasopiśmie Communications Psychology, naukowcy przeprowadzili serię czterech eksperymentów z udziałem 550 osób. Celem było sprawdzenie reakcji na porady przekazywane przez sztuczną inteligencję (ChatGPT) w porównaniu do specjalistów zdrowia psychicznego. Oceniano m.in. ogólne wrażenie, poziom empatii, zrozumienia problemu itd. Podobnie jak w przypadku innych tego typu testów, AI okazała się bardziej empatyczna. I to nawet po tym, jak uczestnicy badania dowiedzieli się, że to komputer a nie człowiek udzielał odpowiedzi.

Wniosek badaczy: AI sprawdza się dobrze w sytuacjach wirtualnej interakcji i ma potencjał do zaspokojenia rosnącej potrzeby empatii w kontekście komunikacji z pacjentem. Odpowiedzi generowane przez AI były preferowane w 68% przypadków.

Główna autorka badania, Dariya Ovsyannikova, kierownik laboratorium na wydziale psychologii Uniwersytetu w Toronto, przypisuje sukces AI jej zdolności do identyfikowania drobnych szczegółów w rozmowie z pacjentem i obiektywizmowi odpowiedzi. AI jest zawsze cierpliwa i uważna. Z kolei ludzie uzyskali gorsze wyniki, bo ludzie potrzebują odpoczynku i kierują nimi emocje.

Eleanor Watson, wykładowca AI na Singularity University, twierdzi, że AI może z powodzeniem modelować komunikację z niezwykłą spójnością i pozorną empatią. Z tym mogą mieć problem ludzie – lekarzy często ogranicza doświadczenie kliniczne, zdolności poznawcze oraz  wytrzymałość na stres. Do tego skala danych, które AI może przetwarzać, przekracza możliwości człowieka.

AI jako zawsze dostępny psycholog? Nie zawsze

Badanie na nowo wywołało dyskusję, czy sztuczna inteligencja może pełnić rolę psychologów oraz psychiatrów skoro oceniana jest także dobrze przez pacjentów. Zdrowie psychiczne przeżywa kryzys na całym świecie. Według Światowej Organizacji Zdrowia, ponad dwie trzecie osób cierpiących na choroby psychiczne nie ma dostępu do opieki, której potrzebują. W krajach o niskim i średnim dochodzie odsetek ten wynosi aż 85%.

Jednocześnie rośnie liczba osób z depresją i innymi chorobami psychicznymi. AI mogłaby przejąć częściowo rolę terapeuty, zwłaszcza dla stabilnych i lekkich przypadków. Maszyny mają jeszcze jedną przewagę – gdy trzeba zwierzyć się z bardzo intymnych i osobistych tematów, pacjenci mają mniejsze opory przed AI, bo nie muszą się obawiać osądu moralnego.

Zastosowanie AI w charakterze terapeuty niesie ze sobą kilka niebezpieczeństw. Sztuczna inteligencja czasami wydaje się wyrozumiała i perfekcyjna do tego stopnia, że zapominamy o możliwości popełnienia błędu. W przypadku generatywnej AI, mamy do czynienia z narzędziem poza jakąkolwiek kontrolą (black box) – odpowiedzi generowane są na bazie czystej statystyki, a nie wiedzy klinicznej. Do tego dochodzą kwestie etyczne: AI może manipulować i w przekonujący sposób podawać błędne informacje; AI generuje wrażenie empatii, ale sama w sobie nie jest empatyczna.

Należy też pamiętać, że ChatGPT to rozwiązanie chmurowe – wprowadzane dane są przetwarzane w centrum AI amerykańskiego koncernu technologicznego OpenAI. Choć firma deklaruje najwyższe standardy prywatności i bezpieczeństwa danych, w przypadku porad zdrowia psychicznego mamy do czynienia z bardzo wrażliwymi danymi medycznymi.