Illinois ogranicza stosowanie AI w psychoterapii

Dodano: 03.10.2025


Już trzeci stan USA wprowadza ograniczenia stosowania terapii zdrowia psychicznego wspomaganych AI
Już trzeci stan USA wprowadza ograniczenia stosowania terapii zdrowia psychicznego wspomaganych AI

Amerykański Stan Illinois uchwalił ustawę zakazującą terapeutom korzystania z chatbotów opartych na AI do wsparcia leczenia chorób psychicznych. Powodem jest „rosnące uzależnienie ludzi od maszyn”.

AI może błędnie zinterpretować stan pacjenta

Ustawa Therapy Resources Oversight zabrania licencjonowanym lekarzom zdrowia psychicznego wykorzystywania sztucznej inteligencji do podejmowania decyzji dotyczących leczenia lub komunikacji z pacjentami. Nowe prawo wprowadza też zakaz rekomendowania przez firmy narzędzi terapeutycznych opartych na chatbotach jako alternatywy dla tradycyjnej terapii. Za naruszenie przepisów grożą kary nawet do 10 000 USD.

Podobne przepisy wprowadziły w połowie roku Utah i Nevada – stany rządzone przez Partię Republikańską. Według niektórych ekspertów, na których powołują się ustawodawcy, nieuregulowane prawnie chatboty mogą moderować rozmowę w niekontrolowalny sposób, czasami skłaniając ludzi do ujawnienia poufnych informacji lub sugerując chorym znajdującym się w trudnej sytuacji do podjęcia drastycznych kroków, włącznie z samobójstwem.

Badanie Uniwersytetu Stanforda opublikowane w czerwcu br. sugeruje, że wiele chatbotów, które są zaprogramowane do pomocy, nie rozumie kontekstu i może wprowadzać w błąd.

– Chatboty udzielają takich samych odpowiedzi niezależnie od okoliczności, tymczasem ludzie-terapeuci zapewniają bardziej kompleksowe wsparcie pacjentom – twierdzi Vaile Wright, starsza dyrektor ds. innowacji w opiece zdrowotnej w Amerykańskim Towarzystwie Psychologicznym. Według niej, tylko terapeuci potrafią zinterpretować toksyczne myśli, uczucia lub zachowania i pomóc pacjentowi zmierzyć się z nimi.

Większa dostępność terapii kontra zagrożenia zwłaszcza dla młodzieży

W praktyce, zakaz jest egzekwowalny tylko częściowo, bo chatboty AI zdrowia psychicznego można bez problemu znaleźć w internecie. Ich rolę mogą też pełnić narzędzia AI ogólnego zastosowania jak ChatGPT. Wielu pacjentów już z nich korzysta, szukając pomocy i porad, bojąc się stygmatyzacji albo nie mogąc dostać się do specjalisty.

Badania opublikowane na początku sierpnia sugerują, że wiele botów, takich jak ChatGPT, wywołuje „psychozę AI” u użytkowników, którzy nie mieli wcześniej żadnych epizodów chorób psychicznych – AI może doszukiwać się problemów, których dana osoba nie ma. Problem dotyczy zwłaszcza młodych ludzi, często traktujących czat z AI jako uzupełnienie kontaktów społecznych.

Przykładem jest platforma Character.Ai, gdzie użytkownicy mogą tworzyć i udostępniać chatboty oparte zazwyczaj na fikcyjnych postaciach. Ostatnio na stronie pojawiło się ostrzeżenie, że tego, co mówią boty, nie należy traktować jako fakt lub poradę. Stało się to po tym, jak nastolatek z Florydy zakochał się w swojej postaci AI z „Gry o tron” i odebrał sobie życie.