Nowej generacji AI zrozumie emocje pacjenta


Lekarz nie zawsze jest w stanie zidentyfikować głęboko ukryte emocje pacjenta. AI może je wykryć na podstawie danych biometrycznych
Emocje pacjenta często pozostają niewidoczne dla lekarza. AI może je wykryć na podstawie danych biometrycznych i w ten sposób dopasować opiekę psychologiczno-emocjonalną.

Naukowcy uczą maszyny lepiej rozumieć uczucia ludzi i reakcji na nie. Nie chodzi jednak o zastąpienie opiekunów-ludzi robotami, ale dopasowanie opieki do stanu emocjonalnego chorego – czytamy w artykule “Emotion AI: Why It’s The Future Of Digital Health” opublikowanym w magazynie Forbes.

AI deszyfruje emocje i reaguje na nie

Istnieje kilka poziomów emocjonalnej sztucznej inteligencji (ang. Emotion AI).

Na pierwszym z nich, AI wykrywa ludzkie emocje, co jednak już może pomóc w wykryciu niektórych chorób i dopasowaniu sposobu opieki do chorego. Przykładowo, system AI wyczuwający stan psychiczny chorego na raka i sugeruje, czy niezbędna jest dodatkowa pomoc i wsparcie opiekuna.

Drugi poziom, to już nie tylko rozpoznawanie uczuć, ale także reakcja na nie. Jednym z przykładów jest opieka nad chorymi z demencją, którzy często mają trudności ze zrozumieniem własnych odczuć oraz komunikowaniem ich swoim opiekunom. Emotion AI – sięgając do technik biometrii lub psychometrii – może przeanalizować subtelne sygnały takie jak wyraz twarzy, sposób mówienia i poruszania się. Na tej podstawie jest w stanie określić aktualny profil emocjonalny i podpowiedzieć opiekunom sposób komunikacji.

Dopiero jesteśmy na początku prac nad AI potrafiącą interpretować uczucia. Barierą są m.in. dostępność danych i jakość algorytmów. Aby stworzyć profil emocjonalny człowieka, AI musi mieć wgląd do bardzo szczegółowych danych, w tym informacji biometrycznych. A to oznacza m.in. ciągły monitoring aktywności w Intenecie, obserwację mimiki przez kamerę, wsłuchiwanie się w głos, analizę chatu z przyjaciółmi. Jednym słowem – utratę prywatności, na którą na razie mało kto jest w stanie się zdecydować.

Dane biometryczne to odcisk palca ludzkich uczuć

Mimo to, na rynku są już pierwsze rozwiązania oparte na osiągnięciach w dziedzinie współodczuwającej AI. Przykładowo, aplikacja Twill (dawniej Happify) wykorzystuje sztuczną inteligencję do rozpoznawania potrzeb zdrowotnych danej osoby i wyznaczania ścieżki opieki. Specjalny chatbot zdrowotny został tak wyszkolony, aby zapewnić spersonalizowaną opiekę i wsparcie w możliwe najlepszy empatyczny sposób. Innym jest LUCID, który sugeruje muzykę na podstawie nastroju użytkownika. System wykorzystuje dane biometryczne jako informacje wejściowe do klasyfikacji stanów emocjonalnych użytkownika.

Dzięki AI opieka zdrowotna będzie paradoksalnie bardziej ludzka

Lekarze podkreślają, że empatyczna opieka przy rosnącej liczbie chorych i malejących zasobach kadrowych w ochronie zdrowia będzie coraz trudniejsza. Tzw. ludzki dotyk i empatia nie kształtują się same z siebie, ale wymagają czasu i uwagi personelu. A tych elementów zaczyna brakować. Stąd systemy AI mogłyby wspierać lekarzy i pielęgniarki w identyfikacji uczuć i potrzeb pacjentów – dostarczając im na bieżąco dodatkowych danych i budując profil emocjonalny chorego – co pomogłoby w komunikacji i opiece.

W przyszłości, dzięki technologii będziemy mogli zrozumieć, jakie emocje towarzyszą na co dzień pacjentom z różnymi chorobami – będzie to ważne w miarę przesuwania się opieki ze szpitali do domów. W takim modelu, lekarz nie będzie przy chorym, ale dzięki AI będzie mógł skontaktować się i porozmawiać, gdy algorytmy wykryją np. rosnący niepokój albo osamotnienie.

Czytaj także: Inteligentny szpital można porównać do ośmiornicy danych