Jak radzi sobie nowy model GPT-5 w rozmowach o zdrowiu?

Dodano: 09.09.2025


Nowy GPT-5 dostępny w ChatGPT od sierpnia br. zaskakuje mniejszą liczbą halucynacji
Nowy GPT-5 dostępny w ChatGPT od sierpnia br. zaskakuje mniejszą liczbą halucynacji

W sierpniu br. OpenAI udostępnił nowy model generatywnej sztucznej inteligencji. Ma być dokładniejszy, szybszy i rozumować w sposób zbliżony do człowieka. W odpowiedziach na pytania medyczne liczba halucynacji spadła nawet 10-krotnie, a poprawność diagnoz podwoiła się. Ale to nie wszystkie ulepszenia.

Wiedza na poziomie osoby z tytułem doktora n. med.

Odkąd pojawił się ChatGPT, pacjenci chętnie pytają go o diagnozę, nowe metody leczenia, albo o to, jak zapobiegać chorobom. Odpowiedzi są zaskakująco dobre, choć niekiedy AI z pełnym przekonaniem podaje fałszywe informacje i konsekwentnie brnie w kłamstwo.

Długo oczekiwany następca GPT4 obiecuje dużo większe możliwości, bardziej dogłębne odpowiedzi i świadomość kontekstu zadawanych pytań. A to ma go czynić pomocnym asystentem dla pacjentów i pracowników służby zdrowia.

– Po raz pierwszy mam wrażenie, jakbym rozmawiał z ekspertem w dowolnej dziedzinie, na przykład z doktorem nauk ścisłych – powiedział podczas premiery modelu Sam Altman, szef OpenAI.

Prompty – czyli zapytania – dotyczące zdrowia są dla AI jednymi z najbardziej wymagających. Znaczenie mogą mieć najmniejsze niuanse dotyczące chorób, których przeoczenie może zakończyć się wprowadzeniem lekarza albo pacjenta w błąd. Jak deklaruje OpenAI, GPT5 ma ulepszoną metodykę rozumowania i podejmowania decyzji oraz dużo mniejszy odsetek halucynacji.

Odsetek halucynacji - czyli zmyślonych odpowiedzi - dla GPT-5 i jego poprzedników
Odsetek halucynacji – czyli zmyślonych odpowiedzi – dla GPT-5 i jego poprzedników

Wydajność GPT-5 sprawdzono na tzw. HealthBench, czyli platformie diagnostycznej zawierającej 5000 rzeczywistych scenariuszy zdrowotnych zweryfikowanych przez lekarzy. GPT-5 uzyskał znacznie wyższy wynik niż którykolwiek z jego poprzedników. Przykładowo, przy włączonej opcji „myśl dłużej” (think longer) wprowadzonej w GPT-5, dokładność odpowiedzi w porównaniu do modelu GPT-4o podwoiła się. Częstotliwość halucynacji dla pytań z medycyny spadła z 15,8% dla GPT-4o do 1,6% dla GPT-5. Bez opcji dłuższego myślenia, która bezpłatnie dostępna jest tylko raz dziennie, spadek i tak jest 4-krotny.

GPT-5 potrafi więcej niż tylko analizować tekst

W GPT-5 wbudowano tzw. multimodalne rozumowanie medyczne – może analizować dane pacjenta w różnej formie, jak np. zdjęcia wyników badań albo obrazy medyczne (redakcja: odradzamy wczytywanie do ChatGPT wszelkich informacji medycznych zawierających dane identyfikujące pacjenta, jak np. imię i nazwisko). Z tym GPT-4 radził sobie średnio.

Na egzaminach medycznych jak amerykański USMLE, GPT-5 osiągnął lepsze wyniki niż eksperci medycyny. Po raz kolejny staje się jasne, że AI może pomóc pacjentom oraz lekarzom w diagnozie. Rozumowanie multimodalne pozwala modelowi przeanalizować opis pacjenta i zdjęcie zmian skórnej, zadać pytania uzupełniające i przedstawić wstępną ocenę. W każdym opisie OpenAI unika jak ognia słowa „diagnoza”, bo to mogłyby narazić firmę na kary (diagnozować może tylko lekarz).

GPT-5 ma też znaczną przewagę w stosunku do Google, jeśli chodzi o diagnozowanie np. nowotworów. Google, kierując się często popularnością danej strony www, ma tendencję do kwalifikowania nawet zwykłego bólu głowy jako raka. AI jest w tym o wiele ostrożniejsza, a do tego z dużą wstrzemięźliwością podaje sugestie, które mogłyby wywołać niepotrzebny stres i lęk. Zamiast tego skupia się na podpowiadaniu, co należy zrobić dalej, aby wyjaśnić problem i uzyskać profesjonalną pomoc.

Kliknij na baner lub zeskanuj kod QR, aby pobrać bezpłatny raport o AI w ochronie zdrowia
Kliknij na baner lub zeskanuj kod QR, aby pobrać bezpłatny raport o AI w ochronie zdrowia

Kolejne ulepszenie: poprawa bezpieczeństwa komunikacji zdrowotnej. OpenAI robi wszystko, aby jego model nie zyskał łatki rozpowszechniającego fake newsy albo siejącego dezinformację. Porady dotyczące zdrowia są teraz dostosowane do poziomu wiedzy, kontekstu kulturowego i regionu geograficznego. Wbudowane bezpieczniki powodują, że model nie odpowie na pytania, które wychodzą poza jego kompetencje albo są nieetyczne.

Wsparcie psychiczne z większą empatią

Ostatnie badanie Harvard Business Review sugeruje, że z ChatGPT często rozmawiamy o sprawach osobistych, dylematach, problemach a nawet szukamy pomocy, gdy czujemy się samotni albo przygnębieni.

Model GPT-5 stał się bardziej empatyczny, sięgając do odpowiedzi, które są oparte na aktualnych wytycznych naukowych. Jak podkreślają autorzy, dzięki temu oferuje o wiele lepsze wsparcie w przypadku rozmów o lękach, depresji czy traumach. Jego poprzednik GPT-4 miał tendencję do podawania zbyt optymistycznych, oderwanych od rzeczywistości odpowiedzi. Zbyt często podpowiadał pacjentom, jak pomóc sobie samemu, nawet w przypadku ciężkich depresji wymagających konsultacji z lekarzem. Zamiast tego, teraz pacjent raczej uzyska zachętę do wizyty u psychologa i rady, jak opowiedzieć o swoich problemach.

Korzystanie z GPT-5 jest bezpłatne, ale z limitem długości konwersacji. Z opcji „myśl dłużej” albo analizy dokumentu można skorzystać tylko raz na dzień. Tych ograniczeń nie ma GPT-Plus, ale kosztuje ok. 100 zł miesięcznie (23 euro). Wersja PRO w cenie 229 euro miesięcznie ma oferować narzędzia przydatne w pracach naukowych i dłuższe, bardziej dogłębne odpowiedzi. Nie ma wątpliwości, że GPT-5 jest dużo lepszy niż GPT-4. Zachowuje się jak aktywny partner rozmowy, proaktywnie sygnalizując potencjalne problemy i zadając odpowiednie pytania uzupełniające. Z tym GPT-4 miał trudności. Ostrożniej wysuwa diagnozy, dopytuje, często sugeruje wizyty u lekarza zamiast bawić się w lekarza. Udało się znacznie zmniejszyć liczbę halucynacji, co w przypadku pytań o zdrowie jest dużym krokiem w kierunku bezpieczeństwa stosowania generatywnej AI. Po kilku czatach można od razu zauważyć, że ChatGPT ma większe wyczucie, kiedy poruszamy wrażliwe tematy zdrowia psychicznego. Postęp, jaki dokonał się zaledwie w 3 lata od premiery od ChatGPT, robi wrażenie.