„ChatGPT uratował mi życie”. Ile w tym prawdy?

Dodano: 03.04.2026


ChatGPT rzeczywiście dobrze radzi sobie z diagnozą chorób rzadkich, ale zdarza mu się też popełniać karygodne błędy
ChatGPT rzeczywiście dobrze radzi sobie z diagnozą chorób rzadkich, ale zdarza mu się też popełniać karygodne błędy

W mediach społecznościowych mnoży się od opowieści pacjentów, jak ChatGPT albo inne narzędzia AI zdiagnozowały chorobę, której nie wykrył lekarz. Rzadko kiedy czytamy, że ChatGPT źle doradził.

AI ma czas na sprawdzenie wszystkich opcji, lekarz nie

„Jako osoba autystyczna używam ChatGPT, aby zrozumieć, co ludzie myślą, co czuję, jak mogę sobie z czymś poradzić. Absolutnie ratuje mi życie i zawsze czuję się o wiele lepiej, ponieważ AI usuwa niepokój z mojego codziennego życia” – pisze na forum dyskusyjnym Reddit jeden z użytkowników.

Podobne historie systematycznie pojawiają się w prasie. Ostatnio NPR opisał sprawę Bethany Crystal z Nowego Jorku. Po pojawieniu się czerwonych plam na nogach pacjentka zapytała ChatGPT o możliwe przyczyny. AI zasugerowała „natychmiastową ocenę pod kątem ryzyka krwawienia”. Po trzech dniach badań u pacjentki rozpoznano rzadką chorobę autoimmunologiczną – Immune thrombocytopenic purpura – która prowadzi do spadku liczby płytek krwi i zwiększonego ryzyka krwotoków. Bez rekomendacji AI, pacjentce groziłaby śmierć.

Z kolei na portalu Medium pojawiła się historia osoby z myślami samobójczymi, która po podzieleniu się nimi z ChatGPT rozpoczęła długi dialog z AI. Ostatecznie sztuczna inteligencja w empatyczny sposób przekonała do tego, że warto żyć.

1 miliard zapytań o zdrowie każdego dnia

Według raportu OpenAI ze stycznia br., już 40 milionów osób korzysta codziennie z ChatGPT w poszukiwaniu porad dotyczących zdrowia. Dotyczy ich ok. 5–7% wszystkich zapytań w Google, co przelicza się na 70 000 zapytań na minutę. Odpowiedzi mają najczęściej formę podsumowań AI, które Google wprowadził w 2025 roku.

Pacjenci chwalą AI za dogłębną analizę ich problemu medycznego i nieograniczony czas. AI zadaje kolejne pytania, analizuje możliwe scenariusze, jest cierpliwa i empatyczna. Takie podejście nie jest możliwe w przeciążonej ochronie zdrowia.

W medycynie przyjęło się powiedzenie „jeśli słyszysz odgłos kopyt, myśl o koniach, nie o zebrach”, które oznacza, że diagnoza często polega na przyporządkowaniu objawów do najbardziej prawdopodobnego lub popularnego schorzenia. Lekarze rzadko kiedy mają czas, aby wykluczyć inne choroby. Wielu pacjentów musi czekać miesiącami na wizytę u specjalisty. Z kolei AI jest zawsze pod ręką i potrafi wychwycić niuanse, które odróżniają rzadkie choroby od powszechnie występujących dolegliwości.

Badania naukowe sugerują, że duże modele językowe osiągają dokładność diagnoz porównywalną z ludźmi. W przypadku rzadkich schorzeń, AI często jest lepsza niż człowiek.

Czarne statystyki, gdy AI wprowadza w błąd

ChatGPT, Gemini, Perplexity, Claude czy Microsoft Pilot to produkty konsumenckie, które nie podlegają żadnym regulacjom. Nie są one walidowane jako urządzenia medyczne, ale mimo to przez pacjentów traktowane jako wiarygodne źródło danych. Według dostępnych badań, 1 na 5 pacjentów bardziej ufa rekomendacjom AI niż zaleceniom lekarzy.

Nieproporcjonalnie rzadziej pacjenci dzielą się historiami, jak AI wprowadziła ich w błąd. Takie teksty nie przyciągają jednak tak dużej uwagi, jak te o AI ratującej życie.

Mało kto wie, że przykładowo OpenAI zostało już wielokrotnie pozwane do sądu w związku ze szkodami psychologicznymi wyrządzonymi pacjentom szukającym pomocy. Pod koniec 2025 roku głośna była sprawa 23-latka z Teksasu, którego ChatGPT miał zachęcić do popełnienia samobójstwa. W podobnym przypadku 16-latka z Kalifornii, OpenAI argumentował, że przyczyną było nieprawidłowe korzystanie z ChatGPT.

Na forach internetowych pojawiają się relacje o błędnych sugestiach prowadzących do napadów paniki czy hospitalizacji. Jeden z użytkowników przez osiem miesięcy codziennie sprawdzał objawy, przekonany przez AI o chorobie zwyrodnieniowej kręgosłupa. Błędne diagnozy to jedno. Drugie to wywoływanie niepokoju oraz generowanie niepotrzebnych wizyt u lekarza.

„The Guardian” przeprowadził śledztwo, które wykazało, że generowane przez AI podsumowania wyświetlane w wyszukiwarce Google w ramach funkcji AI Overview zawierają fałszywe i wprowadzające w błąd informacje zdrowotne, a w niektórych przypadkach mogą być niebezpieczne. Dziennikarze zidentyfikowali m.in. „całkowicie błędne” porady żywieniowe dla chorych na raka trzustki, które eksperci określili jako „bardzo niebezpieczne” i niezgodne z zaleceniami klinicznymi. Błędne informacje dotyczyły także badań przesiewowych w kierunku nowotworów u kobiet oraz interpretacji testów wątrobowych, co mogło prowadzić do fałszywego poczucia bezpieczeństwa i zniechęcać do konsultacji lekarskiej.

Google w odpowiedzi podkreślił, że „zdecydowana większość” podsumowań jest rzetelna i że firma stale poprawia jakość systemu. Także OpenAI wie, że jego narzędzie nie jest idealne. Firma powołała nawet Global Physician Network, zrzeszającą 300 lekarzy i psychologów, aby zwiększać bezpieczeństwo swoich modeli.

Ale to, że AI nie jest narzędziem diagnostycznym, nie ma znaczenia. Użytkownicy widzą w AI magiczne narzędzie, które wie wszystko. Jego moc rośnie wraz z tym, jak systemy zdrowia pogrążają się w coraz większym kryzysie – kolejki do lekarzy rosną, lekarze muszą przyjmować coraz więcej chorych, brakuje czasu na rozmowę i empatię. AI robi dużo dobrego, dając pacjentom do rąk narzędzie samoleczenia. Ale nadal wyrządza też krzywdę.