Generatywna AI w pracy lekarza. Podstawowe wskazówki


ChatGPT świetnie się sprawdza m.in. w podsumowywaniu obszernych informacji
ChatGPT świetnie się sprawdza m.in. w podsumowywaniu obszernych informacji (zdjęcie: AI, Midjourney)

Generatywna sztuczna inteligencja (GenAI) pozwala tworzyć teksty i obrazy, streszczać wyniki badań klinicznych i analizować dane. Do tego służą takie narzędzia jak Gemini AI, Microsoft Co-Pilot, ChatGPT czy Perplexity. Jak bezpiecznie i efektywne z nich korzystać?

Według najnowszych danych, z ChatGPT korzysta regularnie ok. 180 mln osób na całym świecie. Gemini AI zanotował w maju 2024 r. 313,9 mln odsłon. Liczby te szybko rosną, bo AI otwiera zupełne nowe możliwości, pozwalając zaoszczędzić czas i poszerzyć kompetencje – bez konieczności programowania, jedynie za pomocą tzw. promptów (poleceń użytkownika).

Z GenAI korzysta też coraz więcej pracowników ochrony zdrowia, tworząc podsumowania informacji dla pacjentów albo nakierowując na diagnozę. GenAI może wspomagać podejmowanie decyzji klinicznych i zarządzanie placówką medyczną. Na podstawie przewodnika “Generatywna sztuczna inteligencja w służbie pracowników administracji publicznej – pierwsze kroki” opracowanego przez Ministerstwo Cyfryzacji, przygotowaliśmy wskazówki temat korzystania z genAI w ochronie zdrowia.

Oto 3 przykładowe zastosowania GenAI w ochronie zdrowia:

Tworzenie materiałów informacyjnych

Lekarze często przygotowują prezentacje na konferencje, artykuły naukowe, czy informacje dla pacjentów jak ulotki, broszury oraz porady na stronę internetową. ChatGPT pozwala wygenerować wstępne szkice tekstów, które później można dostosować do własnych potrzeb. Kreatywność AI czasami imponuje, przykładowo gdy zapytamy o przygotowanie wiersza dla dziecka, które boi się leczenia zęba.

Należy jednak pamiętać, że AI opiera się na danych, które nie zawsze są dokładne lub może wymyślać nieistniejące fakty (tzw. halucynacje). Dlatego wygenerowane treści należy dokładnie analizować zanim zostaną użyte. Płatna wersja ChatGPT pomaga też generować grafiki (alternatywnym narzędziem, choć bardziej skomplikowanym w obsłudze, jest Midjourney).

Analiza danych

Narzędzia GenAI dobrze sprawdzają się w opracowywaniu podsumowań np. długich artykułów naukowych, co może zaoszczędzić sporo czasu, gdy trzeba zapoznać się z wynikami nowych badań klinicznych. Należy zachować jednak dużą ostrożność i nie wpisywać do ChatGPT oraz podobnych narzędzi danych pacjentów, prosząc o diagnozę czy podpowiedzi dotyczące leczenia. Jedynym wyjątkiem są pozbawione cech osobowych dane anonimowe bez znaczników pozwalających na identyfikację chorego. Niezależnie od tego, genAI nie jest urządzeniem medycznym i podawane wskazówki opierają się na danych z internetu, które mogą być niewiarygodne.

Pomoc w monitorowaniu postępów w medycynie

GenAI może pomóc w zbieraniu informacji na temat najnowszych trendów i wyników badań naukowych. Jeśli lekarz potrzebuje danych dotyczących nowego sposobu leczenia lub protokołów terapeutycznych, GenAI może szybko wygenerować przegląd literatury na dany temat. Do tego celu najlepiej sprawdzi się Gemini AI od Google, który dodatkowo przeszukuje internet, uzupełniając wyniki o najnowsze dane.

Jak korzystać z GenAI w praktyce medycznej?

Poradnik Ministerstwa Cyfryzacji zwraca uwagę na kilka ważnych apektów korzystania z genAI:

1. Precyzja poleceń

Twórz precyzyjne polecenia/pytania. Jeśli potrzebujesz informacji na temat nowej metody leczenia w danej specjalizacji, nie wystarczy zadać pytania: „Jak leczyć chorobę X?”. Sformułuj szczegółowy kontekst, np. „Jakie są najnowsze podejścia do leczenia opornego na antybiotyk X szczepu bakterii Y?” Precyzja poleceń wpływa bezpośrednio na jakość wygenerowanych treści. Jak podpowiada MC, jeśli odpowiedź nie jest satysfakcjonująca, należy zadać kolejne pytania uszczegółowiające: „Zaproponowane przykłady są zbyt mało konkretne. Podaj więcej informacji na temat użytych metod i opisz je w punktach”.

Aby uniknąć długich odpowiedzi, określ, jaką formę powinna mieć, np. w 10 punktach albo 100 słowach.

2. Weryfikacja źródeł

Zawsze weryfikuj informacje uzyskane za pomocą GenAI. Niezależnie czy to ChatGPT, Gemini AI czy Perplexity, mają one tendencję tzw. „halucynacji” – treści mogą sprawiać wrażenie prawdziwych, ale czasami nie mają one nic wspólnego z rzeczywistością (kiedy AI nie może znaleźć informacji w danych, wymyśla je). Dlatego każda odpowiedź wygenerowana przez AI powinna być porównana z innymi, wiarygodnymi źródłami, a w przypadku tematów medycznych – skonsultowana z ekspertami i zweryfikowana w literaturze medycznej.

3. Zasady etyki i bezpieczeństwa danych

Czatując z narzędziami GenAI, należy bezwzględnie przestrzegać zasad ochrony danych osobowych, zwłaszcza danych medycznych. Wprowadzanie informacji wrażliwych, takich jak danych pacjentów, może wiązać się z ryzykiem naruszenia prywatności.

Ministerstwo Cyfryzacji zaleca, aby do narzędzi GenAI nie wpisywać informacji, które są niejawne lub zawierają dane wrażliwe; zawierają wewnętrzne informacje nieprzeznaczone do upublicznienia; zawierają dane osobowe, których ujawnienie narusza przepisy o ochronie danych osobowych.

Korzystając z AI trzeba mieć też na uwadze ochronę praw własności intelektualnej lub przemysłowej. Zaleca się, aby wygenerowane przez GenAI teksty i grafiki oznaczać krótką informację: „Treść została wygenerowana przez GenAI [nazwa narzędzia i data wygenerowania]”.

4. Stronniczość algorytmów

GenAI jest trenowana na dużych zbiorach danych, które mogą zawierać nieświadome uprzedzenia (tzw. bias). Wygenerowane odpowiedzi mogą faworyzować pewne grupy pacjentów lub podejścia terapeutyczne i ignorować nowe, ale istotne wyniki badań.

Należy zwracać szczególną uwagę na neutralność i obiektywność podpowiedzi oraz unikać podejmowania decyzji klinicznych na ich podstawie bez wcześniejszej weryfikacji w innych źródłach, w tym przede wszystkim badaniach naukowych i wskazaniach klinicznych.

5. GenAI a odpowiedzialność zawodowa lekarza

ChatGPT będzie coraz bardziej przydatnym narzędziem w codziennej praktyce lekarskiej, ale odpowiedzialność za decyzje medyczne spoczywa na lekarzu. AI należy traktować jako wsparcie. Każdą informację wygenerowaną przez sztuczną inteligencję należy traktować jako inspirację, uzupełnienie i wskazówkę, a nie gotowe zalecenie, z którego można bezkrytycznie skorzystać.

6. Ćwiczenie pisania poleceń

Warto eksperymentować z generatywną AI na niemedycznych zagadnieniach, ucząc się w ten sposób interakcji z tym nowym narzędziem. W internecie można znaleźć wiele bezpłatnych poradników, jak poprawnie formułować prompty. Im lepsza wiedza na temat precyzyjnego pisania poleceń, tym lepszej jakości odpowiedzi GenAI. Możliwości interakcji są nieograniczone. Przykładowo, można poprosić o wiedzę podaną w punktach, o napisanie kompletnego tekstu na wybrany temat; o styl dopasowany do grupy docelowej (np. pacjentów), określony ton, poziom trudności języka itd. Pytając o napisanie wiersza, możemy zasugerować styl konkretnej osoby albo poprosić GenAI o wcielenie się w rolę “specjalisty z zakresu chorób X”.

Powyższe zasady pozwolą rozpocząć bezpieczną współpracę z GenAI i odnaleźć zastosowania AI, które pomogą w codziennej pracy.