Nowy Kodeks Etyki Lekarskiej z niejasnym zapisem o AI


Nowa wersja Kodeksu Etyki Lekarskiej została przyjęta 18 maja 2024 roku
Nowa wersja Kodeksu Etyki Lekarskiej została przyjęta 18 maja 2024 roku

Artykuł 12 KEL wymaga od lekarza uzyskania zgody pacjenta, jeśli w procesie diagnostycznym lub terapeutycznym stosowane są rozwiązania oparte na sztucznej inteligencji (AI). “To będzie problematyczne, a czasami niemożliwe i nie jest wymagane przez prawo” – komentuje Ligia Kornowska, Dyrektor Zarządzająca Polskiej Federacji Szpitali.

Nowa wersja Kodeksu Etyki Lekarskiej (KEL) i zapis o AI

18 maja 2024 r., podczas Nadzwyczajnego XVI Krajowego Zjazdu Lekarzy, została uchwalona nowa wersja Kodeksu Etyki Lekarskiej. Po raz pierwszy pojawił się w nim zapis dotyczący sposobu stosowania przez lekarzy rozwiązań sztucznej inteligencji (AI).

Zgodnie z artykułem 12 KEL:

“Lekarz może w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym korzystać z algorytmów sztucznej inteligencji przy spełnieniu następujących warunków:

  1. poinformowania pacjenta, że przy stawianiu diagnozy lub w procesie terapeutycznym będzie wykorzystana sztuczna inteligencja;
  2. uzyskania świadomej zgody pacjenta na zastosowanie sztucznej inteligencji w procesie diagnostycznym lub terapeutycznym;
  3. zastosowania algorytmów sztucznej inteligencji, które są dopuszczone do użytku medycznego i posiadają odpowiednie certyfikaty;
  4. ostateczną decyzję diagnostyczną i terapeutyczną zawsze podejmuje lekarz.

Nieżyciowy zapisy KEL

Jak zauważa Ligia Kornowska, Dyrektor Zarządzająca Polskiej Federacji Szpitali, nowy zapis nie znajdował się w wersji KEL prezentowanej w konsultacjach publicznych i został dodany bezpośrednio przed zatwierdzeniem uchwały.

– Pytanie pacjenta o zgodę przed każdym wykorzystaniem algorytmu AI będzie problematyczne, a czasami niemożliwe. Nie przyniesie również korzyści i nie jest wymagane przez prawo – dodaje.

Choć nowy zapis budzi wątpliwości, aktualizacja KEL raczej jest mało prawdopodobna. Dlatego Koalicja AI w Zdrowiu – której Liderką jest Ligia Kornowska – opracowała propozycję interpretacji tego zapisu. Opiera się ona na propozycji zawartej w “Białej Księdze AI w praktyce klinicznej”, opracowanej przez Koalicję AI w Zdrowiu.

Zgodnie z nią, “poinformowanie pacjenta o wykorzystaniu sztucznej inteligencji oraz uzyskanie jego świadomej zgody dotyczą wyłącznie sytuacji, w których AI ma istotny wpływ na przebieg lub charakter udzielanego świadczenia zdrowotnego – pacjent powinien znać i rozumieć ten wpływ, inaczej świadomość jego zgody może być kwestionowana. Ten obowiązek nie ma jednak miejsca w pozostałych przypadkach, kiedy sztuczna inteligencja jest tylko jednym z elementów procesu diagnostyczno-leczniczego, w szczególności nie można przyjąć, że o AI każdorazowo należy informować tylko dlatego, że to właśnie AI.”

Każdy lekarz ma obowiązek stosowania zapisów Kodeksu Etyki Lekarskiej. W przeciwnym razie grozi mu postępowanie z zakresu odpowiedzialności zawodowej
Każdy lekarz ma obowiązek stosowania zapisów Kodeksu Etyki Lekarskiej. W przeciwnym razie grozi mu postępowanie z zakresu odpowiedzialności zawodowej

Uzasadnienie interpretacji zapisu o AI w KEL

Propozycja, aby obowiązek uzyskania zgody pacjenta miał miejsce tylko wówczas, gdy AI ma istotny wpływ na przebieg lub charakter udzielanego świadczenia zdrowotnego, ma pragmatyczne uzasadnienie. Coraz więcej systemów IT oraz urządzeń medycznych zawiera certyfikowane algorytmy AI, o których nawet sam lekarz może nie wiedzieć. Algorytmów AI stosowanych w medycynie przybywa lawinowo i trudno oczekiwać, aby lekarze orientowali się, czy dane urządzenie albo system korzysta z AI czy nie.

Oto argumenty, jakie Koalicja AI w Zdrowiu przedstawiła w piśmie przesłanym do zespołu KEL:

“Jedną z podstawowych zasad prawa medycznego jest zasada poszanowania autonomii pacjenta, której podstawowym wyrazem jest obowiązek uzyskania świadomej zgody na udzielenie świadczenia zdrowotnego. Pacjent musi m.in. świadomie zaakceptować zrozumiałe dla siebie ryzyko dokonania zabiegu, które może wynikać np. ze stosowanych podczas niego narzędzi. Dopiero taka zgoda pacjenta wyłącza bezprawność interwencji lekarza. Samo uzyskanie formalnej zgody pacjenta bez poinformowania go o dostępnych metodach, ryzyku i następstwach zabiegu powoduje, że jest to zgoda „nieobjaśniona” i jako taka jest wadliwa – lekarz działa wówczas bez zgody i naraża się na odpowiedzialność. Rodzi to zatem pytanie o to jak i kiedy informować o stosowaniu, przy udzielaniu świadczenia zdrowotnego, sztucznej inteligencji.

Zasadą jest udzielanie pacjentowi informacji w zakresie określonym w art. 9 ust. 2 Ustawy o prawach pacjenta, czyli informacji o stanie zdrowia pacjenta, rozpoznaniu, proponowanych oraz możliwych metodach diagnostycznych i leczniczych, dających się przewidzieć następstwach ich zastosowania albo zaniechania, wynikach leczenia oraz rokowaniu. Nie oznacza to, że lekarz musi przekazywać wszystkie znane mu informacje. Zadaniem osoby informującej jest zarówno dokonanie wyboru przekazywanych informacji, jak i właściwe uszeregowanie wiadomości, stosownie do ich rangi. Ma to na celu udzielenie adekwatnej do przypadku informacji – przedstawienie uprawnionemu wiarygodnego obrazu sytuacji zdrowotnej pacjenta, dzięki czemu informacje medyczne staną się konstruktywnym fundamentem dla dalszych działań w obszarze ochrony zdrowia: podjęcia leczenia albo rezygnacji z niego, wyboru określonej metody diagnostycznej lub terapeutycznej.

AI stosowana w procesie diagnozowania czy leczenia może być traktowana po prostu jako kolejny wkład w proces rozumowania. Gdybyśmy byli w stanie odtworzyć proces myślowy lekarza decydującego o tym jakiej techniki chirurgicznej użyć lub jaką dawkę terapeutyczną leku zastosować, znaleźlibyśmy wiele potencjalnych danych wejściowych. Nie ulega wątpliwości, że lekarz, który nie opisuje każdego z tych kroków rozumowania, nie narusza prawa pacjenta do świadomej zgody – podobnie będzie z zastosowaniem, w procesie leczenia, AI jako jednego z wielu elementów procesu decyzyjnego.

Inaczej jednak przedstawia się sytuacja, w której AI ma istotny wpływ na przebieg lub charakter udzielanego świadczenia zdrowotnego – pacjent powinien znać i rozumieć ten wpływ, inaczej świadomość jego zgody może być kwestionowana. Podobnie jak w przypadku, kiedy głównym elementem badania niezbędnego do postawienia diagnozy jest przeprowadzenie tomografii komputerowej, konieczne jest poinformowanie o tym pacjenta w celu uzyskania świadomej zgody, w przypadku gdy oprogramowanie AI stanowi istotny element w procesie diagnostycznym czy leczniczym profesjonalista medyczny również musi przekazać odpowiednią informację pacjentowi, aby uzyskana zgoda pacjenta była świadoma. Jeżeli zatem to AI decyduje o zastosowanym postępowaniu, a profesjonalista medyczny zgadza się z nim i przekazuje pacjentowi tę decyzję – zasadne jest poinformowanie pacjenta o roli AI.

W większości dotychczasowych zastosowań AI w medycynie sztuczna inteligencja jest tylko jednym z elementów procesu diagnostyczno-leczniczego koordynowanego przez lekarza, w takich wypadkach więc nie jest niezbędne informowanie i zbieranie zgody pacjenta na korzystanie z tej nieinwazyjnej procedury medycznej.”

Uchwała wprowadzającą nową wersję Kodeksu Etyki Lekarskiej wejdzie w życie 1 stycznia 2025 r.