Art. 12 Kodeksu Etyki Lekarskiej o AI zbyt restrykcyjny?


Zgodnie z nowym artykułem 12 KEL, lekarz może w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym korzystać z algorytmów sztucznej inteligencji pod warunkiem uzyskania świadomej zgody pacjenta 
Zgodnie z nowym artykułem 12 KEL, lekarz może w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym korzystać z algorytmów sztucznej inteligencji pod warunkiem uzyskania świadomej zgody pacjenta 

Koalicja AI i Innowacji w Zdrowiu wraz z Ogólnopolską Izbą Gospodarczą Wyrobów Medycznych POLMED mają duże wątpliwości co do proponowanych zmian w Kodeksie Etyki Lekarskiej (KEL) dotyczących wykorzystania AI w diagnostyce i leczeniu. W piśmie do przewodniczącego Komisji Etyki Lekarskiej NRL Artura de Rosier postulują uwzględnienie kilku ważnych zmian.

Kontrowersyjny artykuł 12 KEL

Chodzi o interpretację artykułu 12 KEL, który nakłada na lekarzy obowiązek uzyskania świadomej zgody pacjenta na zastosowanie AI w procesie diagnostycznym lub terapeutycznym. Koalicja AI w Zdrowiu popiera ideę regulacji w tej dziedzinie, ale jednocześnie zwraca uwagę, że proponowana interpretacja jest zbyt restrykcyjna i może stwarzać “ryzyko potencjalnych nadużyć ze szkodą dla lekarzy, w których brak poinformowania o zastosowaniu systemu AI nawet o trzeciorzędnym w procesie opieki nad pacjentem znaczeniu stanowić będzie naruszenie zasad deontologii zawodowej.”

Autorzy pisma proponują rozróżnienie dwóch sytuacji:

  1. Gdy AI ma kluczowe znaczenie dla świadczenia medycznego, np. samodzielnie stawia diagnozę – wtedy pacjent powinien być poinformowany i wyrazić zgodę.
  2. Gdy AI pełni jedynie rolę pomocniczą, np. poprawia jakość obrazów medycznych – wtedy, zdaniem Koalicji, nie ma potrzeby uzyskiwania osobnej zgody pacjenta.

– Nie ma w naszej ocenie podstaw do przyjęcia, że o AI każdorazowo należy informować pacjenta tylko i wyłącznie dlatego, że to właśnie AI – argumentują Ligia Kornowska, Liderka Koalicji AI i Innowacji w Zdrowiu oraz Arkadiusz Grądkowski, Prezes Ogólnopolskiej Izby Gospodarczej Wyrobów Medycznych POLMED.

Zupełnie inne stanowisko przedstawiła Komisja Etyki Lekarskiej NIL w niedawno opublikowane interpretacji: “Jedną z podstawowych zasad wynikających z Kodeksu etyki lekarskiej jest poszanowanie autonomii pacjentów. Jej wyrazem jest spoczywający na lekarzach obowiązek uzyskania uprzedniej świadomej zgody na udzielenie świadczenia zdrowotnego (wynikający z art. 16 KEL) i obowiązek respektowania prawa pacjenta do świadomego udziału w podejmowaniu decyzji dotyczących ich zdrowia, w tym informowania pacjenta o korzyściach i ryzyku proponowanych działań diagnostycznych i leczniczych, a także o możliwościach zastosowania innego postępowania medycznego (wynikający z art. 14 KEL).”

Obawy o nadmierną biurokrację

Eksperci Koalicji obawiają się, że dosłowne rozumienie nowego przepisu mogłoby w praktyce oznaczać konieczność informowania pacjenta i pobierania od niego zgody na zastosowanie AI przed każdym standardowym badaniem obrazowym. Taki dodatkowy obowiązek administracyjny, niezwiązany z procesem leczenia, może wydłużyć czas wizyty pacjenta, bez wpływu na jakość opieki.

Koalicja podkreśla, że informowanie pacjentów o zastosowaniu AI powinno odbywać się zgodnie ze standardem wynikającym z obowiązującego prawa, które bazuje na zasadzie neutralności technologicznej.

“Kluczowe jest wzajemne zrozumienie pomiędzy lekarzem a pacjentem, a nie szczegóły techniczne wykorzystywanego systemu IT. AI stosowana w sposób wspierający proces diagnozowania czy leczenia może być traktowana po prostu jako kolejny wkład w proces rozumowania lekarza” – czytamy w stanowisku Koalicji AI w Zdrowiu i POLMED.

Propozycje zmian

Koalicja AI w Zdrowiu proponuje uzupełnienie komentarza do artykułu 12 KEL. Sugeruje m.in. wyraźne rozróżnienie sytuacji, w których zgoda pacjenta na zastosowanie AI jest wymagana, od tych, w których nie jest to konieczne.

“W naszej ocenie art. 12 KEL należy rozumieć w ten sposób, że obejmuje te sytuacje, w których lekarz intencjonalnie wykorzystuje systemy sztucznej inteligencji lub poleca pacjentowi wykorzystanie systemów sztucznej inteligencji w rozumieniu obowiązujących przepisów prawa w sposób, w którym proponowany przez lekarza algorytm AI ma kluczowy dla udzielanego świadczenia charakter, w tym samodzielnie wykonuje zadanie o charakterze klinicznym charakterystyczne dla wykonywania zawodu lekarza” – wskazują autorzy pisma.

Koalicja AI i POLMED proponują ponadto rezygnację z zapisu o udostępnianiu pacjentom instrukcji wyrobu medycznego AI, argumentując, że mogą one być niezrozumiałe dla odbiorców. Chodzi dokładnie o zapis “jeżeli pacjenci zażądaliby dodatkowych informacji, lekarz powinien udostępnić im informacje dostarczone przez producenta w instrukcji wyrobu medycznego AI”.

Przedstawiciele Koalicji AI w Zdrowiu oraz POLMED deklarują chęć spotkania i dokładniejszego omówienia tematu z Przewodniczącym Komisji Etyki Lekarskiej Naczelnej Rady Lekarskiej.

Niewyjaśnione kwestie AI

Wątpliwości wokół artykułu 12 KEL pokazują, jak złożonym i delikatnym tematem jest wprowadzanie sztucznej inteligencji do medycyny w obliczu braku jasnych regulacji prawnych. Z jednej strony, AI może znacząco poprawić jakość diagnostyki i leczenia, z drugiej – rodzi obawy o autonomię pacjenta i odpowiedzialność lekarza.

Koalicja AI w Zdrowiu i POLMED słusznie zwracają uwagę na potrzebę znalezienia równowagi pomiędzy prawami pacjenta i rozwojem technologii oraz wypracowania podejścia, które nie będzie hamować postępu technologicznego w medycynie, a jednocześnie zapewni pacjentom pełną transparentność procesu leczenia.

Ostateczny kształt regulacji etycznych dotyczących AI w medycynie będzie miał ogromne znaczenie dla podejście i zaufanie do sztucznej inteligencji, zarówno ze strony pacjentów jak i lekarzy.