Jak wdrożyć AI i LLM w szpitalu? Case study ze Szwajcarii


Dr Bram Stieltjes jest liderem projektu wdrażania dużych modeli językowych w Szpitalu Uniwersyteckim w Bazylei (Szwajcaria)
Dr Bram Stieltjes jest liderem projektu wdrażania dużych modeli językowych w Szpitalu Uniwersyteckim w Bazylei (Szwajcaria)

„Początki były trudne, ale teraz lekarze są zadowoleni z pracy z dużymi modelami językowymi (LLM) “ – mówi dr Bram Stieltjes, kierownik działu badań i usług analitycznych na Oddziale Radiologii Szpitala Uniwersyteckiego w Bazylei. Rozmawiamy o tym, jak szpital stosuje AI w modelu open source, aby zmniejszyć obciążenia biurokratyczne.

Szpital Uniwersytecki w Bazylei stosuje dziesiątki różnych systemów IT różnych dostawców. Jak lekarze poruszają się w tak złożonym cyfrowym ekosystemie?

Muszę przyznać, że jest to coraz większym wyzwaniem. Lekarze często muszą żonglować wieloma aplikacjami, ręcznie kopiując i wklejając dane między systemami, przełączając się ciągle pomiędzy różnymi systemami.

Staraliśmy się jakoś to rozwiązać, wprowadzając uruchamianie wszystkich aplikacji z jednego środowiska IT. Ale tak naprawdę, to tylko obejście problemu, a nie rozwiązanie jego przyczyn. Taka fragmentacja systemów i danych utrudnia wgląd w pełny stan zdrowia pacjenta. A to prowadzi do nieefektywności w procesach opieki, które z kolei wpływają negatywnie na świadczenie opieki.

Obecnie, podobnie jak wiele innych szpitali, stosujemy standardy wymiany danych, takie jak HL7v2. To częściowo pomaga, ale dalej nie jest to pełna integracja. Przykładowo, nawet jeśli nowe systemy oparte są na standardach interoperacyjności, z obiegu i przetwarzania są wyłączone dane historyczne.

Ale na horyzoncie jest koniec z tym chaosem informacyjnym. Niedawno zakończyliśmy przetarg publiczny na otwartą platformę danych. Od stycznia tego roku wszyscy dostawcy IT muszą dostosować się do otwartych standardów na naszej platformie. To strategiczne zmiana w kierunku ujednoliconego środowiska cyfrowego.

Na konferencji „AI in Health” wspomniał Pan, że lekarze spędzają do 50% swojego czasu na uzupełnianiu danych w elektronicznej dokumentacji medycznej (EDM).

Tak i jeśli niczego nie zrobimy, będzie tylko gorzej. Rosnąca liczba aplikacji, które nie komunikują się między sobą, utrudnia uzyskanie pełnego obrazu pacjenta. Dlatego też przyjęliśmy nową strategię dla aplikacji klinicznych, której celem jest standaryzacja danych w celu stworzenia niezakłóconych przepływów informacji klinicznych. W ten sposób uzyskamy też większą efektywność przepływów pracy.

Przeszkodą w Szwajcarii jest to, że nie mamy nawet ujednoliconego standardu systemu elektronicznych kartotek pacjentów. Każdy szpital i system działa według własnych zasad, w izolacji. Tak jak wspomniałem wcześniej, dane gromadzone w ramach placówki mają różne formaty. Nie mówiąc o tym, że integracja danych ze źródeł zewnętrznych także kuleje.

Szpital Uniwersytecki w Bazylei to jeden z pięciu szpitali uniwersyteckich w Szwajcarii i największe centrum medyczne w północno-zachodniej części kraju. Zatrudnia ponad 8000 pracowników, a co roku leczy się w nim stacjonarnie ok. 42 000 pacjentów
Szpital Uniwersytecki w Bazylei to jeden z pięciu szpitali uniwersyteckich w Szwajcarii i największe centrum medyczne w północno-zachodniej części kraju. Zatrudnia ponad 8000 pracowników, a co roku leczy się w nim stacjonarnie ok. 42 000 pacjentów

Rozwiązaniem na niektóre wyzwania administracyjne i brak interoperacyjności danych okazały się duże modele językowe. Szpital już ich używa do porównywania danych z różnych źródeł i sporządzania wypisów szpitalnych i podsumowań danych pacjenta dla specjalistów.

Zaczęliśmy korzystać z AI już około dekady temu, wraz z tym jak pojawiły się systemy uczenia maszynowego. Oczywiście najpierw wdrażaliśmy AI w radiologii. Przez te lata zbudowaliśmy zespół inżynierów, którzy stopniowo opracowywali algorytmy wykorzystywane w obrazowaniu medycznym. Jednak z czasem zdaliśmy sobie sprawę, że duże rozdrobnienie danych jest sufitem, o który się rozbijamy za każdym razem, gdy planowaliśmy jeszcze szersze zastosowanie AI.

To zainspirowało nas do systemów AI o otwartym standardzie i zaczęliśmy je eksperymentalnie wykorzystywać do tworzenia wypisów klinicznych. Jednak efekty były dalekie od oczekiwanych. Dopiero pojawienie się dużych modeli językowych dwa lata temu, diametralnie zmieniło stan rzeczy. Dzięki ustrukturyzowanym danym z naszej hurtowni danych, LLM pomagają nam zmniejszyć liczbę błędów i ograniczyć halucynacje. W efekcie lekarz może łatwo przygotować wypis ze szpitala albo zebrać informacje wymagane np. przez ubezpieczyciela albo lekarza kontynuującego leczenia po wypisie. Tworzenie tego typu dokumentów administracyjnych zajmuje o wiele mniej czasu, bo robi to automatycznie AI.

Jak jeszcze lekarze korzystają na LLM?

Ogromną zaletą jest opracowywanie wytycznych i wniosków – na podstawie wielodyscyplinarnych konsyliów i opinii różnych specjalistów – dotyczących skomplikowanych zabiegów onkologicznych lub chirurgii kręgosłupa. LLM może podsumować stos raportów, sugestii i danych pacjenta oraz porównać je z wytycznymi towarzystw naukowych z całego świata, zestawiając ze sobą przykładowo rekomendacje europejskie z amerykańskimi. To diametralnie ułatwia podejmowanie decyzji.

Innym praktycznym zastosowaniem jest automatycznie przygotowywanie pism, które musi zatwierdzić ubezpieczyciel jeszcze przed wykonaniem niektórych świadczeń medycznych. Zadania, które wcześniej zajmowały 20 minut na pacjenta, można teraz wykonać w ciągu jednej lub dwóch minut przy wsparciu LLM.

Co radziłby Pan szpitalom, które dopiero planują wdrożenie dużych modeli językowych?

Należy zacząć od odpowiedniego sprzętu – wiele szpitali nie dysponuje odpowiednią infrastrukturą do obsługi LLM. Jeśli polegasz na rozwiązaniach chmurowych, potrzebujesz solidnej strategii chmurowej. W przypadku lokalnych rozwiązań bazodanowych, potrzebny będzie personel wykwalifikowany w inżynierii danych. Tego nie da się przeskoczyć.

Kolejnym kluczowym czynnikiem jest zaangażowanie lekarzy. Lekarze są przepracowani, dlatego bardzo ostrożnie trzeba zaplanować szkolenia i wdrożenie funkcjonalności AI. Równie ważne jest słuchanie ich opinii dotyczących obsługi AI, ale także unikanie obietnic bez pokrycia.

Jak udało się przekonać lekarzy w Państwa szpitalu?

Moim zdaniem najważniejsze jest, aby znaleźć klinicystów naprawdę zainteresowanych tematem AI w codziennej pracy. Może się okazać, że część pracowników jest pozytywnie nastawiona do AI, ale motywacja jest inna. Przykładowo, widzą potencjał w publikowaniu artykułów naukowych na temat zastosowania AI w szpitalu, co powoduje, że może brakować im zapału potrzebnego, gdy AI nie działa tak, jak od razu oczekiwano.

Dlatego najpierw warto udostępnić nowe funkcje prawdziwym pasjonatom. Gdy zaczną oni osiągać duże korzyści z rozwiązania, nawet początkowo sceptyczni koledzy szybko się przekonają.

Poza LLM, jakie inne rozwiązania sztucznej inteligencji są wdrażane w Szpitalu Uniwersyteckim w Bazylei?

AI radiologii jest już od dawna wykorzystywana rutynowo. Ale idziemy dalej i wdrażamy ją także w części administracyjnej pracy szpitala, jak na przykład do fakturowania. Kolejnym obszarem jest przegląd umów prawnych, z którym duże modele językowe też świetnie sobie radzą. Gdy nasza infrastruktura IT się ustabilizuje, przewiduję, że aplikacje AI rozprzestrzenią się na wszystkie obszary szpitala, zarówno związane z leczeniem pacjenta jak i administrowanie oraz zarządzaniem.

Szpitale w USA idą o krok dalej i wdrażają już systemy transkrypcji rozmowy lekarza z pacjentem, które są następnie zamieniane automatycznie na wpisy do elektronicznej dokumentacji medycznej.

Absolutnie to przyszłość medycyny. Systemy transkrypcji sprawią, że ustrukturyzowana dokumentacja medyczna stanie się z czasem efektem ubocznym wizyty pacjenta, a nie jej pierwszoplanowym aktorem.

Opracowaliśmy już podobne rozwiązania w radiologii. Wdrożenie na dużą skalę pozwoli wyeliminować uciążliwą konieczność wpisywania danych do komputera przez lekarzy. W efekcie będą mogli skupić się na rozmowie z pacjentem i badaniach. Moim zdaniem, systemy klasy „głos-na-tekst” wejdą też na sale operacyjne, pomagając dokumentować przebieg operacji i na tej podstawie kontrolować jej przebieg.

Szpitale bardzo ostrożnie wdrażają sztuczną inteligencję przede wszystkim ze względu na surowe przepisy dotyczące ochrony danych.

W naszym przypadku przyjęliśmy podejście oparte na lokalnie działających rozwiązaniach LLM, czyli nie przesyłających danych do chmury danych, a do tego rozwiązaniach typu open source. To znacznie zmniejsza ryzyka związane z bezpieczeństwem danych, ale z drugiej strony wymaga znacznych inwestycji w sprzęt.

Drugim remedium jest generowanie danych syntetycznych, z pomocą których można trenować modele AI bez użycia wrażliwych danych pacjentów, a więc bez obaw o zgodność z wymogami regulacyjnymi. Nasze podejście skupione na hostingu modeli AI w szpitalu (red.: tworzenie i utrzymywanie własnych modeli na podstawie rozwiązań open-sourcowych) gwarantuje równowagę między prywatnością pacjentów a funkcjonalnością.

Jak Pana zdaniem będzie przebiegało wdrażanie LLM w szpitalach?

Jestem przekonany, że stoimy u progu dużych zmian. Nasz przykład pokazuje, że LLM ułatwiają pracę lekarza i uwalniają go od biurokracji, na którą dotychczas nie było sposobu. Finalizujemy teraz rozmowy dotyczące stałego finansowania zastosowania AI, aby przejść od fazy pilotażowej do pełnego wdrożenia klinicznego.

Jestem optymistą co do LLM. To technologia, która ma transformacyjny potencjał dla opieki zdrowotnej.