Sztuczna inteligencja zdała egzamin lekarski na 85%


Sztuczna inteligencja zdająca egzamin - rysunek stworzony przez... sztuczną inteligencję (DALL-E)
Sztuczna inteligencja zdająca egzamin – rysunek stworzony przez… sztuczną inteligencję (DALL-E)

Google zaprezentował najnowszą wersję swojego dużego modelu językowego (LLM) zaprojektowanego specjalnie do celów medycznych. Med-PaLM 2 – który działa jak popularny ChatGPT – odpowiedział na 85% pytań amerykańskiego egzaminu medycznego (USMLE MedQA). Tak poziom osiągają lekarze na poziomie eksperckim.

To o 18% więcej w stosunku do pierwszej wersji Med-PaLM, i 30% od wyniku który uzyskał GPT-3.

Zespół oceniający odpowiedzi modelu AI złożony był z klinicystów i ekspertów z innych dziedzin, a także różnych środowisk i krajów. Model został przetestowany pod kątem 14 kryteriów: precyzja naukowa, dokładność, zgodność z konsensusem medycznym, logiczne myślenie, stronniczość i potencjalne błędy.

Google zidentyfikował jednak sporo rozbieżności pomiędzy wiedzą medyczną a odpowiedziami modelu AI. Jednocześnie zobowiązał się do współpracy z naukowcami i pracownikami służby zdrowia, aby stopniowo je eliminować.

Google Research i DeepMind zaprezentowali pierwszą wersję modelu o nazwie Med-PaLM w grudniu 2022 roku. W przeciwieństwie do najpopularniejszego obecnie ChatuGPT, został on wytrenowany przede wszystkim na danych medycznych. A dokładnie na 540 miliardach parametrów. W przyszłości tego typu modele mogłyby wspomagać podejmowanie decyzji lekarskich oraz odpowiadać na pytania pacjentów.

Google zawarł kilka nowych partnerstw, które pomogą mu dalej rozwinąć i wdrożyć model AI w ochronie zdrowia. Przykładowo z Jacarda Health, kenijską organizacją non-profit i szpitalem Guang Gong Memorial na Tajwanie. Google współpracuje także z Mayo Clinic. Celem jest usprawnienie procesu planowania radioterapii.

Czytaj także: Jak medyczne modele AI zmienią ochronę zdrowia?