„AI to turbo-przyspieszenie dla biomedycyny. Nie jutro, ale dziś”

Dodano: 10.12.2025


Alfonso Alfonso jest hiszpańskim biologiem, dyrektorem wydziału nauk przyrodniczych w Barcelona Supercomputing Center, należącym do Hiszpańskiego Narodowego Instytutu Bioinformatyki
Alfonso Alfonso jest hiszpańskim biologiem, dyrektorem wydziału nauk przyrodniczych w Barcelona Supercomputing Center, należącym do Hiszpańskiego Narodowego Instytutu Bioinformatyki

Czy obietnice związane z AI w medycynie są realne? Czy nowe modele AI będą wolne od halucynacji? Kiedy pierwsze komputery kwantowe zaczną szukać nowych leków? Wywiad z Profesorem Alfonso Valencia, dyrektorem działu nauk przyrodniczych w Barcelona Supercomputing Center (BSC) – jednego z największych europejskich hubów AI.

Newsletter OSOZ

W ciągu ostatnich 3 latach byliśmy świadkami szybkiego rozwoju sztucznej inteligencji, zwłaszcza modeli generatywnych. Czy możemy spodziewać się nowych, lepszych modeli niż te dostępne?

Nie sądzę, że modele, które mamy obecnie – czyli te mające zastosowanie w narzędziach takich jak ChatGPT – to końcowy etap rozwoju sztucznej inteligencji. W rzeczywistości to bardzo prosta technologia, bo opiera się na bazowych regułach statystyki. I nawet jeśli ChatGPT czasami sprawia takie wrażenie, to nie rozumie ani kontekstu, ani sytuacji, o których z nim rozmawiamy. Po prostu wypluwa zdania, które są najbardziej prawdopodobne w odniesieniu do zadanego pytania.

Powiem inaczej: jeśli modele generatywnej AI to wszystko, co w dziedzinie AI osiągnęliśmy na kolejne lata, to wówczas mamy poważny problem.

Dlaczego?

LLM są z definicji bardzo niewiarygodne. Nie wiemy, czy odpowiedzi generowane przez modele generatywne są poprawne i w jakim stopniu możemy im ufać. To stawia nas w bardzo trudnej sytuacji, bo trudno stwierdzić, na ile możemy wykorzystywać dalej uzyskane wyniki. I to niezależnie od tego, czy generujemy tekst czy obrazek.

To dlatego naukowcy i firmy nowych technologii na całym świecie robią wszystko, aby zwiększyć stopień użyteczności modeli generatywnej AI i skompensować istniejące niedoskonałości. Pamiętajmy, że w biologii i medycynie czynnik zaufania ma ogromne znaczenie. Dlatego wprowadzane są ulepszenia w transformerach (redakcja: architektura uczenia głębokiego opracowana przez Google) i innych architekturach AI. Pojawiają się coraz to lepsze modele i coraz to lepsza inżynieria modeli. Nie rozwiązuje to jednak podstawowego problemu, czyli ograniczeń generatywnej AI wynikających z ich natury działania.

Jedną z głównych obaw związanych z generatywną sztuczną inteligencją są tzw. halucynacje. Nowy model GPT-5, który miał premierę w sierpniu br., zmniejsza ich występowanie kilkukrotnie, jak deklaruje OpenAI. Czy można je całkowicie wyeliminować?

Z perspektywy maszyny halucynacje nie są tak naprawdę „błędami”. System po prostu maksymalizuje prawdopodobieństwa analizując różne możliwe scenariusze. Z ludzkiego punktu widzenia, gdy wynik nie odpowiada prawdzie, uważamy to za błąd. Jest to nieodłączna cecha działania systemów opartych na prawdopodobieństwie, a ich wyeliminowanie jest niemożliwe.

Dlatego obecne wysiłki koncentrują się na budowaniu kolejnych warstw kontroli. Przykładowo, może to być mechanizm weryfikacji wyniku w dostępnych bazach wiedzy albo tzw. walidacja międzymodelowa, czyli porównanie wyników kilku modeli. W ten sposób, AI jest wprawdzie coraz bardziej niezawodna, ale mimo to, żadne z tych interwencji nie eliminuje nieodłącznej niepewności towarzyszącej generatywnej AI. Co gorsza, nawet nie mamy dobrego sposobu na zmierzenie tej niepewności w działaniu modeli.

W dziedzinie, którą głownie się zajmuję, czyli w modelowaniu struktur białek, system taki jak AlphaFold daje poziom pewności na poziomie 80 – 90 proc. I w wielu przypadkach taki poziom jest zupełnie wystarczający i może prowadzić do rewolucyjnych odkryć.

W przypadku modeli językowych lub modeli generujących grafikę, nie mamy takiej pewności. Nie ma sposobu, aby stwierdzić, że dana odpowiedź jest wiarygodna w np. 80%. Dla mnie jest to kluczowa różnica. Inżynieria może ograniczyć liczbę błędów, ale nie może dać nam tego wskaźnika pewności. To sprawia, że technologia generatywnej AI jest niestabilna.

Mimo tych ograniczeń zachwyt nad generatywną AI nie słabnie. Niektórzy liderzy firm nowych technologii zaczynają mówić, że to bańka, która wkrótce pęknie.

Patrząc na liczby, trudno uwierzyć, że taki poziom inwestycji będzie utrzymywany w nieskończoność. Ogromne sumy pieniędzy płyną do firm takich jak OpenAI czy startupów AI. Ale czy zarabiają one wystarczająco dużo na AI, aby uzasadnić te inwestycje? Czy dzięki modelom AI można uzyskać rzeczywisty wzrost wydajności, który odpowiada szumowi medialnemu? Nie jest to aż tak oczywiste.

Z historii znamy wiele przereklamowanych technologii, które napędzały krótkoterminowe oczekiwania. Inwestowano bez zbytniego martwienia się o to, co będzie później. Podobnie obecny szum nie sprzyja zrównoważonemu rozwojowi AI.

W biomedycynie jest jednak inaczej, bo sztuczna inteligencja już przynosi konkretne efekty. Przykładem jest szukanie nowych struktur białek w pracach nad lekami, AI analizująca duże ilości danych genetycznych w medycynie personalizowanej albo modele stosowane do podsumowywania dokumentacji medycznej. To rzeczywistość, a nie obietnica. Nawet jeśli niektóre firmy AI upadną pod ciężarem niezrównoważonych inwestycji, społeczność naukowa będzie nadal korzystać z nowych modeli i wcześniejszych postępów.

Oprócz projektowania struktur białek, wsparcia w EDM albo genomice, jakie jeszcze zastosowania sztucznej inteligencji w medycynie zasługują na uwagę?

Jest ich wiele – od biologii przedklinicznej, czyli badań przed wprowadzeniem leku do stosowania u ludzi, po zastosowania kliniczne jak algorytmy wspomagające podejmowanie decyzji. Kilka lat temu w artykule opublikowanym w czasopiśmie Science napisano, że kolejnym frontem rozwoju modeli językowych jest biologia i medycyna. I to prawda. Coraz więcej badaczy zajmujących się AI przechodzi do nauk o zdrowiu, ponieważ jest to dziedzina, gdzie zastosowania AI mogą być bardzo szerokie.

Do tego dochodzi jeszcze jeden argument: wpływ AI w medycynie można badać, a sama AI ma realny wpływ na życie i zdrowie człowieka. W innych dziedzinach prace nad AI są bardzo teoretyczne i nie dają tej samej satysfakcji i wymiernych korzyści.

Powracając do pytania, oprócz odkrywania nowych leków, zwróciłbym jeszcze uwagę na zastosowanie generatywnej AI w tworzeniu dokumentacji medycznej. Szpitale już od dawna są wyposażone w technologie obrazowania medycznego wspomagane AI. Jednak wąskim gardłem zawsze był dostęp do dużych ilości danych medycznych, ich przetwarzanie i wyciąganie na ich podstawie wniosków do decyzji klinicznych.

Obecnie, po raz pierwszy mamy możliwość łączenia tekstów, obrazów, wyników badań laboratoryjnych, informacji genetycznych, rezultatów badań naukowych. W ten sposób powstaje nowa wiedza, którą możemy wykorzystać np. do precyzyjnego leczenia nowotworów. Bardzo duży potencjał AI widzę także w kardiologii, neurologii i zdrowiu psychicznym.

Trwa „wyścig AI”: Chiny są już dziś liderem jeśli chodzi o liczbę patentów AI, Stany Zjednoczone przodują w komercjalizacji. Czy Europa, wprawdzie silna w ośrodki naukowe, ale ograniczona regulacjami prawnymi, liczy się w tym maratonie?

I tak i nie. Pozytywnym trendem są duże inwestycje w moc obliczeniową. W ramach inicjatywy AI Gigafactory na ten cel przeznaczono 200 mld euro ze środków prywatnych i dofinansowania Komisji Europejskiej. To ogromna kwota, a inwestycje przełożą się na ogromną moc obliczeniową pozwalającą wykorzystywać i opracowywać nowe algorytmy AI (redakcja: Polska stara się obecnie o utworzenie Baltic AI GigaFactory).

Drugim optymistycznym sygnałem są zmiany w polityce AI. UE postanowiła ściślej współpracować z przedsiębiorstwami, inwestując bezpośrednio w projekty, które przynoszą korzyści europejskiemu przemysłowi. To nowość.

Pod względem naukowym Europa jest silna, ale bądźmy szczerzy – wszystkie nagrody Nobla nadal trafiają do Amerykanów. Trudno konkurować z takim poziomem pieniędzy jak w USA. Potrzebujemy większych inwestycji w naukę. Jednak aby tak się stało, rządy poszczególnych krajów członkowskich muszą zrozumieć, że AI wymaga specjalnych programów finansowania.

Do tego dochodzi regulacja. Europa ma tendencję do regulowania na długo przed pełnym rozwojem technologii, co blokuje wszelkie inwestycje. Nie jestem przeciwny regulacjom, bo są one konieczne. Jednak same regulacje nie budują potencjału. Nie ma sensu regulować czegoś, co inni już rozwijają i wprowadzają do rozwiązań konsumenckich.

Kolejną technologią budzącą emocje są obliczenia kwantowe. Barcelona Supercomputing Center posiada już komputer kwantowy. Jak daleko jesteśmy od rzeczywistych zastosowań quantum computing w medycynie?

Tak, mamy już komputer kwantowy zakupiony przez rząd hiszpański i czekamy na drugi sfinansowany ze środków europejskich. Będzie one częścią kontynentalnej sieci komputerów kwantowych.

Maszyny te są nadal w fazie eksperymentalnej. Istnieją projekty badawcze w dziedzinie biologii wykorzystujące algorytmy kwantowe do wielokrotnego dopasowywania sekwencji, rekonstrukcji drzewa filogenetycznego czy w analizie obrazów. Gdy komputery kwantowe uzyskają stabilność pracy, pomogą w rozwiązywaniu bardzo palących problemów wymagających ogromnych mocy obliczeniowych, nieosiągalnych z wykorzystaniem klasycznych komputerów.

A kiedy będziemy mieli pierwsze w pełni funkcjonalne komputery kwantowe? Niektórzy twierdzą, że za pięć lat, a inni – że to kwestia dekad. Szczera odpowiedź brzmi: nie wiemy.

Komputer kwantowy w Barcelona 
Supercomputing Center.
Komputer kwantowy w Barcelona Supercomputing Center

Geoffrey Hinton, laureat Nagrody Nobla za pracę nad sieciami neuronowymi, ostrzega przed rozwojem super-inteligentnej AI. A czy Pan jest bardziej optymistą, czy pesymistą w tym obszarze?

Tutaj znowu mi trudno odpowiedzieć jednoznacznie. Na poziomie społecznym dostrzegam wiele zagrożeń. Już teraz obserwujemy manipulacje wyborcze, dezinformację i dominację kilku dużych amerykańskich firm kontrolujących przepływ informacji. Ludzie zaczynają ufać wszystkiemu, co wygląda na wiarygodne, niezależnie od tego, czy jest prawdziwe, czy fałszywe. To groźne, zwłaszcza z punktu widzenia Europy i życia społecznego.

Jednak z perspektywy naukowej, sztuczna inteligencja jest niezwykle obiecująca. Często porównuję ją do energii jądrowej, która jest niebezpieczna i może spowodować katastrofę, jeśli zostanie niewłaściwie wykorzystana. Jednak wykorzystujemy ją również w dobrych celach, zwłaszcza w medycynie.

Tak też postrzegam sztuczną inteligencję – jako technologię o podwójnym obliczu. Może przynieść ogromne korzyści, ale może też wyrządzić wielką szkodę.

Co zrobić, żeby zminimalizować zagrożenia AI i zmaksymalizować korzyści?

Musimy więcej inwestować. Regulacje bez inwestycji są bezsensowne. Musimy również budować potencjał i chronić europejską suwerenność w zakresie technologii. Trzeba inwestować w edukację AI, aby społeczeństwo wiedziało, jak z niej korzystać. Musimy też realistycznie podchodzić do ograniczeń AI i przestać ją traktować jak coś magicznego.