Wyszukiwarka Google Lens rozpoznaje choroby skóry


Wyszukiwarka Google Lens
Wyszukiwarka Google Lens

Nowa wersja aplikacji Google Lens analizuje stan skóry, pomagając w samodiagnozie chorób dermatologicznych. Wystarczy zrobić zdjęcie smartfonem.

Google ogłosiło nowe funkcje wyszukiwarki obrazów Lens wbudowanej w aplikacje mobilne na iOS i Androida. Wśród nich znalazła się opcja ułatwiająca użytkownikom sprawdzenie, co może być przyczyną zmian skórnych, jak wysypki, przebarwienia lub pieprzyka.

Diagnoza ze zdjęcia

Wystarczy zrobić zdjęcie zmiany chorobowej, a Lens dopasuje je do opisów chorób przyporządkowanych do podobnych zdjęć. Google jednak zaznacza, że wyniki mają wyłącznie charakter informacyjny i nie stanowią diagnozy, a użytkownicy powinni skonsultować się z lekarzem w celu uzyskania porady. Jak na razie funkcja dostępna jest tylko w USA.

Google od lat bada zastosowanie sztucznej inteligencji do rozpoznawania obrazów celem diagnozy chorób dermatologicznych. Podczas konferencji deweloperów I/O w 2021 roku firma zaprezentowała narzędzie, które ocenia stan skóry, włosów i paznokci na podstawie kilku zdjęć i odpowiedzi zadawanych przez system. Wtedy Google twierdziło, że narzędzie może rozpoznać 288 różnych schorzeń z dokładnością 84%. Według Google, narzędzie przechodzi obecnie dalsze testy rynkowe i zdobyło już znak CE wyrobu medycznego klasy 1 zgodnie z przepisami Unii Europejskiej.

Demokratyzacja dermatologii

Google jest pod presją, bo jego wyszukiwarka internetowa jest powszechnie stosowana do diagnozy, wprowadzając pacjentów w błąd. Co minutę Google rejestruje 70 000 zapytań dotyczących zdrowia. Odpowiedzi o objawy nowotworu są tak samo segregowane jak te o najśmieszniejsze zdjęcia kotów, czyli na podstawie popularności, a nie zgodności z wiedzą naukową. Firma chce to najwyraźniej zmienić pracując nad nowymi narzędziami, a sztuczna inteligencja daje zupełnie nowe możliwości analizowania obrazów i porównywania ich z literaturą fachową.

Aplikacja Google Lens pozwala użytkownikom wyszukiwać informacje na temat wybranych obiektów robiąc im zdjęcie. Lens porównuje przechwycony obraz z innymi fotografiami w internecie – podobnie jak klasyczna wyszukiwarka Google robi to z tekstem – i segreguje wyniki na podstawie ich podobieństwa do obrazu użytkownika. W ten sposób można na przykład dowiedzieć się, jak nazywa się roślina lub drzewo, których nazw nie znamy albo wyszukać w sklepach internetowych buty lub spodnie, które ktoś nosi i nam się spodobały.

Jak wyjaśnia Lou Wang, starszy dyrektor ds. zarządzania produktami w wyszukiwarce Google, choroby skóry dużo łatwiej klasyfikować na podstawie obrazów niż słów, bo „opisanie dziwnego pieprzyka lub wysypki na skórze może być trudne”.

Technologia Google Lens ma potencjał demokratyzacji dermatologii pomagając w rozpoznawaniu groźnych zmian na wczesnym etapie, zwiększając szanse skutecznego leczenia. Narzędzie może też usprawnić pracę specjalistów – jeśli lekarz rodzinny ma do czynienia z wysypką, której nigdy wcześniej nie widział, aplikacja może pomóc w procesie diagnostycznym.

Czytaj także: Powstaje głosowy asystent lekarza za 9 mln zł z NCBR.