Przełomowy algorytm AI dla osób z aparatem słuchowym

Dodano: 23.06.2025


Algorytm sztucznej inteligencji filtruje dźwięki w podobny sposób, jak robi to mózg człowieka
Algorytm sztucznej inteligencji filtruje dźwięki w podobny sposób, jak robi to mózg człowieka

Osoby noszące aparat słuchowy czują się w grupie ludzi niekomfortowo, bo każdy dźwięk – niezależnie od tego czy pochodzi od rozmówcy albo kogoś obok – słyszą tak samo głośno i nie mogą skupić się na rozmowie z jedną osobą. Naukowcy opracowali inspirowany działaniem mózgu algorytm, który pomaga wyeliminować tego typu zakłócenia i wyodrębnić pojedyncze głosy w tłumie.

Ubytki słuchu prowadzą do izolacji społecznej

Osoby starsze często unikają spotkań w restauracji albo w szerszym gronie, wiedząc, że będą miały problem ze słyszeniem, kiedy wokół naraz mówi kilka osób i rozmowy zaczynają się na siebie nakładać. Orientowanie się w takim gąszczu słów i skupienie się na tych, które są ważne, jest dla osób z utratą słuchu bardzo trudne. Rozmowy, zamiast sprawiać przyjemność, denerwują i powodują dezorientację. To nie musi być spotkanie towarzyskie – wyzwaniem stają się nawet rozmowy z rodziną, zebrania w miejscu pracy i praca w otwartych biurach.

W Polsce co trzecia osoba ma problemy ze słuchem, a 6% Polaków cierpi na zaburzenia słyszenia i niedosłuch. Według Światowej Organizacji Zdrowia, do 2050 roku ok. 2,5 mld ludzi na całym świecie będzie miało jakiś ubytek słuchu.

Naukowcy z Uniwersytetu w Bostonie uważają, że znaleźli rozwiązanie tego problemu. Ich algorytm może poprawić dokładność rozpoznawania słów o 40 punktów procentowych w porównaniu z obecnymi algorytmami stosowanymi w nowej generacji aparatach słuchowych.

Wiele aparatów słuchowych jest już wyposażonych w algorytmy redukcji szumów i mikrofony kierunkowe, które mają za zadanie wzmacniać dźwięki dochodzące bezpośrednio z naprzeciwka osoby noszącej aparat. Ale większość z nich nie jest na tyle efektywna, aby wyeliminować chaos dźwięków.

Algorytm filtruje dźwięki jak ludzki mózg

Nowy algorytm BOSSA – od „biologicznie zorientowany algorytm segregacji dźwięków – opiera się na 20-letnich badaniach nad tym, jak mózg człowieka koduje i dekoduje dźwięki. Naukowcy opracowali schemat przetwarzania fal dźwiękowych na różnych etapach słuchania, śledząc ich drogę od ucha do mózgu. Jak się okazało, kluczową rolę odgrywają neurony hamujące, czyli komórki mózgowe, które pomagają tłumić niepożądane dźwięki. To forma „wewnętrznej redukcji szumów” – różne neurony są dostrojone do różnych lokalizacji dźwięku i częstotliwości.

I właśnie umiejętność mózgu filtrowania dźwięków stała się inspiracją dla nowego algorytmu, który wykorzystuje sygnały przestrzenne, takie jak głośność i czas trwania dźwięku, aby dostroić się do niego lub wyciszyć, wyostrzając lub tłumiąc słowa mówcy w zależności od potrzeb. Skuteczność nowego algorytmu sprawdzono w badaniu klinicznym z udziałem grupy młodych osób z utratą słuchu czuciowo-nerwowego, spowodowaną zazwyczaj czynnikami genetycznymi lub chorobami dziecięcymi. Uczestnicy nosili słuchawki symulujące rozmowy osób z różnych miejsc, a ich zdolność do rozpoznawania wybranych mówców została przetestowana przy pomocy nowego algorytmu, algorytmu obecnego w aparatach słuchowych i bez algorytmu.

Algorytm inspirowany biologią mózgu człowieka znacznie poprawił zrozumienie mowy w głośnym otoczeniu. Obecnie naukowcy są na wczesnym etapie testowania ulepszonej wersji algorytmu, która wykorzystuje technologię śledzenia ruchu gałek ocznych, aby umożliwić użytkownikom jeszcze lepsze kierowanie uwagi słuchowej. Ponieważ innowacja pozwala skupić się na wybranej ścieżce dźwięku, naukowcy chcą ją przetestować także u osób z ADHD lub autyzmem mających duże trudności w skupieniu się, gdy wokół dużo się dzieje. Algorytm mógłby znaleźć zastosowanie w słuchawkach z funkcją aparatu słuchowego klasy klinicznej jak AirPod Pro 2 firmy Apple, które są bardziej elastyczne od klasycznych aparatów słuchowych pod względem aktualizacji i uzupełniania o kolejne algorytmy.