NOWOŚĆ!Już dziś zapisz się, aby otrzymywać nasz newsletter! Zapisz się 

LEKARZInnowacje

Słuchawki z AI pozwalają usłyszeć wybraną osobę w tłumie

Mamy już słuchawki z redukcją szumów, które są świetne i niezastąpione w wygłuszaniu niepotrzebnych dźwięków, jednak nadal wyzwaniem pozostaje stworzenie takich, które dopuszczają wybrane dźwięki z otoczenia, wymazując pozostałe. Amerykanie są na dobrej drodze, by je stworzyć.

Są słuchawki, które podczas rozmowy automatycznie dostosowują poziom dźwięku do użytkowników, ale kontrola nad tym, kogo się słucha, nadal pozostaje niewielka. 14 maja zespół naukowców z University of Washington (USA) zaprezentował w Honolulu (Hawaje, USA), na konferencji ACM CHI poświęconej czynnikom ludzkim w systemach obliczeniowych, swoje najnowsze odkrycie. Amerykanie opracowali system sztucznej inteligencji, który pozwala „zapisać/zapamiętać” daną osobę mówiącą, gdy użytkownik noszący słuchawki popatrzy na nią przez 3-5 sekund. System „Target Speech Hearing” (TSH) usuwa z otoczenia wszystkie inne dźwięki i odtwarza wyłącznie głos „zapisanego/zapamiętanego” mówcy w czasie rzeczywistym, nawet gdy słuchacz porusza się w hałaśliwych miejscach i nie jest już zwrócony w stronę mówcy.

Mamy tendencję do myślenia o sztucznej inteligencji jako o internetowych chatbotach, które odpowiadają na pytania – powiedział starszy autor badania prof. Shyam Gollakota. – Ale w tym projekcie opracowujemy sztuczną inteligencję, aby modyfikować percepcję słuchową każdego, kto nosi słuchawki, biorąc pod uwagę jego preferencje. Dzięki naszym urządzeniom można wyraźnie słyszeć jednego mówcę, nawet jeśli znajduje się w hałaśliwym otoczeniu, w którym rozmawia wiele innych osób – wyjaśnił.

Aby skorzystać z systemu TSH, osoba używająca słuchawek wyposażonych w mikrofony naciska odpowiedni przycisk i kieruje głowę na tego, kto mówi i kogo chce słyszeć. Fale dźwiękowe z głosu mówcy powinny dotrzeć jednocześnie do mikrofonów po obu stronach zestawu słuchawkowego (margines błędu wynosi 16 stopni). Następnie sygnał jest wysyłany do komputera pokładowego w słuchawkach, gdzie oprogramowanie do uczenia maszynowego zapamiętuje wzorce wokalne. System wychwytuje głos mówcy i odtwarza słuchaczowi, nawet gdy obie osoby się poruszają.

Zespół przetestował swój system na 21 osobach, które czystość głosu zarejestrowanego mówcy oceniły prawie dwa razy wyżej niż docierający do nich dźwięk niefiltrowany.

Prace zespołu poprzedzone były wcześniejszymi badaniami nad „semantycznym słyszeniem”. Dzięki nim użytkownik mógł wybierać określone klasy dźwięków, takie jak ptaki lub takie głosy, które chciał słyszeć, jednocześnie eliminując inne dźwięki z otoczenia.

Obecnie zespół pracuje nad rozszerzeniem systemu o wkładki douszne i aparaty słuchowe.

Współautorami publikacji byli Bandhav Veluri, Malek Itani i Tuochao Chen, doktoranci na University of Washington w Allen School, oraz Takuya Yoshioka, dyrektor ds. badań w AssemblyAI.

Źródło: eurekalert.org
Foto: Kiyomi Taguchi/Uniwersytet Waszyngtoński

Powiązane artykuły
PACJENTAktualnościCo? Gdzie? Kiedy?LEKARZ

20 marca 2025: Światowy Dzień Zdrowia Jamy Ustnej

World Oral Health Day to inicjatywa Światowej Federacji Dentystycznej (FDI) – organizacji zrzeszającej 191 krajowych towarzystw stomatologicznych ze 134 państw, reprezentujących łącznie…
LEKARZInnowacje

Największa na świecie baza takich danych jest w Polsce!

Gromadzone latami dane zdrowotne to ukryte bogactwo Polski. Naukowcy z Politechniki Warszawskiej trenują na nich AI. Czterdzieści tysięcy obrazów tomografii komputerowej płuc…
LEKARZInnowacje

Europejski projekt przeciwdziałania otępieniu już w Polsce!

Startuje część kliniczna europejskiego projektu przeciwdziałania otępieniu. Lubelska grupa naukowa opracowała autorski protokół badania. Szybka diagnoza ma kluczowe znaczenie w opiece nad…
Zapisz się, aby otrzymywać nasz newsletter

    Dodaj komentarz

    Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *