NOWOŚĆ!Już dziś zapisz się, aby otrzymywać nasz newsletter! Zapisz się 

LEKARZInnowacjeWszechstronny lekarz

AI uczy się lepiej, gdy rozmawia sama ze sobą

Rozmowa ze sobą to cecha, która wydaje się z natury ludzka. Monologi wewnętrzne pomagają uporządkować myśli, podejmować decyzje i rozumieć emocje. Ale nie tylko ludzie mogą czerpać korzyści z wewnętrznego dialogu.

Jeśli zastanawiasz się, czy ktoś jeszcze we wszechświecie może toczyć rozmowy z samym sobą, to znamy odpowiedź: okazuje się, że rozmowa ‘wewnętrzna’ jest możliwa i ma potencjał w przypadku udoskonalania uczenia się AI – do takich wniosków doszli naukowcy z Okinawa Institute of Science and Technology (OIST, Japonia), którzy pokazali, jak modele AI mogą w łatwiejszy sposób uogólniać się na różne zadania, gdy są wspierane zarówno przez mowę wewnętrzną, jak i pamięć krótkotrwałą. Wyniki badań opublikowali w Neural Computation.

To badanie pokazuje znaczenie wchodzenia w interakcję z samym sobą w kontekście sposobu przyswajania wiedzy. Poprzez strukturyzację danych treningowych w taki sposób, który uczy nasz system rozmawiać samym ze sobą, pokazujemy, że uczenie się jest kształtowanie nie tylko przez architekturę naszych systemów AI, ale także przez dynamikę interakcji zawartą w naszych procedurach treningowych – wyjaśnia pierwszy autor, dr Jeffrey Queißer, pracownik naukowy Cognitive Neurorobotics Research Unit OIST.

Łącząc samodzielne ‘mamrotanie’ z unikalną architekturą pamięci roboczej, naukowcy usprawnili sposób, w jaki ich modele AI się uczą, dostosowują do nowych sytuacji i wykonują wielozadaniowość.

Szybkie przełączanie zadań i rozwiązywanie nieznanych problemów to coś, co my, ludzie, każdego dnia robimy z łatwością. Ale dla AI jest to znacznie trudniejsze – zauważa dr Jeffrey Queißer. – Dlatego stosujemy interdyscyplinarne podejście, łącząc neurobiologię i psychologię rozwojową z uczeniem maszynowym i robotyką oraz z innymi dziedzinami, aby znaleźć nowe sposoby myślenia o uczeniu się i kształtowaniu przyszłości AI – dodaje.

Początkowo naukowcy skupili się na architekturze pamięci modeli AI, analizując znaczenie pamięci roboczej dla uogólniania zadań (pamięć robocza to krótkotrwała zdolność systemu do zapamiętywania i wykorzystywania informacji). Symulując zadania o różnym stopniu trudności, badali skuteczność różnych jej struktur . Wykazali, że systemy zawierające wiele slotów pamięci roboczej (kontenery tymczasowe na fragmenty informacji) są w stanie lepiej uogólniać trudne zadania, jak odwracanie kolejności i regeneracja wzorców. Po dodaniu celów ‘mamroczących’, czyli nakazujących systemowi określoną liczbę razy rozmawiać ze sobą, osiągnęli lepszą wydajność, szczególnie podczas wielozadaniowości lub wykonywania zadań złożonych z wielu kroków.

Nasz połączony system jest wyjątkowo emocjonujący, ponieważ umożliwia pracę z rzadkimi danymi, a nie z rozległymi zbiorami danych, które są zwykle wymagane do trenowania modeli AI i do uogólnienia. To obiecująca alternatywa – podkreśla dr Jeffrey Queißer.

Źródło: eurekalert.org
Foto: freepik.com

Powiązane artykuły
LEKARZWszechstronny lekarz

O tym, co dzieci czują, a dorośli słyszą

Tylko co drugie dziecko w wieku 8-18 lat potrafi dokładnie opisać, co i gdzie je boli. Pozostałe mówią ogólnie, że „źle się…
LEKARZWszechstronny lekarz

Trening szybkości poznawczej kontra demencja

Właśnie ukazały się wyniki badań amerykańskich naukowców, według których komputerowe treningi poznawcze naśladujące szybkie wykonywanie zadań angażujących podzielność uwagi mają związek z…
Co? Gdzie? Kiedy?LEKARZ

11 lutego: Międzynarodowy Dzień Kobiet i Dziewcząt w Nauce

Choć kobiety stanowią już niemal połowę kadry akademickiej w Polsce, ich potencjał nadal nie jest w pełni wykorzystywany. Raport opracowany przez prof….
Zapisz się, aby otrzymywać nasz newsletter

    Dodaj komentarz

    Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *