Rozmowa ze sobą to cecha, która wydaje się z natury ludzka. Monologi wewnętrzne pomagają uporządkować myśli, podejmować decyzje i rozumieć emocje. Ale nie tylko ludzie mogą czerpać korzyści z wewnętrznego dialogu.
Jeśli zastanawiasz się, czy ktoś jeszcze we wszechświecie może toczyć rozmowy z samym sobą, to znamy odpowiedź: okazuje się, że rozmowa ‘wewnętrzna’ jest możliwa i ma potencjał w przypadku udoskonalania uczenia się AI – do takich wniosków doszli naukowcy z Okinawa Institute of Science and Technology (OIST, Japonia), którzy pokazali, jak modele AI mogą w łatwiejszy sposób uogólniać się na różne zadania, gdy są wspierane zarówno przez mowę wewnętrzną, jak i pamięć krótkotrwałą. Wyniki badań opublikowali w Neural Computation.
– To badanie pokazuje znaczenie wchodzenia w interakcję z samym sobą w kontekście sposobu przyswajania wiedzy. Poprzez strukturyzację danych treningowych w taki sposób, który uczy nasz system rozmawiać samym ze sobą, pokazujemy, że uczenie się jest kształtowanie nie tylko przez architekturę naszych systemów AI, ale także przez dynamikę interakcji zawartą w naszych procedurach treningowych – wyjaśnia pierwszy autor, dr Jeffrey Queißer, pracownik naukowy Cognitive Neurorobotics Research Unit OIST.
Łącząc samodzielne ‘mamrotanie’ z unikalną architekturą pamięci roboczej, naukowcy usprawnili sposób, w jaki ich modele AI się uczą, dostosowują do nowych sytuacji i wykonują wielozadaniowość.
– Szybkie przełączanie zadań i rozwiązywanie nieznanych problemów to coś, co my, ludzie, każdego dnia robimy z łatwością. Ale dla AI jest to znacznie trudniejsze – zauważa dr Jeffrey Queißer. – Dlatego stosujemy interdyscyplinarne podejście, łącząc neurobiologię i psychologię rozwojową z uczeniem maszynowym i robotyką oraz z innymi dziedzinami, aby znaleźć nowe sposoby myślenia o uczeniu się i kształtowaniu przyszłości AI – dodaje.
Początkowo naukowcy skupili się na architekturze pamięci modeli AI, analizując znaczenie pamięci roboczej dla uogólniania zadań (pamięć robocza to krótkotrwała zdolność systemu do zapamiętywania i wykorzystywania informacji). Symulując zadania o różnym stopniu trudności, badali skuteczność różnych jej struktur . Wykazali, że systemy zawierające wiele slotów pamięci roboczej (kontenery tymczasowe na fragmenty informacji) są w stanie lepiej uogólniać trudne zadania, jak odwracanie kolejności i regeneracja wzorców. Po dodaniu celów ‘mamroczących’, czyli nakazujących systemowi określoną liczbę razy rozmawiać ze sobą, osiągnęli lepszą wydajność, szczególnie podczas wielozadaniowości lub wykonywania zadań złożonych z wielu kroków.
– Nasz połączony system jest wyjątkowo emocjonujący, ponieważ umożliwia pracę z rzadkimi danymi, a nie z rozległymi zbiorami danych, które są zwykle wymagane do trenowania modeli AI i do uogólnienia. To obiecująca alternatywa – podkreśla dr Jeffrey Queißer.
Źródło: eurekalert.org
Foto: freepik.com

