NOWOŚĆ!Już dziś zapisz się, aby otrzymywać nasz newsletter! Zapisz się 

LEKARZInnowacjeWszechstronny lekarz

AI uczy się lepiej, gdy rozmawia sama ze sobą

Rozmowa ze sobą to cecha, która wydaje się z natury ludzka. Monologi wewnętrzne pomagają uporządkować myśli, podejmować decyzje i rozumieć emocje. Ale nie tylko ludzie mogą czerpać korzyści z wewnętrznego dialogu.

Jeśli zastanawiasz się, czy ktoś jeszcze we wszechświecie może toczyć rozmowy z samym sobą, to znamy odpowiedź: okazuje się, że rozmowa ‘wewnętrzna’ jest możliwa i ma potencjał w przypadku udoskonalania uczenia się AI – do takich wniosków doszli naukowcy z Okinawa Institute of Science and Technology (OIST, Japonia), którzy pokazali, jak modele AI mogą w łatwiejszy sposób uogólniać się na różne zadania, gdy są wspierane zarówno przez mowę wewnętrzną, jak i pamięć krótkotrwałą. Wyniki badań opublikowali w Neural Computation.

To badanie pokazuje znaczenie wchodzenia w interakcję z samym sobą w kontekście sposobu przyswajania wiedzy. Poprzez strukturyzację danych treningowych w taki sposób, który uczy nasz system rozmawiać samym ze sobą, pokazujemy, że uczenie się jest kształtowanie nie tylko przez architekturę naszych systemów AI, ale także przez dynamikę interakcji zawartą w naszych procedurach treningowych – wyjaśnia pierwszy autor, dr Jeffrey Queißer, pracownik naukowy Cognitive Neurorobotics Research Unit OIST.

Łącząc samodzielne ‘mamrotanie’ z unikalną architekturą pamięci roboczej, naukowcy usprawnili sposób, w jaki ich modele AI się uczą, dostosowują do nowych sytuacji i wykonują wielozadaniowość.

Szybkie przełączanie zadań i rozwiązywanie nieznanych problemów to coś, co my, ludzie, każdego dnia robimy z łatwością. Ale dla AI jest to znacznie trudniejsze – zauważa dr Jeffrey Queißer. – Dlatego stosujemy interdyscyplinarne podejście, łącząc neurobiologię i psychologię rozwojową z uczeniem maszynowym i robotyką oraz z innymi dziedzinami, aby znaleźć nowe sposoby myślenia o uczeniu się i kształtowaniu przyszłości AI – dodaje.

Początkowo naukowcy skupili się na architekturze pamięci modeli AI, analizując znaczenie pamięci roboczej dla uogólniania zadań (pamięć robocza to krótkotrwała zdolność systemu do zapamiętywania i wykorzystywania informacji). Symulując zadania o różnym stopniu trudności, badali skuteczność różnych jej struktur . Wykazali, że systemy zawierające wiele slotów pamięci roboczej (kontenery tymczasowe na fragmenty informacji) są w stanie lepiej uogólniać trudne zadania, jak odwracanie kolejności i regeneracja wzorców. Po dodaniu celów ‘mamroczących’, czyli nakazujących systemowi określoną liczbę razy rozmawiać ze sobą, osiągnęli lepszą wydajność, szczególnie podczas wielozadaniowości lub wykonywania zadań złożonych z wielu kroków.

Nasz połączony system jest wyjątkowo emocjonujący, ponieważ umożliwia pracę z rzadkimi danymi, a nie z rozległymi zbiorami danych, które są zwykle wymagane do trenowania modeli AI i do uogólnienia. To obiecująca alternatywa – podkreśla dr Jeffrey Queißer.

Źródło: eurekalert.org
Foto: freepik.com

Powiązane artykuły
AktualnościInnowacje

Robotyczne wsparcie. Ludzka doskonałość

3 marca 2026 roku z okazji Światowego Dnia Słuchu w Światowym Centrum Słuchu Instytutu Fizjologii i Patologii Słuchu w Kajetanach odbyły się…
LEKARZWszechstronny lekarz

15-sekundowe reklamy mogą zmniejszyć apetyt na śmieciowe jedzenie

Nowe badanie przeprowadzone przez naukowców z Uniwersytetu Edith Cowan (Australia) wykazało, że reklamy zachęcające do zdrowych wyborów konsumenckich mogą zmienić chęć na…
LEKARZWszechstronny lekarz

O tym, co dzieci czują, a dorośli słyszą

Tylko co drugie dziecko w wieku 8-18 lat potrafi dokładnie opisać, co i gdzie je boli. Pozostałe mówią ogólnie, że „źle się…
Zapisz się, aby otrzymywać nasz newsletter

    Dodaj komentarz

    Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *