NOWOŚĆ!Już dziś zapisz się, aby otrzymywać nasz newsletter! Zapisz się 

LEKARZInnowacjeWszechstronny lekarz

AI uczy się lepiej, gdy rozmawia sama ze sobą

Rozmowa ze sobą to cecha, która wydaje się z natury ludzka. Monologi wewnętrzne pomagają uporządkować myśli, podejmować decyzje i rozumieć emocje. Ale nie tylko ludzie mogą czerpać korzyści z wewnętrznego dialogu.

Jeśli zastanawiasz się, czy ktoś jeszcze we wszechświecie może toczyć rozmowy z samym sobą, to znamy odpowiedź: okazuje się, że rozmowa ‘wewnętrzna’ jest możliwa i ma potencjał w przypadku udoskonalania uczenia się AI – do takich wniosków doszli naukowcy z Okinawa Institute of Science and Technology (OIST, Japonia), którzy pokazali, jak modele AI mogą w łatwiejszy sposób uogólniać się na różne zadania, gdy są wspierane zarówno przez mowę wewnętrzną, jak i pamięć krótkotrwałą. Wyniki badań opublikowali w Neural Computation.

To badanie pokazuje znaczenie wchodzenia w interakcję z samym sobą w kontekście sposobu przyswajania wiedzy. Poprzez strukturyzację danych treningowych w taki sposób, który uczy nasz system rozmawiać samym ze sobą, pokazujemy, że uczenie się jest kształtowanie nie tylko przez architekturę naszych systemów AI, ale także przez dynamikę interakcji zawartą w naszych procedurach treningowych – wyjaśnia pierwszy autor, dr Jeffrey Queißer, pracownik naukowy Cognitive Neurorobotics Research Unit OIST.

Łącząc samodzielne ‘mamrotanie’ z unikalną architekturą pamięci roboczej, naukowcy usprawnili sposób, w jaki ich modele AI się uczą, dostosowują do nowych sytuacji i wykonują wielozadaniowość.

Szybkie przełączanie zadań i rozwiązywanie nieznanych problemów to coś, co my, ludzie, każdego dnia robimy z łatwością. Ale dla AI jest to znacznie trudniejsze – zauważa dr Jeffrey Queißer. – Dlatego stosujemy interdyscyplinarne podejście, łącząc neurobiologię i psychologię rozwojową z uczeniem maszynowym i robotyką oraz z innymi dziedzinami, aby znaleźć nowe sposoby myślenia o uczeniu się i kształtowaniu przyszłości AI – dodaje.

Początkowo naukowcy skupili się na architekturze pamięci modeli AI, analizując znaczenie pamięci roboczej dla uogólniania zadań (pamięć robocza to krótkotrwała zdolność systemu do zapamiętywania i wykorzystywania informacji). Symulując zadania o różnym stopniu trudności, badali skuteczność różnych jej struktur . Wykazali, że systemy zawierające wiele slotów pamięci roboczej (kontenery tymczasowe na fragmenty informacji) są w stanie lepiej uogólniać trudne zadania, jak odwracanie kolejności i regeneracja wzorców. Po dodaniu celów ‘mamroczących’, czyli nakazujących systemowi określoną liczbę razy rozmawiać ze sobą, osiągnęli lepszą wydajność, szczególnie podczas wielozadaniowości lub wykonywania zadań złożonych z wielu kroków.

Nasz połączony system jest wyjątkowo emocjonujący, ponieważ umożliwia pracę z rzadkimi danymi, a nie z rozległymi zbiorami danych, które są zwykle wymagane do trenowania modeli AI i do uogólnienia. To obiecująca alternatywa – podkreśla dr Jeffrey Queißer.

Źródło: eurekalert.org
Foto: freepik.com

Powiązane artykuły
Wszechstronny lekarzLEKARZ

Mikrobiota jelitowa w leczeniu otyłości

Otyłość to jedno z najpoważniejszych wyzwań zdrowia publicznego XXI wieku. Coraz więcej badań wskazuje, że jest to złożona choroba metaboliczna, w której…
InnowacjeCo? Gdzie? Kiedy?

Nowatorska metoda leczenia tętniaków mózgu po raz pierwszy w Polsce

Specjaliści z II Zakładu Radiologii Klinicznej CSK UCK WUM wykonali pierwszy w naszym kraju zabieg wewnątrznaczyniowego leczenia tętniaka mózgu z wykorzystaniem innowacyjnego…
LEKARZPACJENT

Czas Henryka Skarżyńskiego. Oto zmiana, która ma swojego autora

Tekst ukazał się w Tygodnik Przegląd nr 12 (1367), 16-22.03.2026 Jeśli chcielibyśmy szukać symbolu wielkiej przemiany i sukcesu Polski w ostatnich 30…
Zapisz się, aby otrzymywać nasz newsletter

    Dodaj komentarz

    Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *