Nowe wyzwania w systemach głębokiego uczenia
Zespół badaczy z Uniwersytetu Alberty, specjalizujących się w sztucznej inteligencji i informatyce, odkrył, że obecne sztuczne sieci wykorzystywane w systemach głębokiego uczenia tracą zdolność do nauki podczas długotrwałego trenowania na nowych danych. W swoim badaniu, opublikowanym w czasopiśmie „Nature”, naukowcy zidentyfikowali sposób na przezwyciężenie tych problemów dzięki plastyczności zarówno w nadzorowanych, jak i wzmocnionych systemach uczenia maszynowego, co umożliwia im kontynuowanie procesu nauki.
Popularność sztucznej inteligencji i jej ograniczenia
W ostatnich latach systemy sztucznej inteligencji stały się powszechne. Wśród nich znajdują się duże modele językowe (LLM), które generują inteligentne odpowiedzi za pośrednictwem chatbotów. Jednak ich słabym punktem jest brak zdolności do dalszej nauki w trakcie użytkowania, co ogranicza możliwość poprawy dokładności działania wraz z upływem czasu. Ponadto, nie są w stanie zwiększyć swojej inteligencji poprzez trenowanie na nowych zestawach danych.
Zjawisko katastrofalnego zapominania
Badacze przetestowali zdolność konwencjonalnych sieci neuronowych do dalszej nauki po zakończeniu treningu na pierwotnych zestawach danych. Odkryto zjawisko określane jako katastrofalne zapominanie, w którym system traci zdolność do wykonywania zadania, które był w stanie realizować przed treningiem na nowym materiale.
Logika utraty zdolności uczenia się
Ten rezultat wydaje się logiczny, biorąc pod uwagę, że LLM zostały zaprojektowane jako systemy uczące się sekwencyjnie, oparte na trenowaniu na stałych zestawach danych. Podczas testów zespół badawczy zauważył, że systemy tracą również zdolność do nauki, jeśli są trenowane sekwencyjnie na wielu zadaniach. Ten problem został opisany jako utrata plastyczności.
Resetowanie wag jako rozwiązanie
Rozwiązaniem, jakie zaproponowali badacze, jest resetowanie wag, które wcześniej były powiązane z węzłami w sieci neuronowej. W systemach sztucznych sieci neuronowych wagi służą jako miara siły połączeń między węzłami. Wagi te mogą zyskiwać lub tracić na sile w wyniku sygnałów przesyłanych między węzłami, które są efektem obliczeń matematycznych. Gdy waga wzrasta, rośnie także znaczenie informacji, którą przekazuje.
Nowe podejście do treningu sieci neuronowych
Badacze sugerują, że resetowanie wag pomiędzy sesjami treningowymi za pomocą tych samych metod, które były używane do inicjalizacji systemu, może pozwolić na utrzymanie plastyczności w systemie. Dzięki temu sztuczna inteligencja mogłaby kontynuować proces nauki na dodatkowych zestawach danych treningowych, co stanowiłoby rozwiązanie problemu utraty zdolności do nauki.