Free songs
header_good

AI będzie się uczyć w nieskończoność

Nowe wyzwania w systemach głębokiego uczenia

Zespół badaczy z Uniwersytetu Alberty, specjalizujących się w sztucznej inteligencji i informatyce, odkrył, że obecne sztuczne sieci wykorzystywane w systemach głębokiego uczenia tracą zdolność do nauki podczas długotrwałego trenowania na nowych danych. W swoim badaniu, opublikowanym w czasopiśmie „Nature”, naukowcy zidentyfikowali sposób na przezwyciężenie tych problemów dzięki plastyczności zarówno w nadzorowanych, jak i wzmocnionych systemach uczenia maszynowego, co umożliwia im kontynuowanie procesu nauki.


Popularność sztucznej inteligencji i jej ograniczenia

W ostatnich latach systemy sztucznej inteligencji stały się powszechne. Wśród nich znajdują się duże modele językowe (LLM), które generują inteligentne odpowiedzi za pośrednictwem chatbotów. Jednak ich słabym punktem jest brak zdolności do dalszej nauki w trakcie użytkowania, co ogranicza możliwość poprawy dokładności działania wraz z upływem czasu. Ponadto, nie są w stanie zwiększyć swojej inteligencji poprzez trenowanie na nowych zestawach danych.


Zjawisko katastrofalnego zapominania

Badacze przetestowali zdolność konwencjonalnych sieci neuronowych do dalszej nauki po zakończeniu treningu na pierwotnych zestawach danych. Odkryto zjawisko określane jako katastrofalne zapominanie, w którym system traci zdolność do wykonywania zadania, które był w stanie realizować przed treningiem na nowym materiale.


Logika utraty zdolności uczenia się

Ten rezultat wydaje się logiczny, biorąc pod uwagę, że LLM zostały zaprojektowane jako systemy uczące się sekwencyjnie, oparte na trenowaniu na stałych zestawach danych. Podczas testów zespół badawczy zauważył, że systemy tracą również zdolność do nauki, jeśli są trenowane sekwencyjnie na wielu zadaniach. Ten problem został opisany jako utrata plastyczności.


Resetowanie wag jako rozwiązanie

Rozwiązaniem, jakie zaproponowali badacze, jest resetowanie wag, które wcześniej były powiązane z węzłami w sieci neuronowej. W systemach sztucznych sieci neuronowych wagi służą jako miara siły połączeń między węzłami. Wagi te mogą zyskiwać lub tracić na sile w wyniku sygnałów przesyłanych między węzłami, które są efektem obliczeń matematycznych. Gdy waga wzrasta, rośnie także znaczenie informacji, którą przekazuje.


Nowe podejście do treningu sieci neuronowych

Badacze sugerują, że resetowanie wag pomiędzy sesjami treningowymi za pomocą tych samych metod, które były używane do inicjalizacji systemu, może pozwolić na utrzymanie plastyczności w systemie. Dzięki temu sztuczna inteligencja mogłaby kontynuować proces nauki na dodatkowych zestawach danych treningowych, co stanowiłoby rozwiązanie problemu utraty zdolności do nauki.


Podsumowując, odkrycia te mogą stanowić znaczący krok w rozwoju bardziej zaawansowanych i elastycznych systemów sztucznej inteligencji, które będą w stanie uczyć się i doskonalić swoje zdolności nawet podczas długotrwałego użytkowania i trenowania na różnych zestawach danych. Tego rodzaju postępy mogą zwiększyć efektywność sztucznej inteligencji i jej zdolność do adaptacji.



RSS
Follow by Email
LinkedIn
LinkedIn
Share
YouTube
Instagram
Tiktok
WhatsApp
Copy link