Free songs
header_good

AI zużyje mniej energii dzięki nowej technice L-Mul

Nowa technologia redukująca zużycie energii przez AI

Nowa technika może znacząco zmniejszyć zapotrzebowanie na energię w modelach sztucznej inteligencji, redukując zużycie o nawet 95%, przy jednoczesnym zachowaniu jakości działania. Technologia L-Mul, opracowana przez BitEnergy AI, Inc., zastępuje skomplikowane operacje mnożenia zmiennoprzecinkowego prostszymi obliczeniami, wykorzystującymi dodawanie liczb całkowitych.


Wyjaśnienie problemu mnożenia zmiennoprzecinkowego

Mnożenie zmiennoprzecinkowe, znane jako floating-point, jest kluczowym elementem obliczeń w sztucznej inteligencji, ale wymaga dużego zużycia energii. Przykładem jest model ChatGPT, który zużywa 564 MWh energii dziennie, co odpowiada zapotrzebowaniu na prąd 18 tysięcy amerykańskich domów. Przewiduje się, że do 2027 roku branża AI będzie zużywać między 85 a 134 TWh rocznie, co można porównać do zużycia energii w operacjach wydobywania Bitcoinów.


Zasada działania L-Mul

Technologia L-Mul proponuje nowe podejście do obliczeń w modelach AI, zastępując kosztowne energetycznie mnożenie zmiennoprzecinkowe prostszymi operacjami dodawania. To rozwiązanie wymaga mniej zasobów, jednocześnie zapewniając wystarczającą precyzję, co przekłada się na oszczędność energii przy minimalnej utracie dokładności.


Potencjalne oszczędności energii

Badania wskazują, że zastosowanie L-Mul w procesorach tensorowych może zmniejszyć zużycie energii o 95% przy mnożeniu tensorów i o 80% przy iloczynach skalarnych. Oznacza to, że modele AI mogą działać znacznie wydajniej, zużywając jedynie ułamek energii potrzebnej przy tradycyjnych metodach.


Wyniki testów potwierdzają skuteczność

Testy potwierdziły obiecujące możliwości L-Mul, który przewyższa obecne standardy 8-bitowe i oferuje większą precyzję przy mniejszym zużyciu zasobów. Badania wykazały minimalny spadek wydajności, wynoszący średnio 0,07%, co jest znikomym kompromisem w zamian za znaczną oszczędność energii.


Korzyści dla modeli opartych na transformatorach

Modele AI bazujące na transformatorach, takie jak GPT, mogą skorzystać z integracji L-Mul z mechanizmem uwagi, który jest zasobożernym elementem tych systemów. Testy na modelach takich jak Llama czy Mistral wykazały nawet wzrost precyzji w niektórych zadaniach związanych z rozpoznawaniem obrazu.


Operacyjna wydajność L-Mul

W praktyce operacyjnej L-Mul okazuje się bardziej efektywny. Zwykłe mnożenie dwóch liczb w formacie float8 wymaga 325 operacji, podczas gdy L-Mul wykonuje to samo zadanie przy użyciu jedynie 157 operacji, co stanowi mniej niż połowę.


Ograniczenia technologii

Technologia L-Mul ma swoje ograniczenia, ponieważ obecne układy sprzętowe nie są zoptymalizowane do pełnego wykorzystania jej potencjału. Aby w pełni czerpać korzyści z L-Mul, potrzebne będą dedykowane rozwiązania sprzętowe.


Plany na przyszłość

Prace nad specjalistycznym sprzętem wspierającym L-Mul są już w toku. Badacze planują rozwój algorytmów oraz interfejsów API, które pozwolą na łatwiejsze projektowanie modeli, co może przyczynić się do stworzenia nowej generacji energooszczędnych modeli AI.



RSS
Follow by Email
LinkedIn
LinkedIn
Share
YouTube
Instagram
Tiktok
WhatsApp
Copy link