Free songs
header_good

Nowe modele AI od Google

Cel udostępnienia modeli Gemini

Udostępnienie tych wersji Gemini ma na celu pokazanie, jak prace nad AI Google pomagają firmom tworzyć „atrakcyjne” agenty AI i rozwiązania. Podczas konferencji prasowej, CEO Google Cloud Thomas Kurian podkreślił, że firma odnotowuje „niesamowity impuls” w swoich wysiłkach związanych z generatywną sztuczną inteligencją. Firmy takie jak Accenture, Airbus, Anthropic, Box, Broadcom, Cognizant, Confluent, Databricks, Deloitte, Equifax, Estée Lauder Companies, Ford, GitLab, GM, Golden State Warriors, Goldman Sachs, Hugging Face, IHG Hotels and Resorts, Lufthansa Group, Moody’s, Samsung i inne budują swoje rozwiązania na platformie Google. Kurian przypisuje ten wzrost adopcji możliwościom modeli Google i platformie Vertex, zapowiadając szybkie wprowadzenie nowych funkcji na obu poziomach.


Nowe funkcje modelu Gemini

Google wprowadza także nowe funkcje modelu, takie jak caching kontekstu i zapewniona przepustowość, które mają na celu poprawę doświadczeń deweloperów.


Charakterystyka Gemini 1.5 Flash

Gemini 1.5 Flash oferuje deweloperom niskie opóźnienia, przystępne ceny i okno kontekstowe odpowiednie do wykorzystania w agentach czatu, przetwarzaniu dokumentów oraz botach zdolnych do syntezowania całych repozytoriów. Google twierdzi, że Gemini 1.5 Flash jest średnio o 40 procent szybszy niż GPT-3.5 Turbo przy wprowadzeniu 10 000 znaków i ma cztery razy niższą cenę wejścia niż model OpenAI, z cachingiem kontekstu dla wejść większych niż 32 000 znaków.


Charakterystyka Gemini 1.5 Pro

Gemini 1.5 Pro posiada znacznie większe okno kontekstowe. Z pojemnością dwóch milionów tokenów, może przetwarzać i analizować więcej tekstu przed wygenerowaniem odpowiedzi niż jakikolwiek inny model AI. Kurian wyjaśnia, że dwa miliony tokenów oznaczają, że model może zrozumieć dwie godziny wideo w wysokiej rozdzielczości jako całość, bez konieczności dzielenia go na części. Może także przetwarzać cały dzień audio, jedną lub dwie godziny wideo, ponad 60 000 linii kodu i ponad 1,5 miliona słów. Wiele firm znajduje ogromną wartość w tych możliwościach.


Caching kontekstu dla modeli Gemini

Aby pomóc deweloperom w wykorzystaniu różnych okien kontekstowych Gemini, Google wprowadza caching kontekstu w publicznym podglądzie zarówno dla Gemini 1.5 Pro, jak i Flash. Funkcja ta pozwala modelom przechowywać i ponownie używać informacji, które już posiadają, bez konieczności ponownego obliczania wszystkiego od zera przy każdym żądaniu. Jest to przydatne w długich rozmowach lub dokumentach i obniża koszty obliczeniowe deweloperów, zmniejszając koszty wejściowe nawet o 75 procent.


Zapewniona przepustowość dla modeli Gemini

Z zapewnioną przepustowością deweloperzy mogą lepiej skalować swoje użycie modeli Gemini. Funkcja ta określa, ile zapytań lub tekstów model może przetworzyć w określonym czasie. Kurian wyjaśnia, że zapewniona przepustowość pozwala zarezerwować zdolność przetwarzania dla klientów, co jest szczególnie przydatne przy dużych wydarzeniach lub wzrostach liczby użytkowników, zapewniając stabilność i niezawodność podczas produkcji.



RSS
Follow by Email
LinkedIn
LinkedIn
Share
YouTube
Instagram
Tiktok
WhatsApp
Copy link
URL has been copied successfully!