Wyścig Google z Nvidią w dziedzinie superkomputerów AI
Google pochwaliło się wczoraj publicznie swoim superkomputerem bazującym na sztucznej inteligencji, mówiąc, że jest szybszy i wydajniejszy niż konkurencyjne systemy Nvidia.
Nvidia dominuje na rynku szkolenia i wdrażania modeli AI, Google od 2016 roku projektuje i wdraża chipy AI zwane Tensor Processing Units lub TPU.
Gigant kierowany przez Sundara Pichaia jest głównym pionierem sztucznej inteligencji. Jego pracownicy, w ostatniej dekadzie opracowali niektóre z najważniejszych osiągnięć w tej dziedzinie. Jednak niektórzy uważają, że pozostaje w tyle pod względem komercjalizacji swoich wynalazków.
Modele i produkty sztucznej inteligencji, takie jak Google Bard czy OpenAI ChatGPT, wymagają setek lub tysięcy układów współpracujących ze sobą w celu szkolenia modeli.
Google poinformował właśnie, że zbudował system z ponad 4000 TPU połączonymi z niestandardowymi komponentami zaprojektowanymi do uruchamiania i trenowania modeli AI. Superkomputer oparty na TPU, zwany TPU v4, jest „1,2–1,7 razy szybszy i zużywa 1,3–1,9 razy mniej energii niż Nvidia A100” — napisali inżynierowie Google w komunikacie.
„Wydajność, skalowalność i dostępność sprawiają, że superkomputery TPU v4 są końmi roboczymi dużych modeli językowych” – kontynuują naukowcy.
Osiągnięcia Google dotyczące TPU nie zostały jednak porównane z najnowszym układem Nvidia AI. H100, ponieważ jest nowszy i został wykonany przy użyciu bardziej zaawansowanej technologii produkcyjnej.
Wyniki i rankingi z branżowego testu chipów AI o nazwie MLperf zostały opublikowane w środę. Dyrektor generalny Nvidii, Jensen Huang, powiedział, że wyniki najnowszego chipa Nvidii, H100, były znacznie szybsze niż w przypadku poprzedniej generacji.
Wymagania dotyczące zasilania AI są również dobrodziejstwem dla dostawców usług w chmurze, takich jak Google, Microsoft i Amazon.
Czytaj także: Superkomputer Andromeda z AI dostępny w USA