Wyścig Google z Nvidią w dziedzinie superkomputerów AI

Google pochwaliło się wczoraj publicznie swoim superkomputerem bazującym na sztucznej inteligencji, mówiąc, że jest szybszy i wydajniejszy niż konkurencyjne systemy Nvidia.

Nvidia dominuje na rynku szkolenia i wdrażania modeli AI, Google od 2016 roku projektuje i wdraża chipy AI zwane Tensor Processing Units lub TPU.

Gigant kierowany przez Sundara Pichaia jest głównym pionierem sztucznej inteligencji. Jego pracownicy, w ostatniej dekadzie opracowali niektóre z najważniejszych osiągnięć w tej dziedzinie. Jednak niektórzy uważają, że pozostaje w tyle pod względem komercjalizacji swoich wynalazków.

Modele i produkty sztucznej inteligencji, takie jak Google Bard czy OpenAI ChatGPT, wymagają setek lub tysięcy układów współpracujących ze sobą w celu szkolenia modeli.

Google poinformował właśnie, że zbudował system z ponad 4000 TPU połączonymi z niestandardowymi komponentami zaprojektowanymi do uruchamiania i trenowania modeli AI. Superkomputer oparty na TPU, zwany TPU v4, jest „1,2–1,7 razy szybszy i zużywa 1,3–1,9 razy mniej energii niż Nvidia A100” — napisali inżynierowie Google w komunikacie.

„Wydajność, skalowalność i dostępność sprawiają, że superkomputery TPU v4 są końmi roboczymi dużych modeli językowych” – kontynuują naukowcy.

Osiągnięcia Google dotyczące TPU nie zostały jednak porównane z najnowszym układem Nvidia AI. H100, ponieważ jest nowszy i został wykonany przy użyciu bardziej zaawansowanej technologii produkcyjnej.

Wyniki i rankingi z branżowego testu chipów AI o nazwie MLperf zostały opublikowane w środę. Dyrektor generalny Nvidii, Jensen Huang, powiedział, że wyniki najnowszego chipa Nvidii, H100, były znacznie szybsze niż w przypadku poprzedniej generacji.

Wymagania dotyczące zasilania AI są również dobrodziejstwem dla dostawców usług w chmurze, takich jak Google, Microsoft i Amazon.

Czytaj także: Superkomputer Andromeda z AI dostępny w USA