Komputer AI owocem współpracy gigantów
Nvidia poinformowała o rozpoczęciu współpracy z Microsoftem w celu zbudowania „masywnego” komputera do obsługi sztucznej inteligencji przy pracy obliczeniowej w chmurze.
Komputer będzie działał w chmurze Microsoft Azure, wykorzystując dziesiątki tysięcy procesorów graficznych (GPU) Nvidii, najpotężniejszy H100 i nieco mniej wydajne A100. Nvidia odmówiła podania, ile jest warta transakcja, ale źródła branżowe podały, że każdy układ A100 kosztuje około 10 000 do 12 000 USD, a H100 jest znacznie droższy.
„Jesteśmy w tym punkcie zwrotnym, w którym sztuczna inteligencja pojawia się w przedsiębiorstwach, a udostępnianie usług, z których klienci mogą korzystać w jej wdrażania w przypadkach zastosowań biznesowych, staje się realne.” — powiedział Reuterowi Ian Buck, dyrektor generalny Nvidii ds. Hyperscale i HPC. „Widzimy szeroką falę adopcji i potrzebę zastosowania sztucznej inteligencji w przypadkach użycia w przedsiębiorstwach”.
Oprócz sprzedaży chipów, Nvidia zapowiedziała, że będzie współpracować z gigantem oprogramowania i chmury w celu opracowania modeli AI. Buck powiedział, że Nvidia będzie również współtworzyć rozwiązania w chmurze AI firmy Microsoft i opracuje aplikacje AI, aby oferować usługi klientom.
Szybki rozwój modeli sztucznej inteligencji, takich jak te używane do przetwarzania języka naturalnego, gwałtownie zwiększył zapotrzebowanie na szybszą i wydajniejszą infrastrukturę obliczeniową.
Azure będzie pierwszą chmurą publiczną wykorzystującą technologię sieciową Quantum-2 InfiniBand, która ma prędkość 400 gigabitów na sekundę. Ta technologia sieciowa łączy serwery z dużą szybkością. Jest to ważne, ponieważ ciężka praca obliczeniowa AI wymaga współpracy tysięcy układów na kilku serwerach.
Czytaj także: Skok wydajności kart graficznych NVIDIA RTX serii 40