Kryzys na rynku kart graficznych stał się faktem. Jak trudny może być ich zakup?

Rynkowy debiut kart graficznych AMD Vega miał zwiastować jeszcze większy wybór wydajnych układów w atrakcyjnych cenach. Abstrahując od tego, że karty przez recenzentów zostały przyjęte z umiarkowanym optymizmem, to… układów AMD Vega w zasadzie nie da się już kupić. Powód? Jest ich kilka, ale znamiennym jest fakt, że najnowsze karty graficzne są łakomym kąskiem dla właścicieli koparek Bitcoinów i innych kryptowalut, co dodatkowo pogłębia niewielką dostępność urządzeń.
Nader skromne zapasy kart graficznych z nowej serii AMD Vega w większości sklepów wyprzedały się na pniu. Rekordy biły sklepy, które całego nakładu urządzeń pozbyły się w przeciągu kilku minut – i to pomimo faktu, że ceny były nawet o kilkadziesiąt euro (!) wyższe, niż sugerowane. W Stanach Zjednoczonych wyprzedały się nawet drogie zestawy złożone z kart AMD Vega i nowych procesorów Ryzen 7, z dopasowanymi do nich płytami głównymi.
Dochodzi do dość absurdalnej sytuacji, w której karty graficzne AMD Vega 64, pomimo mniejszej wydajności i dużo większego zapotrzebowania na energię, są droższe o kilkadziesiąt euro, niż… GeForce GTX 1080 Ti! Pragnę w tym miejscu przypomnieć, że według testów, AMD Vega 64 wydajnością może się równać co najwyżej ze zwykłym GeForce GTX 1080…Niestety, wkrótce powody do niezadowolenia będą miały także osoby, które zdecydują się odłożyć nieco grosza na kartę graficzną marki Nvidia. Tylko w tym miesiącu, ceny kości pamięci produkowanych przez firmy Samsung i SK Hynix wzrosły o… 31%! Firma Samsung zaopatruje 55% rynku pamięci VRAM, podczas gdy SK Hynix odpowiada za 35% segmentu. Jak to się przełoży na cenę kart graficznych – dopowiedzcie sobie sami. Pamiętajcie żeby wziąć pod uwagę jeszcze jeden „detal”.Dostępność konsumenckich układów graficznych na rynku jest relatywnie niska (i nie mówię tu jedynie o kartach AMD Vega). Pomimo tego, fabryki Samsunga i SK Hynix przerzucają się na produkcję serwerowych pamięci RAM – tą bowiem podwojono kosztem pamięci dla kart graficznych. Z tego po prostu nie może wyniknąć nic dobrego – przynajmniej z perspektywy graczy planujących zakup wymarzonej karty graficznej.
 

Źródło: inf. własna, Guru3D