Jeszcze do niedawna rynek półprzewodników lizał rany po postpandemicznej recesji. Magazyny pękały w szwach, a ceny leciały na łeb na szyję. Dziś sytuacja zmieniła się o 180 stopni, a rozkręcony na dobre boom AI znalazł sobie kolejną “ofiarę”. Tym razem padło na pamięci RAM, których cena wystrzeliła i pociągnęła za sobą zyski i wyceny wielkiej trójki. Dla konsumenta oznacza to jedno: droższe PC, ale dla inwestorów: eldorado.
Tak jak w przypadku chipów mamy do czynienia z bardzo wąskim gronem producentów, tak samo w przypadku pamięci operacyjnej w centrum tego zamieszania stoją trzej giganci, którzy kontrolują niemal 100% światowej produkcji pamięci. To koreańskie SK Hynix i Samsung oraz amerykański Micron.
Dlaczego to właśnie pamięć i jej producenci stali się nagle języczkiem u wagi? Jak nie wiadomo, o co chodzi, to chodzi o pieniądze, a w cyfrowym świecie walutą jest nie dolar czy euro, a przepustowość. Nowoczesne LLM-y to cyfrowe giganty ważące dziesiątki gigabajtów, które muszą być błyskawicznie przesyłane do jednostek obliczeniowych.
(...)
Czym więc jest ten „święty graal” o nazwie HBM? Aby zrozumieć różnicę, musimy spojrzeć na to, jak dane podróżują. Tradycyjna pamięć RAM (obecnie w najnowszej iteracji DDR5) w Twoim komputerze to bardzo szybki kurier na motocyklu. Porusza się szybko, ale może zabrać ze sobą tylko niewielką paczkę naraz. To świetne rozwiązanie do gier (gdyby ceny nie poszły w górę) i systemu Windows.
AI potrzebuje jednak czegoś innego. Pamięć HBM (High Bandwidth Memory) to ogromny pociąg towarowy. Może i nie pędzi tak szybko jak motocykl, ale ciągnie za sobą tysiące wagonów jednocześnie. W dodatku kontenery, które ciągnie są piętrowe - dzięki technologii pionowego układania kości (3D Stacking), inżynierowie stworzyli pamięć o niespotykanie szerokiej „bramie” przesyłowej. Zamiast jednej wąskiej ścieżki mamy tu tysiącpasmową autostradę. Efekt? Podczas gdy topowe DDR5 przesyła dane z prędkością ok. 100 GB/s, najnowsze układy HBM3e osiągają zawrotne 1200 GB/s na jeden stos. To właśnie ta brutalna przepustowość pozwala „karmić” nienasycone procesory AI.
Skoro przepustowość to pieniądz, to mennicą XXI wieku stały się fabryki w Korei i USA. To one decydują o tym, jak szybko rozwija się AI, a rynek wycenia tę władzę na miliardy dolarów. Niekwestionowanym liderem tego wyścigu stał się południowokoreański SK Hynix. Firma, która przez lata żyła nieco w cieniu Samsunga, dostarczając pamięci do naszych laptopów i smartfonów (możecie ich znać chociażby z kości RAM od G.Skill czy Kingston), postawiła wszystko na jedną kartę - rzeczone pamięci HBM (High Bandwidth Memory) i co ważne w czasie, gdy konkurencja spała.
Opłaciło się. Dziś, dzięki partnerstwie z Nvidią to właśnie kości Hynixa napędzają najpotężniejsze akceleratory AI na świecie.
W ostatnim kwartale zysk operacyjny firmy wzrósł o zawrotne 137% rdr, a inwestorzy, widząc w Hynixie głównego beneficjenta boomu, wywindowali kurs akcji o ponad 200% w zaledwie pół roku i aż 330 procent w skali całego roku.
Tuż za nim podążają Amerykanie z Micron Technology. Ich wyniki to dowód na zmianę warty w branży. Jeszcze niedawno kondycja firmy zależała od chimerycznego rynku smartfonów, ale najnowsze raporty (za IV kwartał fiskalny) nie pozostawiają złudzeń: przychody wystrzeliły o 93% rok do roku (do 7,75 mld USD), wyciągając firmę z dołka finansowego.
Kluczowa liczba to jednak przychody z samego segmentu serwerowego, które wzrosły o gigantyczne 152%, detronizując rynek konsumencki. Co więcej, zarząd ogłosił, że ich moce produkcyjne dla najdroższych kości HBM są już całkowicie wyprzedane.
Giełda zareagowała na te wieści błyskawicznie - akcje poszybowały w górę, a dziś Micron wyceniany jest blisko 390 procent wyżej niż przed rokiem.
W tej układance jest jeszcze jeden trzeci gracz - Samsung, który choć początkowo został w tyle za SK Hynix w wyścigu, teraz nadrabia zaległości masą i wolumenem produkcji. Zysk operacyjny ich działu chipów (DS Division) w ostatnim kwartale wzrósł niemal trzykrotnie kwartał do kwartału, wyciągając dywizję z miliardowych strat notowanych jeszcze rok wcześniej. W ostatnim raporcie firma pochwaliła się zyskiem na poziomie 6,45 biliona wonów (ok. 4,7 mld USD).
Wycena w ciągu roku wzrosła z kolei o przeszło 200 procent.
Jeśli jesteście graczami i liczyliście, że obecne wzrosty to tylko chwilowa zadyszka rynku, to tak się nie stanie. W analizach największych banków inwestycyjnych, jak podaje agencja Bloomberga, coraz częściej pada termin „Memory Supercycle”. To rzadkie zjawisko, w którym popyt strukturalnie przewyższa podaż nie przez kwartał, a przez lata.
Skąd więc ten pesymizm dla portfeli konsumentów? Tu wracamy do brutalnej fizyki produkcji. Wyprodukowanie zaawansowanej pamięci HBM jest znacznie bardziej skomplikowane i „powierzchniożerne” niż w przypadku standardowego RAM-u. Branżowa "zasada kciuka" mówi, że moce przerobowe wafla krzemowego potrzebne do stworzenia 1 GB pamięci HBM, „pożerają” możliwość wyprodukowania aż 3 GB tradycyjnego DDR5. Producenci mają więc prosty wybór: albo produkować masowo tanią pamięć do laptopów, albo przestawić linie na ultradrogą pamięć dla Nvidii. Wybór, patrząc na marże, jest oczywisty.
Widać to zresztą już w działaniach firm i prowadzi do sytuacji wręcz kuriozalnych. Najlepszym przykładem jest tu Samsung, gdzie dział produkcji pamięci zaczął odmawiać priorytetowego kontraktowania kości do smartfonów produkowanych przez… dział mobilny Samsunga.
Analitycy z TrendForce nie pozostawiają złudzeń - czeka nas kolejna fala podwyżek. Prognozy na pierwszą połowę 2026 roku mówią o skokach cen kontraktowych DDR5 nawet o 30-60%, chociaż dotychczasowe wzrosty i tak są już drastyczne.
Co gorsza, rykoszetem dostaje też starszy standard DDR4, ale zamiast tanieć z racji na wymianę generacyjną, również drożeje, bo jest tańszy w zakupie i jeszcze dostępny, ale… nikt już nie chce go produkować. Mechanizmy rynkowe widać tu jak na gołej dłoni.
Jaki jest z tego wniosek dla przeciętnego Kowalskiego? Żyjemy w czasach, w których "dane to nowa ropa", a pamięć RAM stała się tankowcem do ich przewożenia. Dopóki giganci tacy jak Google, Microsoft czy OpenAI będą toczyć wyścig zbrojeń, pompując biliony w infrastrukturę, dopóty my, konsumenci, będziemy płacić swoisty "podatek od AI" przy zakupie każdego laptopa i podzespołu.
Producenci pamięci po chudych latach wreszcie trafili na swoją żyłę złota i nie zamierzają szybko odkręcać kurka z podażą dla rynku konsumenckiego. Zwłaszcza że giganci nie planują zwalniać z tempem inwestycji. Chociażby tylko Meta w najnowszym raporcie finansowym Meta zadeklarowała, że w samym 2026 roku firma planuje wydać na infrastrukturę AI astronomiczną kwotę, między 115 a 135 miliardów dolarów. To niemal podwojenie wydatków z poprzedniego roku.
bankier.pl