AI napędza rynek półprzewodników. w 2026 roku rynek pamięci napędzany przez AI ma osiągnąć wartość ponad 550 mld USD (2,2 biliona złotych obecnie). Dla porównania, PKB Polski to ok. 3 bilionów złotych – czyli to ok. 70% całej rocznej produkcji gospodarki Polski. 550 mld USD to również ponad dwa pełne budżety wydatków Polski (wydatki roczne Polski to ok. 850–900 mld zł), około 6 000 myśliwców F‑35 (jeden kosztuje 80–100 mln USD), lub 13 750 Wież Eiffla (jedna kosztowałaby dziś ok. 40 mln USD).

    Sztuczna inteligencja (AI) stała się głównym motorem wzrostu całego sektora półprzewodników. Generative AI, modele wielkoskalowe i masowa inferencja wymagają ogromnych ilości mocy obliczeniowej oraz pamięci o wysokiej przepustowości i pojemności. W efekcie rynek pamięci półprzewodnikowych wchodzi w historyczny supercykl, którego skala przewyższa poprzednie boom’y z lat 2017–2019. Zgodnie z prognozami TrendForce z lutego 2026 roku, globalna wartość rynku pamięci osiągnie w 2026 roku 551,6 mld USD – ponad dwukrotnie więcej niż rynek foundry (produkt kontraktowy), który wyniesie 218,7 mld USD.

    Ta liczba nie jest przypadkowa. W 2025 roku rynek pamięci miał już przekroczyć 235 mld USD (DRAM 165,7 mld + NAND 69,7 mld), a w 2026 DRAM wzrośnie do 404,3 mld USD (+144% r/r), a NAND do 147,3 mld USD (+112% r/r). W 2027 rynek pamięci ma osiągnąć szczyt 842,7 mld USD (+53% r/r). Dla porównania cały rynek półprzewodników według McKinsey może sięgnąć 1,6 bln USD do 2030 roku, przy czym większość wzrostu pochodzi właśnie z leading-edge logic i high-bandwidth memory (HBM).

    Dlaczego AI tak mocno napędza pamięć?

    Tradycyjny cykl pamięci (DRAM + NAND) był cykliczny i zależny od PC, smartfonów oraz serwerów. AI zmieniło reguły gry. Trening dużych modeli wymagał przede wszystkim mocy obliczeniowej (GPU/ASIC), ale masowa inferencja, systemy agentowe i RAG (Retrieval-Augmented Generation) przenoszą ciężar na pamięć: potrzebna jest ogromna przepustowość, niski latency i wysoka pojemność.

    Kluczowym elementem jest High Bandwidth Memory (HBM) – stosowana pamięć DRAM używana w akceleratorach NVIDIA Blackwell, Rubin oraz AMD MI300/MI400. Każdy GPU H100/B200 zużywa kilkaset GB HBM3e/HBM4, a zapotrzebowanie na bit rośnie wykładniczo. TrendForce podkreśla, że przejście z fazy treningu do inferencji zwiększa zapotrzebowanie na DRAM w serwerach nawet kilkukrotnie. Dodatkowo enterprise SSD (w tym QLC) stają się niezbędne do przechowywania wektorowych baz danych i szybkiego dostępu.

    Główni klienci to nie tradycyjni OEM, lecz Cloud Service Providers (CSP) – Google, Microsoft, Amazon, Meta, Oracle. Ich zamówienia są wykładnicze, mniej wrażliwe na cenę i długoterminowe (kontrakty na lata). W efekcie producenci pamięci (SK hynix, Samsung, Micron) mają silną pozycję negocjacyjną – podaż jest ograniczona, ceny rosną rekordowo (Q1 2026: DRAM +90–95% QoQ, NAND +55–60%).

    Porównanie z rynkiem foundry i szerszym kontekstem półprzewodników

    Rynek foundry (TSMC, Samsung Foundry, Intel) też rośnie dzięki AI (układy logiczne, CoWoS, zaawansowane opakowania), ale w 2026 osiągnie „tylko” 218,7 mld USD. Pamięć wyprzedza go ponad 2,5-krotnie, co jest ewenementem. Deloitte przewiduje, że generatywne AI chips dadzą w 2026 roku ok. 500 mld USD przychodu (połowa całego rynku chipów), a pamięć – 200 mld USD (25% całkowitego rynku półprzewodników).

    McKinsey podkreśla, że większość wzrostu semi (do 1,6–1,8 bln USD w 2030) pochodzi z leading-edge nodes i HBM – reszta rynku (mature nodes, standard DRAM/NAND) rośnie wolniej. AI koncentruje wartość u nielicznych graczy: NVIDIA (akceleratory + ekosystem), SK hynix (lider HBM ~50–70% share), TSMC (opakowania).

    Wpływ na gospodarkę i łańcuchy dostaw

    Boom pamięci ma efekty uboczne. Producenci przekierowują wafle z konwencjonalnego DRAM/NAND na HBM (HBM zużywa znacznie więcej powierzchni wafla). W efekcie w 2026 data centers mogą pochłonąć nawet 70% high-end pamięci, co powoduje niedobory w PC, smartfonach i automotive. Ceny DRAM i NAND rosną, podnosząc koszty końcowych urządzeń – smartfony i laptopy mogą drożeć.

    Jednocześnie inwestycje eksplodują: SK hynix buduje nowe fabryki HBM w Korei i USA, Micron w Singapurze i Nowym Jorku, Samsung w Pyeongtaek. SEMI przewiduje wzrost capex na sprzęt HBM o 15% r/r w 2025–2026. SK hynix szacuje, że rynek AI memory (głównie custom HBM) będzie rósł 30% rocznie do 2030, osiągając dziesiątki miliardów dolarów.

    pamięć półprzewodnikowa

    Wyzwania i ryzyka

    Mimo supercyklu pojawiają się ryzyka. Geopolityka (ograniczenia eksportu do Chin), zależności od Tajwanu i Korei, a także ewentualne spowolnienie inwestycji Big Tech mogą wpłynąć na równowagę. Podaż HBM pozostaje wąskim gardłem – nawet przy nowych fabrykach w 2027–2028 popyt może przewyższać podaż. Dodatkowo rosnące ceny mogą spowolnić adopcję AI w mniejszych firmach.

    Przyszłość: supercykl do 2030+

    TrendForce widzi szczyt w 2027 (842,7 mld USD dla pamięci). McKinsey i Deloitte wskazują, że do 2030–2035 rynek AI chipów (w tym memory) może przekroczyć 1 bln USD rocznie. HBM pozostanie kluczowym swing factor – jego CAGR szacuje się na 20–30%. Pamięć staje się strategicznym aktywem w erze AI, podobnie jak ropa w XX wieku.

    Podsumowując, prognoza TrendForce o 551,6 mld USD dla rynku pamięci w 2026 roku to nie tylko liczba – to potwierdzenie, że AI zmieniła strukturę całego łańcucha półprzewodników. Pamięć przestała być „towarem” i stała się kluczowym bottleneckem oraz największym beneficjentem boomu. Firmy, które zainwestowały w HBM, advanced packaging i bliską współpracę z hyperscalerami, wygrywają. Reszta branży musi dostosować się do nowej rzeczywistości, w której inferencja, agent AI i RAG dyktują reguły gry. Rynek półprzewodników napędzany przez AI to już teraźniejszość, w której pamięć króluje.

    CZYTAJ TEŻ: Vibe Coding: Rewolucja w programowaniu i przyczyna wywrócenia stolika z agentami

    CZYTAJ TEŻ: Odkrywanie przyszłości AI: Asia Start – ekspedycja do cyfrowych Chin

    Cały rynek półprzewodników x2

    Według prognozy WSTS globalny rynek półprzewodników zbliża się do wartości 1 bln USD w 2026 r. To ok. 4 bln zł.

    Jak donosi portal siliconanalysts.com, HBM w 2026 r. kosztuje 120–500 USD za stos, a jego cena rośnie wraz z generacją, liczbą warstw i przepustowością. Najnowsze dane pokazują, że HBM3 kosztuje ok. 200 USD za 24 GB, HBM3E ok. 300 USD za 36 GB, a nadchodzący HBM4 ok. 500 USD za 48 GB . Oznacza to koszt 7,5–10,4 USD za 1 GB, czyli kilkaset razy więcej niż zwykły DRAM. SK hynix dominuje z 50–55% udziałem, a Samsung i Micron uzupełniają rynek. W typowych akceleratorach AI pamięć HBM stanowi dziś 30–40% kosztu całego układu, a w modelach takich jak NVIDIA B200 czy AMD MI300X koszt samych stosów HBM przekracza koszt logiki. Rosnące ceny wynikają z trudności produkcyjnych (TSV, 3D stacking, 12–16 warstw), niskich uzysków i chronicznego niedoboru mocy produkcyjnych, co utrzymuje 20–26‑tygodniowe terminy dostaw.

    Dla odniesienia, całe złoto NBP jest warte mniej więcej 8-9% wartości rocznego rynku półprzewodników.

    Porównanie z rynkiem pamięci (TrendForce)

    • Rynek pamięci: ~552 mld USD
    • Złoto NBP: ~80 mld USD

    Złoto NBP to ok. 14–15% wartości globalnego rynku pamięci półprzewodnikowych.

    Porównanie z całym rynkiem półprzewodników

    • Cały rynek półprzewodników: ~900–1000 mld USD (szacunki branżowe)
    • Złoto NBP: ~80 mld USD

    Złoto NBP to ok. 8% wartości całego rynku półprzewodników.

    Globalny rynek złota jest wart około 15-16 bilionów USD

    Dziś, układ pamięci do AI – czyli HBM (High Bandwidth Memory) – kosztuje dziś od 200 do 500 USD za jeden stos (stack). Uncja złota kosztuje ponad 5000 USD.

    Jak widać, w nowoczesności pamięć nie jest cenniejsza niż złoto, ale zaczyna być na wagę złota.