W erze, gdy sztuczna inteligencja staje się polem bitwy supermocarstw, chińska firma DeepSeek niespodziewanie wkroczyła na scenę jako poważny konkurent dla Google DeepMind. W grudniu 2025 roku DeepSeek ogłosiło model V3.2-Speciale, który, zdaniem twórców, dorównuje Gemini 3 Pro w zadaniach wymagających rozumowania, a nawet bije rekordy na prestiżowych olimpiadach matematycznych i informatycznych. To symboliczny cios w dominację amerykańskiej technologii, mimo sankcji na chipy.
DeepSeek, założona w 2023 roku w Hangzhou przez Liang Wenfenga, to nie typowy startup a la te z Doliny Krzemowej. 40-letni inżynier z Zhejiang University, wcześniej kwantowy trader (specjalista wykorzystujący zaawansowane modele matematyczne, statystykę, algorytmy i programowanie do automatycznego handlu na rynkach finansowych), zbudował firmę na bazie swojego funduszu hedgingowego High-Flyer, który zarządza dziesiątkami miliardów juanów. Bez zewnętrznych inwestorów, Liang skupił się na „eksploracji istoty inteligencji” – tanich, otwartych modelach AI. Efekt? DeepSeek-V3, R1 z stycznia 2025 i najnowszy V3.2-Speciale, trenowane na starszych chipach Nvidia (H800 zamiast H100), kosztem ułamka tego, co wydają giganci. Model R1, open-source’owy, wstrząsnął rynkiem: bije GPT-4o w rozumowaniu, kodowaniu i matematyce, a koszt treningu? Mniej niż 6 milionów dolarów.
CZYTAJ TEŻ: Halucynacje AI – niebezpieczne lustro technologicznej wygody
Sukces DeepSeek to mieszanka inżynierii i geopolityki. Firma stosuje architekturę Mixture-of-Experts (MoE) z 671 miliardami parametrów (aktywne tylko 37 mld na token), skalowalny RL (reinforcement learning) bez ludzkiego feedbacku oraz Sparse Attention dla długiego kontekstu. V3.2-Speciale zdobył złoto na IMO 2025 (35/42 punkty), 10. miejsce na IOI i 96% na AIME – wyniki porównywalne z wewnętrznymi modelami OpenAI i Google. W benchmarkach jak GPQA czy Codeforces dorównuje lub przewyższa Gemini 3 Pro. A wszystko open-weight na Hugging Face, z API tańszym o rzędy wielkości.
Z drugiej strony DeepMind i jego perła: Alphabet – założona w 2010 przez Demisa Hassabisa. To laboratorium, które dało światu AlphaGo, AlphaFold i serię Gemini. Najnowszy Gemini 3 (listopad 2025) z trybem Deep Think to multimodalny potwór: tekst, obraz, wideo, audio, kontekst do 2 milionów tokenów. W lutym 2026 Google ulepszyło Deep Think dla zadań naukowych i inżynieryjnych – PhD-level math, symulacje, agentyczne workflow. Gemini 3 Pro bije rywali w 19 z 20 benchmarków, w tym Humanity’s Last Exam (41% vs 31% GPT-5). Integracja z ekosystemem Google (Search, YouTube, Android) czyni go wszechobecnym.
Porównanie? DeepSeek wygrywa w czystym rozumowaniu i cenie. R1 przewyższa Gemini 2.0 Flash w testach kodowania (LMArena 1368) i matematyce, a V3.2 bije na IMO. Chińczycy podkreślają efektywność: 20-krotnie tańsze niż o1 OpenAI. Gemini kontruje multimodalnością – generuje wideo, analizuje obrazy – i skalą: dłuższy kontekst, lepsze tool-calling. W testach jak BIG-Bench Extra Hard o3-mini (OpenAI) bije R1, ale DeepSeek dominuje w bilingualnych zadaniach medycznych czy agentycznych.
Wywołuje to skrajne reakcje. Demis Hassabis w lutym 2025 nazwał DeepSeek „najlepszą pracą z Chin” – „imponująca inżynieria”, ale „bez nowej nauki”. Twierdzi, że koszty są „przesadzone”, a Google ma „lepsze, bardziej efektywne modele”. Rynek także zareagował. Akcje Nvidia spadły o miliardy, bo DeepSeek udowodnił, że sankcje nie zabijają chińskiego AI. Liang Wenfeng, wart 11,5 mld dolarów, stał się symbolem chińskiego „Sputnika w AI”.
To nowa era konkurencji i szachy 5-D. USA kontrolują chipy (CHIPS Act, eksportowe embargo), a Chiny – dane i inżynierów. DeepSeek pokazuje, że open-source i RL mogą zrównoważyć dysproporcje. Google inwestuje miliardy w infrastrukturę, ale DeepSeek skutecznie obniża bariery: każdy deweloper może pobrać model. W 2026 roku walka przenosi się do aren agentów, multimodali i AGI. Hassabis widzi AGI już za 3-5 lat; a DeepSeek tańszą drogę do osiągniecia tego.
Pytanie też jak to, jako Polska, wykorzystamy. Dla Polski to z jednej strony szansa na dywersyfikację, bo chińskie modele mogą obniżyć koszty w edtech, medtech czy cyberbezpieczeństwie, ale istnieje ryzyko cenzury i kwestii danych oraz ich wycieku. Google oferuje stabilność i etykę. Wybór? Jednak dla Polski to wcale nie dylemat „albo-albo”, lecz szansa na własną, suwerenną ścieżkę w globalnej szachownicy AI. Polska buduje własną „broń” (lub tylko narzędzie, bo każde narzędzie może być bronią): modele Bielik i PLLuM, które łączą lokalną precyzję z otwartą architekturą.
Bielik, flagowy open-source’owy LLM od Fundacji SpeakLeash (współtworzony z AGH Cyfronet), to już nie niszowa ciekawostka. Wersja v3 z stycznia 2026 – 11 mld parametrów – zajęła 4. miejsce w EuroEval wśród modeli bazowych, wyprzedzając Llama 3.1 Meta (8B) czy Nemotron Nvidia (30B). Trenowany na 292 mld tokenów polskich danych, bije rywali w rozumieniu kontekstu kulturowego: od „kluski śląskiej” po „Seksmisję”. Zintegrowany z apką InPost („Nakarm Bielika” – crowdsourcing danych od 15 mln użytkowników), działa lokalnie, bez chmury Big Tech. Małe warianty (1,5B i 4,5B) są idealne dla firm: tanie, szybkie, zgodne z GDPR.
PLLuM (Polish Large Language Model), rządowy projekt konsorcjum HIVE AI (NASK, Politechnika Wrocławska, IPI PAN), wystartował w lutym 2025 jako rodzina modeli 8-70B. Dostosowany do języka urzędowego, terminologii prawnej i administracyjnej, trafił już do mObywatela i EZD RP. Nowe wersje (lipiec 2025) – z 18 mld tokenów – wspierają RAG (warstwy AI ograniczające halucynacje modeli LLM) w urzędach, redukując biurokrację. Jest otwarty, na Hugging Face (społeczność współtwórców AI), z naciskiem na bezpieczeństwo (AI Act compliant).
Te modele to polska odpowiedź na globalną rywalizację. Może W benchmarkach ONERULER polski język bije angielski i chiński w długim kontekście (88% vs 84% dla en), dzięki morfologii. Możliwy mix narzędzi dla biznesu w Polsce może zawierać: Bielika w workflow’ach po polsku, PLLuM-a w sektorze publicznym, a dla deweloperów – hybrydę: DeepSeek do ciężkich obliczeń, Google do multimodali, a polskie modele do danych wrażliwych (zdrowie, finanse, edukacja).
Suwerenność cyfrowa nie oznacza izolacji – to ekosystem, gdzie Bielik i PLLuM obniżają koszty o 50-70% w porównaniu do zagranicznych, minimalizując ryzyka.
W 2026 Polska nie jest konsumentem AI, lecz jego twórcą. Chińskie AI zmienia reguły, za to polskie AI je lokalizuje. Być może to już czas na „AI made in Poland” w pełnej krasie, a może nadal przeważać będzie siła marketingu, ale jedno pewne: chińskie AI już nie jest tylko kopią, i to kopią kopiącą po kostkach – to rywal, który zmienia reguły gry.
CZYTAJ TEŻ: Królewski: Przewaga w AI sama się nie zrobi

