Qwen 3.5 i DeepSeek V4 biją zachodnie benchmarki oraz zyskują ogromną popularność. Qwen ma już setki milionów pobrań. Chińskie modele coraz częściej używane globalnie – szansa i ryzyko dla bezpieczeństwa danych.
W 2026 roku chińskie modele open-source stały się niekwestionowanymi liderami rynku AI. Alibaba Qwen 3.5 oraz nadchodzący DeepSeek V4 nie tylko dorównują, lecz często przewyższają zachodnie odpowiedniki w kluczowych benchmarkach, oferując przy tym pełną otwartość, multimodalność i agentyczne możliwości. Ich popularność rośnie lawinowo. Qwen przekroczył już setki milionów pobrań, co oznacza globalną rewolucję, ale też nowe wyzwania dla bezpieczeństwa danych.
Qwen 3.5 – multimodalny i agentyczny lider od Alibaba
Seria Qwen 3.5 (wydana w lutym/marcu 2026) to rodzina modeli od 0,8B do 397B parametrów (wersje MoE jak 397B-A17B z tylko 17B aktywnych). Model jest natywnie multimodalny – przetwarza tekst, obrazy i wideo w jednym systemie, z kontekstem do 256 tys. tokenów i wsparciem dla 201 języków. Dzięki architekturze Mixture-of-Experts oraz wczesnemu fuzji wizyjno-językowemu małe warianty biją na głowę znacznie większe modele zachodnie.
Przykłady benchmarków:
- GPQA Diamond: Qwen3.5-9B osiąga 81,7 pkt (lepszy niż gpt-oss-120B).
- MMMU-Pro: 70,1 pkt (wyprzedza Gemini 2.5 Flash-Lite).
- HMMT Feb 2025 i Video-MME: dominacja w matematyce i rozumieniu wideo.
- Agentyczne zadania: BFCL v4, BrowseComp i Terminal-Bench – wyniki na poziomie lub powyżej GPT-5 mini i Claude Sonnet 4.5.
Wszystkie modele są open-weight pod licencją Apache 2.0, co umożliwia lokalne wdrożenie, fine-tuning i komercyjne użycie bez opłat. Qwen 3.5 to fundament dla autonomicznych agentów: potrafi czytać UI, generować kod z ręcznych szkiców czy obsługiwać wielogodzinne wideo.
CZYTAJ TEŻ: Sory-END, ale samo dobro? Koniec junk-contentu i video AI slop, a dwie branże odetchnęły z ulgą
CZYTAJ TEŻ: AI do prac domowych szkodzi krytycznemu myśleniu? Raport z marca alarmuje
Popularność jest bezprecedensowa. Rodzina Qwen na Hugging Face przekroczyła 700 milionów pobrań, a same modele 3.5 w marcu 2026 notowały miliony pobrań miesięcznie. Chińskie modele odpowiadają za ponad 50% pobrań na platformie w ostatnim kwartale.
DeepSeek V4 – bilion parametrów na horyzoncie
DeepSeek V4 (planowana premiera w kwietniu 2026) ma być kolejnym przełomem. Model MoE o łącznej liczbie ok. 1 biliona parametrów aktywuje zaledwie 32–37B na token, co zapewnia efektywność porównywalną z mniejszymi modelami. Obsługuje kontekst 1 miliona tokenów, jest natywnie multimodalny (tekst + obraz + wideo) i zoptymalizowany pod kodowanie oraz agentyczne zadania.
Według przecieków i testów wewnętrznych V4 ma celować w 80–81% na SWE-bench, bijąc wiele zachodnich modeli przy ułamku kosztów inferencji. Architektura Engram Memory i wsparcie dla Huawei Ascend czynią go tanim w produkcji i wdrożeniu. To model zaprojektowany do autonomicznego kodowania całych repozytoriów i długoterminowych zadań agentycznych.
Globalna dominacja i szansa dla świata
Chińskie open-source AI nie tylko dominują leaderboardy Hugging Face i OpenRouter, ale też zmieniają rynek. W 2025–2026 modele z Chin wyprzedziły amerykańskie pod względem pobrań i użycia. Deweloperzy na całym świecie wybierają je ze względu na cenę, wydajność i otwartość – lokalne wdrożenie na laptopie lub serwerze bez zależności od API OpenAI czy Anthropic. To szansa dla startupów, firm i krajów rozwijających się: tania, potężna inteligencja dostępna dla wszystkich.
Ryzyko dla bezpieczeństwa danych
Jednak rosnąca popularność niesie poważne zagrożenia. Chińskie prawo (m.in. National Intelligence Law) obliguje firmy do współpracy z władzami w sprawach bezpieczeństwa narodowego. Dane użytkowników przetwarzane przez API (nawet w aplikacjach trzecich) mogą trafiać na serwery w Chinach. Eksperci ostrzegają przed exfiltracją kodu źródłowego, strategii biznesowych czy wrażliwych informacji.
Dodatkowo modele bywają wykorzystywane do tworzenia malware, infostealerów czy omijania zabezpieczeń bankowych. Niektóre rządy (USA, Australia, Włochy) już blokują DeepSeek i Qwen w instytucjach publicznych. Istnieje też ryzyko wbudowanych biasów i cenzury zgodnej z narracją Pekinu.
Szczegóły benchmarków:
Główne benchmarki dla Qwen 3.5 (w tym wersje MoE jak 397B-A17B, 35B-A3B, 27B, 9B itp.)
Rozumowanie i wiedza (STEM / Graduate-level):
- GPQA (lub GPQA Diamond) – do 88.4% (Qwen3.5-397B-A17B), często 84–88% w mniejszych wariantach; bije wiele zachodnich modeli.
- MMLU-Pro – ok. 86–87.8%
- HLE (Humanity’s Last Exam) – do 37.5% (w niektórych wariantach)
- SuperGPQA – ok. 67.4%
Matematyka:
- HMMT Feb 2025 – 99.4% (największe warianty), często 89–97% w średnich
- HMMT Nov 2025 – do 100%
- AIME26 – 91.3% (w MoE 397B)
Multimodalne (obrazy + wideo):
- MMMU – 85–86.7%
- MMMU-Pro – ok. 76.9–79% (mniejsze modele często biją większe zachodnie)
- Video-MME (z/w sub.) – 87.5–88.4% (z audio nawet 89% w Qwen3.5-Omni)
Agentyczne i tool-use:
- BFCL v4 (Berkeley Function Calling Leaderboard) – 66–72.9% (w zależności od wariantu, często na poziomie lub powyżej Claude Sonnet 4.5 / GPT-5 mini)
- TAU2-Bench – do 86.7%
- Inne: BrowseComp, Terminal-Bench, VITA-Bench, DeepPlanning
Kodowanie i inne:
- LiveCodeBench v6 – 83.6–90.7%
- SWE-Bench Verified – w niektórych testach powyżej 70% (szczególnie w wariantach z thinking)
Wszystkie modele Qwen 3.5 są multimodalne (tekst + obraz + wideo), z kontekstem do 256K tokenów i wsparciem dla ponad 200 języków.
DeepSeek V4 (stan na kwiecień 2026)
Model nie został jeszcze oficjalnie wydany w pełnej wersji (oczekiwany w kwietniu 2026). Oczekiwane cechy i przecieki:
- Architektura MoE – ok. 1 bilion (1T) parametrów całkowitych, aktywuje tylko 32–37B na token
- Kontekst: 1 milion tokenów
- Multimodalny (tekst + obraz + wideo)
- Silny nacisk na kodowanie i zadania agentyczne
- Przewidywane wyniki (niepotwierdzone oficjalnie): ~80–81% na SWE-Bench, bardzo wysoki wynik na HumanEval (~90% w leakach)
Aktualnie dostępna jest tylko DeepSeek V4 Lite (ok. 200B parametrów) jako wersja testowa architektury.
Popularność Qwen – liczba pobrań
Qwen ma ponad 200 000 modeli pochodnych (fine-tunów). Cała rodzina Qwen (w tym Qwen 3.5) przekroczyła 700 milionów – 1 miliard pobrań na Hugging Face (dane z stycznia–marca 2026). Chińskie modele odpowiadały za ponad 50% wszystkich pobrań open-source LLM na platformie w ostatnim okresie.
Made in China, ponownie…
Qwen 3.5 i nadchodzący DeepSeek V4 udowadniają, że chińskie open-source AI nie tylko dogoniły Zachód, ale wyprzedziły go w efektywności, multimodalności i dostępności. Setki milionów pobrań Qwen to dowód na globalną zmianę paradygmatu. To ogromna szansa na demokratyzację AI – tańsze, szybsze i bardziej dostępne narzędzia dla milionów deweloperów. Jednocześnie wymaga to świadomości: lokalne wdrożenie minimalizuje ryzyka, ale korzystanie z API chińskich dostawców niesie realne zagrożenia dla bezpieczeństwa danych i suwerenności cyfrowej.
Przyszłość AI jest otwarta …i w dużej mierze chińska.
CZYTAJ TEŻ:

