Suwerenność AI stanowi bardzo ważną część szerszego pojęcia suwerenności cyfrowej. Alternatywą dla niej jest we współczesnym świecie rola cyfrowej kolonii.
Suwerenność AI można określić jako zdolność państw do samodzielnego projektowania, wdrażania i kontrolowania systemów sztucznej inteligencji w sposób zgodny z ich wartościami, przepisami i interesami strategicznymi. Jej zakres obejmuje:
- niezależność technologiczną (np. lokalne centra danych, chipy).
- bezpieczeństwo danych (ochrona przed zagranicznym nadzorem).
- etyczne ramy rozwoju AI dostosowane do lokalnych norm.
Suwerenność to sprawczość
Podczas jednego z paneli dyskusyjnych zorganizowanych w HPE AI House podczas Forum w Davos w styczniu 2025, dyskusja z udziałem m.in. ministra Dariusza Standerskiego (Ministerstwo Cyfryzacji RP) dotyczyła trzech aspektów suwerenności AI: jej definicji, wpływu na konkurencyjność, bezpieczeństwo oraz R&D poszczególnych państw a także szeroko pojętej infrastruktury niezbędnej do jej osiągnięcia.
Czym jest i jakie ma znaczenie suwerenność AI, Dariusz Standerski opisał na przykładzie jednej z ostatnich, głośnych decyzji administracji ustępującego prezydenta Joe Bidena. Dotyczyła ona podzielenia światowego rynku na trzy strefy reglamentacji dostępu do nowoczesnych podzespołów niezbędnych do rozwijania sztucznej inteligencji. Nowoczesne chipy miały być na podstawie rozporządzenia dostarczane w sposób nieograniczony do 18 krajów-sojuszników. Do krajów drugiej kategorii, w tym Polski, dostawy chipów miały być limitowane w sposób uniemożliwiający rozwój silnego AI. W trzeciej grupie znalazły się kraje z zakazem sprzedaży chipów AI z powodów politycznych i geostrategicznych. Dlaczego ta decyzja, bez jasnego przedstawienia klasyfikacji, mogła zostać podjęta? Ponieważ amerykański prawodawca mógł sobie na to pozwolić. W ocenie Dariusza Standerskiego to zarazem przejaw źle rozumianej suwerenności AI – jako zdolności do narzucania reguł pozostałym krajom, bez konieczności ich uzasadnienia. Jest to zarazem, jak podkreślał, ostatni dzwonek dla Unii Europejskiej, aby od rozwijania legislacji przejść do realizacji ambitnych inwestycji w obszarze AI.

Jako przykład takiej wizji przytoczył budowaną polską strategię AI, której celem jest m.in. podwojenie mocy obliczeniowej w 2025 r ale także udział w europejskiej sieci Fabryk AI. W pierwszej fali programu EuroHPC wybrano 7 podmiotów do utrzymania superkomputerów zoptymalizowanych pod kątem AI; Polska włączyła się do konsorcjum wokół fińskiego ośrodka LUMI AI. W planach jest jednak krajowa fabryka AI, która powstanie w Akademickim Centrum Komputerowym Cyfronet AGH. W ślad za nią powstać mają dwie kolejne. To strategia budowy suwerenności AI w skali europejskiej: nie w oparciu o pojedyncze potężne ośrodki na wzór amerykańskiego El Capitan, od listopada ub. roku pozostającego na czele listy 500 największych superkomputerów, ale sieć współpracy wielu ośrodków. Kluczowym wyzwaniem jest właściwy podział specjalizacji tych ośrodków oraz ich połączenie.
Jednym z celów suwerenności AI jest ochrona, rozwój i rozporządzanie kapitałem ludzkim, talentami i umiejętnościami do budowy i wdrażania rozwiązań opartych na sztucznej inteligencji w całym spektrum zastosowań. Bez fundamentu suwerennej AI – talenty odpływać będą na inne rynki, przede wszystkim amerykański, gdzie będą miały właściwą przestrzeń do wykorzystania swoich umiejętności. Jak podkreślił Dariusz Standerski, niezbędne jest zatem umożliwienie podmiotom gospodarczym otwarcie na inwestycje w innowacje AI; przede wszystkim przez dostarczenie wiedzy o pragmatycznych, efektywnych sposobach wykorzystania w biznesie. To zablokuje inwestycje firm i przez to zatrzyma – dzięki interesującym wyzwaniom – rodzime talenty AI.
Suwerenność AI oddziałuje wielowymiarowo
Podczas dyskusji w AI House na Forum w Davos Dariusz Standerski podkreślał także, iż suwerenna AI jest niezbędna do ochrony infrastruktury krytycznej (np. energetyka, służba zdrowia) przed cyberatakami i manipulacjami. Systemy AI w obronności muszą działać w odizolowanych środowiskach (tzw. air-gapped), aby uniknąć zależności od zagranicznych dostawców chmury.
Phil Mottram (HPE) wskazywał, że skala inwestycji niezbędna do budowy suwerennej AI wymaga współpracy rządów z firmami (np. HPE, NVIDIA) w budowie lokalnej infrastruktury obliczeniowej. Jako przykład służyć może niemiecki projekt “Sovereign Cloud”, w ramach którego państwo współfinansuje centra danych z gwarancją niemieckiej jurysdykcji.
Suwerenna AI będzie także służyć likwidacji nierówności poprzez zapewnienie np. narzędzia AI dla szkół, startupów czy administracji, podkreślał inny uczestnik tej dyskusji, Kiril Evtimov CTO w G42; przestrzegał jednak przed protekcjonizmem: “Nadmierna regulacja może zahamować innowacje”.
Antonio Neri, CEO HPE wskazał z kolei w swoim artykule priorytety dla odpowiedzialnej i suwerennej AI. Organizacje muszą ocenić, czy sztuczna inteligencja jest najbardziej wydajnym narzędziem do wykonania zadania, zapewniając, że jest etyczna, bezpieczna i przyjazna dla środowiska, aby zminimalizować ryzyko i zużycie energii. Na każdym etapie życia sztucznej inteligencji powinno mieć miejsce dążenie do poprawy wydajności, od wyboru danych, po szkolenie i wdrażanie. Ma to przełożenie na zużycie energii i pozwoli zmniejszyć wpływ na środowisko. Rządy, branże i innowatorzy muszą współpracować w tych kwestiach ściśle.
Suwerenność AI to nie tylko technologia, ale także element geopolityki. Jak podsumował Kirk Bresniker (HPE Labs): “AI to nowa przestrzeń rywalizacji – kto kontroluje dane i algorytmy, ten kształtuje przyszłość”. Dla Polski oznacza to pilną potrzebę inwestycji w kompetencje i infrastrukturę, aby uniknąć statusu “cyfrowej kolonii”.
Suwerenność AI oznacza bezpieczeństwo
Szczególnie istotny w obecnych warunkach aspekt suwerenności AI dotyczy wpływu na współczesne bezpieczeństwo obronne. Jest więc przede wszystkim elementem zapewnienia kontroli nad infrastrukturą krytyczną. Odizolowane systemy AI zmniejszają ryzyko cyberataków na wojskowe sieci dowodzenia czy systemy logistyczne. Np. środowiska air-gripped uniemożliwiają ingerencję zewnętrznych podmiotów w algorytmy sterujące dronami bojowymi lub analizą danych satelitarnych.
Suwerenna AI umożliwia rozwój własnych dronów i robotów bojowych, działających bez stałego nadzoru człowieka. Wymaga to zarazem pełnej kontroli nad ich oprogramowaniem i łańcuchem dostaw podzespołów. Bez tego zależność od zagranicznych chipsetów (np. NVIDIA) może pozwolić producentom na zdalną dezaktywację sprzętu w czasie konfliktu.
Algorytmy AI wykrywają i neutralizują ataki na systemy wojskowe zdecydowanie szybciej niż tradycyjne metody, ale tylko jeśli opierają się na lokalnym przetwarzaniu danych. Przetwarzanie chmurowe to jedna z głównych składowych zależności Europy od zagranicznych dostawców (np. AWS, Azure). W kontekście obronności tworzy to potencjalnie luki, ponieważ dane np. dotyczące szkoleń wojskowych czy projektów uzbrojenia mogą być dostępne dla konkurencyjnych mocarstw. Rozwiązaniem mogłyby być narodowe chmury obliczeniowe z fizyczną lokalizacją na terytorium danego kraju.
Podniesienie bezpieczeństwa obronnego w oparciu o AI powinno być promowane i wprowadzane przy pomocy programów typu “AI dla obronności” na uczelniach technicznych.
Oczywistym jest wymóg certyfikacji sprzętu i oprogramowania, stosowania komponentów z audytowanych źródeł ale i częsta certyfikacja np. stosowanych modeli LLM.
Suwerenność AI to “warunek przetrwania w erze hybrydowych konfliktów”. Bez kontroli nad algorytmami i danymi państwa tracą zdolność do obrony przed nowymi zagrożeniami – od dezinformacji AI po cyberataki na infrastrukturę krytyczną. Kluczowa jest synergia między wojskiem, instytutami badawczymi i firmami technologicznymi.
Quo vadis, Europo?
Suwerenność AI jest katalizatorem ważnych zmian w polityce gospodarczej. Artykuł Tessel van Oirsouw, badaczki z Allen Lab for Democracy Renovation z Ash Center na Harvardzie, zatytułowany “AI, Digital Sovereignty, and the EU’s Path Forward: A Case for Mission-Oriented Industrial Policy“, omawia kluczowe wyzwania i strategie związane z budowaniem suwerenności cyfrowej UE w kontekście sztucznej inteligencji.
Suwerenność cyfrowa oznacza zdolność UE do samodzielnego projektowania, rozwijania i kontrolowania technologii cyfrowych, takich jak AI, bez zależności od zagranicznych dostawców. Jest to odpowiedź na dominację globalnych gigantów technologicznych (np. Google, Microsoft) oraz rosnące wpływy Chin i USA w tej dziedzinie.
Najważniejsze cele UE w zakresie suwerenności AI dotyczą ochrony danych i prywatności poprzez rozwój systemów zgodnych z europejskimi regulacjami, takimi jak ochrona danych osobowych (np. GDPR), a także zmniejszenie zależności od zagranicznych dostawców technologii poprzez inwestycje w lokalne rozwiązania i etyczne wykorzystanie AI, w ramach regulacji sprzyjających odpowiedzialnym i transparentnym rozwiązaniom sztucznej inteligencji.
Skalę trudności tej próby najlepiej obrazuje dzisiejsza nieomal absolutna dominacja wspomnianych globalnych gigantów technologicznych w zakresie AI. Rynek ten jest podzielony w większości przez firmy spoza UE, takie jak OpenAI, Microsoft czy Google. Posiadają one dostęp do ogromnych zasobów danych i kapitału. Uzależnienie od tych korporacji oznacza ryzyko transferu strategicznych danych poza jurysdykcję UE oraz ograniczenia możliwości rozwoju europejskich i krajowych graczy.
Ewentualna konsolidacja środków i zasobów w skali Europy jest trudna ze względu na brak spójności między państwami członkowskimi w zakresie regulacji i inwestycji, co nie ułatwia budowy wspólnego rynku dla technologii AI. Łączy się z tym brak adekwatnych do potrzeb i tempa globalnego wyścigu nakładów na badania i rozwój. Pod tym względem Unia Europejska pozostaje daleko z tyłu za Stanami Zjednoczonymi i Chinami, które hojnie finansują – w sektorze publicznym i prywatnym – badania nad AI oraz wdrażanie opartych na niej innowacji.
Możliwym sposobem na wyjście z impasu jest obranie podejścia opartego na misji (“mission-oriented industrial policy”), a więc realizacji konkretnych celów społecznych i gospodarczych poprzez koordynację działań publicznych i prywatnych. To nowe podejście, będące przeciwieństwem dotychczasowych strategii rozwoju sektorów lub technologii. Pozwoli ono na współpracę międzysektorową ale także zaangażowanie interesariuszy – obywateli i start-upów. W kontekście AI przejawem takiego myślenia i działania są np. publiczne inwestycje w infrastrukturę cyfrową, jak budowa europejskich centrów danych oraz rozwój chmur obliczeniowych zgodnych z zasadami suwerenności cyfrowej (projekt GAIA-X). Innym obszarem jest wsparcie dla lokalnych startupów technologicznych poprzez ułatwienia finansowe i prawne dla europejskich firm rozwijających AI.
Elementem suwerenności AI ma być dobrze skonstruowane, sprawiedliwe i skuteczne prawo. UE przyjęła podejście regulacyjne oparte na ryzyku. Opiera się na nim AI Act, który klasyfikuje systemy AI według poziomu ryzyka (od “niedopuszczalnego” po “niskie”). Zakazuje on systemów AI stwarzających “niedopuszczalne ryzyko” (np. scoring społeczny), wprowadza wymogi zgodności dla systemów wysokiego ryzyka (np. audyty i certyfikacja) i promuje transparentność w aplikacjach niskiego ryzyka (np. chatboty).
AI Act jest częścią szerszej strategii UE i wyrazem jej ambicji do ustanowienie globalnego standardu w zakresie etycznego wykorzystania AI. Uzyskanie suwerenności AI wymaga jednak więcej. Przede wszystkim zwiększenia finansowania badań nad AI, publiczne wsparcie dla projektów badawczych oraz współpraca z sektorem prywatnym. Ponadto – budowy wspólnych, pan-europejskich platform danych w oparciu o infrastrukturę zapewniającą bezpieczne przechowywanie i wymianę danych w ramach UE. Europa musi zarazem otwierać się na współpracę, promować interoperacyjność z innymi regionami, takimi jak, przede wszystkim, Stany Zjednoczone.