Etyka AI spotyka się z wojskiem: lekcje z konfliktu Anthropic-Pentagon (i military pivot OpenAI) dla przyszłości odpowiedzialnego rozwoju AI

    W lutym 2026 r. świat sztucznej inteligencji zderzył się z twardą rzeczywistością geopolityki. Firma Anthropic, uznawana za bastion etycznego AI, stanęła w otwartej konfrontacji z Departamentem Wojny USA (dawniej Pentagonem). Spór o kontrakt wart do 200 mln USD ujawnił pęknięcie u samych fundamentów: czy prywatne laboratoria AI mogą narzucać czerwone linie wojskowym zastosowaniom swoich modeli, czy rząd ma prawo żądać „wszelkiego zgodnego z prawem użycia”, skoro w sytuacji wyjątkowej sam dowolnie modeluje i intepretuje wszelkie prawa? Kilka godzin po fiasku negocjacji z Anthropic OpenAI ogłosiło własny „military pivot” – umowę na klasyfikowane wdrożenia w sieciach tajnych, gdzie Claude’a zastąpił GPT. To nie sprawa stricte biznesowa, a lekcja dla całego ekosystemu odpowiedzialnego rozwoju AI.

    Konflikt wybuchł w styczniu-lutym 2026 podczas renegocjacji kontraktu. Anthropic, jako pierwsza firma frontier AI, od 2024 r. dostarczała modele Claude do tajnych sieci DoD (w tym do analizy wywiadowczej, symulacji i cyberoperacji). Jednak umowa miała pewne wyjątki, a Pentagon zażądał ich usunięcia. Te dwa wyjątki, to zakaz masowej inwigilacji krajowej Amerykanów oraz tworzenia w pełni autonomicznej broni (lethal autonomous weapons systems – LAWS) bez człowieka w pętli decyzyjnej – a wielokrotnie do tej pory podnoszono, nawet przez samych wojskowych, że choćby z uwagi na halucynacje AI nigdy nie wolno wyjmować człowieka z procesu decyzyjnego AI, a opłakane możliwe konsekwencje niedowiarki mogły zobaczyć choćby po ostatnich testach AI, gdzie zarządzanie wojskowe oddano „w ręce” AI, które wolały wybrać scenariusz wzajemnego atomowego wyniszczenia, niż każde po części ustąpić i zawrzeć kompromis (kolejny przykład zaskakującej zbieżności AI postępującego jak modelowy rys narcystyczny NPD). Jak widać, dla obecnie dowodzących w USA to bez znaczenia.

    Dario Amodei, CEO Anthropic, odmówił wprost: „These threats do not change our position: we cannot in good conscience accede to their request”. Zagrożeniem biznesowym dla firmy było usunięcie z systemów dostaw, oznaczenie jako ryzyko dla łańcucha dostaw („supply chain risk”), które było dotąd zarezerwowane dla chińskich firm i powołanie Defense Production Act. Mimo to nie zmieniono stanowiska. „We would rather not work with the Pentagon than agree to uses of its tech that may undermine, rather than defend, democratic values” – wolimy nie współpracować z Pentagonem, niż zgodzić się na użycie technologii, które raczej podkopie niż będzie bronić demokratycznych wartości – napisał Amodei w oficjalnym oświadczeniu z 26 lutego 2026.

    CZYTAJ TEŻ: Współpraca Między Rynkami: Chiny i Europa w Erze AI – Szanse i Wyzwania

    CZYTAJ TEŻ: Sztuczna Inteligencja w Chinach: rewolucja napędzana polityką i innowacjami

    Powody? Po pierwsze, dzisiejsze modele nie są wystarczająco niezawodne: „Even today’s most advanced and capable AI systems are simply not reliable enough to power fully autonomous weapons. We will not knowingly provide a product that puts America’s warfighters and civilians at risk”. Po drugie, masowa inwigilacja domowa „constitutes a violation of fundamental rights” i jest sprzeczna z wartościami demokratycznymi.

    To nie był kaprys „liberalnej, elitarnej załogi z San Francisco”, jak sugerował Pentagon. To konsekwencja kultury bezpieczeństwa w Anthropic – unikalnego podejścia Constitutional AI. Tak, unikalnego wśród czołowych big-techów, o czym mogliśmy się przekonać choćby z relacji Frances Haugen, byłej analityczki w Meta, która w 2021 roku ujawniła szereg wewnętrznych dokumentów (tzw. „Facebook Papers”), stając się sygnalistką, albo Sarah Wynn-Williams, byłej dyrektor ds. globalnej polityki publicznej w Meta, która pracowała w firmie przez siedem lat, a w kwietniu 2025 roku złożyła zeznania przed amerykańskim Senatem, oskarżając firmę o manipulowanie reklamami wobec nastolatków, współpracę z Chinami w zakresie cenzury oraz udostępnianie danych użytkowników. Tak, podejście safety-first jest w najnowszych i kluczowych technologiach związanych z wpływem na użytkownika przerażająco rzadkie.

    W tym przypadku model LLM nie polega wyłącznie na RLHF ((Reinforcement Learning from Human Feedback) jak u OpenAI, lecz na wewnętrznym „samokrytycznym” dialogu z pewnymi konstytucjami zasad (m.in. Deklaracja Praw Człowieka ONZ). Firma ma Responsible Scaling Policy i odmawia wypuszczania modeli zdolnych do katastroficznych szkód. W przeciwieństwie do tego OpenAI, po odejściu szefa zespołu Superalignment Jana Leike (który dołączył właśnie do Anthropic), postawiło na pragmatyzm produktowy. W 2024 r. stopniowo łagodziło politykę antywojskową, a w lutym 2026 błyskawicznie wypełniło lukę po Anthropic.

    flaga USA
    Pexels

    OpenAI ogłosiło umowę 28 lutego: „ Uważamy, że nasza umowa zawiera więcej zabezpieczeń niż jakakolwiek poprzednia umowa dotycząca wdrażania tajnych systemów sztucznej inteligencji, w tym umowy firmy Anthropic”. Zaznaczono trzy czerwone linie: brak masowej inwigilacji krajowej, brak kierowania LAWS (modelami autonomicznej śmiercionośnej broni) i brak wysokostawkowych decyzji automatycznych (np. „social credit”). Po fali krytyki Sam Altman przyznał, że deal był pośpieszny I krótkowrozczny („definitely rushed, and the optics don’t look good”), i 2 marca dodał precyzyjny, intencjonalny zapis: „the AI system shall not be intentionally used for domestic surveillance of U.S. persons and nationals”. Dodatkowo wskazał na zakaz użycia przez agencje wywiadowcze typu NSA bez nowej umowy. OpenAI zachowało pełną „kontrolę bezpieczeństwa” przynajmniej z pozoru, deployment tylko w chmurze i inżynierów z uprawnieniami w pętli decyzyjnej.

    Lekcje dla reszty i Lex AI

    Ewidentnie różnice w podejściu do kultury bezpieczeństwa mają realne konsekwencje geopolityczne. Anthropic pokazał, że traktuje etykę jak konstytucję, która nie podlega negocjacjom. Za to OpenAI traktuje ją jak politykę użytkową – jest elastyczną wobec dozwolonego użycia („lawful use”). To pierwsza lekcja.

    Druga lekcja jest taka, że prywatne firmy nie zdecydują o użyciu broni (jeszcze?), ale mogą odmówić dostarczania narzędzi do określonych celów.

    No i w końcu lekcja trzecia: rząd USA pokazał, że gotów jest użyć narzędzi gospodarczych (supply chain risk) przeciwko amerykańskiej firmie, by wymusić co tylko chce, co rodzi pytanie o suwerenność korporacyjną w erze AI („Talking about being a bully, huh…?”). To byłoby może nawet trochę zabawne, bo trochę pokrywa się z historią tego jak to w Cyberpunk2077 największe korporacje zaczęły się sprzeciwiać, stawiać własne warunki, by w końcu urosnąć do roli podmiotów równorzędnych lub ważniejszych nawet niż same rządy, ale w kontekście autonomicznego AI podejmującego wojskowe decyzje, lub działające autonomicznie wobec człowieka zabawne być przestaje i to bardzo.

    AI o UE i u…

    Zastanawia kwestia tych wydarzeń wobec regulacji UE, gdzie ten konflikt to chyba sygnał alarmowy. AI Act (2024) zawiera szerokie wyłączenia wojskowe: „This Regulation does not apply to AI systems […] exclusively for military, defence or national security purposes, regardless of the type of entity” (Art. 2 ust. 3). Wyłączenie dotyczy też systemów, używanych w UE wyłącznie do celów obronnych. Recital 24 (https://artificialintelligenceact.eu/recital/24/) uzasadnia to kompetencjami państw członkowskich (Art. 4 ust. 2 TUE).

    Europa dzięki AI Act paradoksalnie, tym razem, zyskała pewną swobodę – państwa mogą rozwijać LAWS czy systemy inwigilacji bez wymogów transparentności, czy oceny ryzyka z AI Act.

    Ale! lekcja z USA jest jasna: brak wspólnych unijnych standardów etycznych w obronie może prowadzić do zależności od dostawców zewnętrznych (głównie amerykańskich), których safety culture zmienia się z administracją. UE musi więc uzupełnić AI Act ramami dla wojskowego AI, np. poprzez EDF (European Defence Fund) i PESCO, wprowadzając minimalne warunki (guardrails) – ludzka kontrola nad zabójczą siłą, zakaz masowej inwigilacji obywateli UE.

    Polska optyka

    Dla Polski i polskiego sektora obronnego implikacje są szczególnie dotkliwe. Polska Grupa Zbrojeniowa (PGZ) aktywnie buduje kompetencje AI, porozumienie z Anduril Industries (2025) dotyczy autonomicznych systemów powietrznych (w tym polskiej wersji Barracuda-500M) i dronów z elementami AI, a współpraca z BAE Systems dotyczy prac nad antydronami i amunicją 155 mm.

    Program SAFE, zakładając, że jednak zostanie przyjęty i popłynie te 44 mld euro taniej pożyczki dla Polski, zakłada, że 89% środków zostanie w krajowym przemyśle. Suwerenność technologiczna to priorytet Strategii Cyfryzacji Polski do 2030 i Forum Gospodarczego TIME.

    Konflikt Anthropic-Pentagon pokazuje ryzyko: zależność od jednego dostawcy (nawet amerykańskiego) może oznaczać utratę dostępu w momencie zmiany polityki.

    Wchodząc trochę w buty rządu USA, poza kwestią etyki, jest kwestia strategiczna z wojskowej perspektywy – Polska, poza wszystkim, nie może pozwolić, by bezpieczeństwo Sił Zbrojnych RP zależało od tego, czy Amodei czy Altman, czy kto inny uzna, że projekt, zadanie lub kontrakt jest zgodny z jego sumieniem.

    Jedynym słusznym rozwiązaniem wydaje się podejście hybrydowe: (1) rozwój krajowych modeli AI (współpraca z NASK, AGH, PGZ i startupami) z wbudowanym Constitutional AI lub podobnymi mechanizmami; (2) udział w unijnych projektach obronnych AI z wspólnymi red lines (ludzka pętla decyzyjna, ochrona praw obywatelskich); (3) dywersyfikacja dostawców – kontrakty z OpenAI/Anthropic tylko z klauzulami suwerennymi; (4) krajowa ustawa o AI w obronie, uzupełniająca AI Act o etyczne standardy (np. obligatoryjna ocena wpływu na prawa człowieka przy LAWS).

    Tylko wtedy Polska zachowa suwerenność: będzie mogła używać AI do obrony demokracji, nie ryzykując, że etyka (jakby słuszna tu nie była, ale przecież w innych przypadkach może też wcale nie być…) firmy z Kalifornii zdecyduje o zdolnościach bojowych.

    Konflikt Anthropic-Pentagon i pivot OpenAI to znak dojrzewania ery odpowiedzialnego AI, niekoniecznie jej koniec. Pokazuje, że prawdziwa „safety culture” nie kończy się na widzimisię silniejszego, na benchmarkach, lecz także wytrzymuje presję państwa.

    Dla przyszłości liczy się nie tylko kto zbuduje najpotężniejszy model, ale kto zachowa kontrolę nad jego moralnym kompasem. Europa i Polska mają szansę stać się trzecią siłą – nie kopiując amerykańskiego modelu „lawful use”, lecz tworząc własny, suwerenny i etyczne systemowe ramy (framework) AI dla obrony. Pokazuje też, że czas działać i rozwijać własne narzędzia, bo zamiast nas będzie działać ktoś inny.

    Maksymilian Wysocki