Wypadki w Iranie pokazały całemu światu chyba już najdobitniej, że to najwyższy moment na przerwę i przebudowanie procesów decyzyjności AI. Tu mieliśmy manifestację tego, co obserwujemy coraz częściej także w biznesie – w decyzjach biznesowych podejmowanych na podstawie wadliwych, nieweryfikowanych procesów związanych z AI, które mają zbyt wiele punktów zapalnych, by dawać zbyt dużą wiarę nawet teoretycznie „najmądrzejszym” modelom. To też ważna lekcja o coraz większych ograniczeniach człowieka, ponieważ im bardziej zaawansowana technologia, tym – jak zresztą pokazują badania – mniej zaawansowani intelektualnie stają się ludzie.

    W artykule:

    • Szczegółowa rekonstrukcja użycia Maven Smart System (Palantir + Claude) w operacjach przeciwko Iranowi
    • Analiza tempa ataków (1000 celów w pierwszych 24 godzinach),
    • Kontrowersje wokół błędu w szkole dziewcząt,
    • Spór Anthropic–Pentagon oraz szersze implikacje dla etyki, odpowiedzialności i doktryny wojskowej, to lekcja potrzebna całemu światu.
    • Wnioski dla wojska, dla Wojska Polskiego oraz agencji wywiadowczych, wnioski dla polskiej legislacji

    Wydarzenia z przełomu lutego i marca 2026 roku, określane jako pierwsza wojna napędzana przez AI, stanowią przełomowy moment w historii konfliktów zbrojnych. Po raz pierwszy algorytmy nie tylko wspierały logistykę, ale stały się „mózgiem” operacji kinetycznych o bezprecedensowej skali. Stały się też początkiem nowych doktryn w praktyce wojskowości.

    Kluczem do amerykańskiej ofensywy w Iranie (często nazywanej Operation Roaring Lion lub Operation Epic Fury) był Maven Smart System. Jest to ewolucja zainicjowanego w 2017 roku Project Maven, który pierwotnie służył do analizy obrazów z dronów. 
    Szczegółowa architektura Maven Smart System (często określanego kryptonimem Ares-C) zrewolucjonizowała sposób prowadzenia działań kinetycznych podczas operacji przeciwko celom w Iranie.

    Architektura „Szkieletu i Mózgu”, czyli Palantir + Claude

    Integracja ta nie była prostym połączeniem dwóch programów, lecz stworzeniem nowej warstwy operacyjnej:
     
    Integracja Palantir + Claude: System wykorzystuje platformę analizy danych firmy Palantir Technologies jako szkielet, w który „wszyto” model językowy Claude od Anthropic, gdzie Palantir (AIP – Artificial Intelligence Platform) pełni rolę „układu nerwowego” – agreguje miliardy punktów danych z czujników (Full Motion Video z dronów, dane radarowe SAR, przechwyty SIGINT), tworzy tzw. Common Operational Picture (COP) – cyfrowy bliźniak pola bitwy, a Claude (Custom Military Instance) został „wszyty” jako silnik rozumowania (tzw. Reasoning Engine).

    W przeciwieństwie do prostych algorytmów rozpoznawania obrazu, Claude potrafi czytać raporty wywiadowcze w różnych językach (np. przechwycone depesze w farsi) i łączyć je z obrazami satelitarnymi. Dzięki temu system nie widzi tylko „ciężarówki”, ale „ciężarówkę przewożącą komponenty rakietowe Fateh-110, na podstawie korelacji z sygnałem GPS i zamówieniem z bazy logistycznej”.

    Łańcuch decyzyjny (Kill Chain): System w czasie rzeczywistym syntetyzuje dane z satelitów, nasłuchu (SIGINT) i dronów. Claude odpowiada za priorytetyzację celów, dobór odpowiedniego uzbrojenia oraz – co najbardziej kontrowersyjne – automatyczne generowanie uzasadnień prawnych dla każdego ataku. Jak fatalnie radzą sobie duże modele LLM z literą prawa, obserwujemy nieprzerwanie w głośnych, mniej lub bardziej, skandalach od przynajmniej dwóch lat i jest to kwestia nierozwiązywalna (prawo jest deterministyczne, modele LLM są probabilistyczne i ściśle probabilistyczne semantycznie, nie faktograficzne, więc rozwiązanie tego problemu jest po prostu, w dzisiejszych modelach, niemożliwe).

    W klasycznym modelu Kill Chain proces F2T2EA (Find, Fix, Track, Target, Engage, Assess) zajmował od kilkunastu minut do kilku godzin. W Maven Smart System proces ten uległ radykalnej automatyzacji:
    Priorytetyzacja celów: Claude oceniał cele w skali 1-10 pod kątem „wartości strategicznej” vs „ryzyka strat pobocznych” (CDE – Collateral Damage Estimation).
     
    Dobór uzbrojenia (Weaponeering): System automatycznie sugerował optymalne rozwiązanie, np. użycie precyzyjnej bomby GBU-39 SDB zamiast rakiety Hellfire, aby zminimalizować promień wybuchu w gęstej zabudowie.
     
    Automatyczne uzasadnienia prawne, to najbardziej kontrowersyjny element. Claude generował szkice dokumentów Targeting Packets, zawierające uzasadnienie ataku w oparciu o Międzynarodowe Prawo Konfliktów Zbrojnych (LOAC). Oficerowie weryfikujący (Targeteers) otrzymywali gotowy tekst, co skracało proces akceptacji do sekund, ale prowadziło do zjawiska „uprzedzenia poznawczego” – zaufania, że AI „sprawdziła prawo” lepiej niż człowiek. A to jak już wiemy od czasu choćby Deloitte-Gate i licznych, kolejnych skandali dotyczących prawników, źródeł prawnych i zmyślanych wykładni oraz orzeczeń sądowych, kończy się fatalnie.

    Tempo 1000 celów, czyli obezwładniająca i paraliżująca decyzyjnie „pętla masowa”

    W ciągu pierwszych 24 godzin operacji system wygenerował współrzędne dla ponad 1000 celów. To tempo (ok. jeden cel na 86 sekund) ponad dwukrotnie przewyższyło intensywność nalotów z początkowej fazy inwazji na Irak w 2003 roku. 

    Szczegóły zabójczej „pętli masowej”

    Zalew danych: Tradycyjne metody analizy zawiodłyby pod ciężarem terabajtów danych napływających z Iranu. Maven Smart System działał jako filtr, odrzucając 99% nieistotnych informacji i serwując analitykom gotowe „pakiety do zatwierdzenia”.

    Porównanie z Irakiem (2003): Podczas operacji Shock and Awe (2003) wybór celów był procesem planowanym przez tygodnie w sztabach w Katarze. W 2026 roku w Iranie, dzięki Claude, cele były identyfikowane i niszczone w czasie rzeczywistym, gdy tylko pojawiały się w polu widzenia sensorów (tzw. dynamic targeting).

    Efekt skali: Tak wysokie tempo (jeden cel na 86 sekund) uniemożliwiło irańskiej obronie przeciwlotniczej jakąkolwiek reorganizację. Zanim dowódcy niższego szczebla zdążyli zameldować o zniszczeniu radaru, system Maven już kierował pociski na kolejne ogniwa łańcucha dowodzenia.

    Tragedia w Minab: Błąd w szkole dziewcząt

    Najciemniejszym punktem kampanii i jak widzimy po czasie, jednak solidnym argumentem za tym, by nie tworzyć broni autonomicznych, był atak tragiczny  w skutkach na szkołę podstawową Shajareh Tayyebeh w Minab (28 lutego 2026 r.), w którym zginęło około 150–175 osób, głównie dzieci. 

    Analiza The Guardian oraz The New York Times potwierdziła wczesne przypuszczenia tych badaczy, którzy wiedzą i nie ukrywają jak wadliwe potrafią być AI, i wskazuje dziś na systemową porażkę.

    Po pierwsze elementem wadliwym procesów okazały się nieaktualne dane – budynek figurował w bazach wywiadu wojskowego (DIA) jako obiekt IRGC (Gwardii Rewolucyjnej). Choć satelity pokazywały zmianę funkcji na szkołę już w 2016 roku, baza nie została zaktualizowana. Po drugie znów „ludzkie lenistwo”, czyli dążenie do maksymalnego efektu w jak najkrótszym czasie, przy minimum wysiłku człowieka, a dokładniej – skrócenie czasu weryfikacji. Przyspieszenie „kill chain” spowodowało, że analitycy (tzw. human-in-the-loop) ograniczali się do „przybijania pieczątek” na propozycjach AI, nie mając czasu na weryfikację kontekstową celów. 

    CZYTAJ TEŻ: AI kontra skrzecząca rzeczywistość

    Spór Anthropic vs. Pentagon – tę część już wszyscy znamy

    Wydarzenia w Iranie wywołały bezprecedensowy konflikt między twórcami AI a wojskiem. Anthropic próbował narzucić Pentagonowi, ograniczenie autonomii Claude w tym systemie. Spór między Anthropic a Departamentem Obrony (DoD) o protokoły bezpieczeństwa Claude’a w ramach Ares-C stał się fundamentem debaty o „suwerenności algorytmicznej”. Anthropic, promując ideę Constitutional AI (AI konstytucyjnej), próbował zaimplementować trzy specyficzne bezpieczniki techniczne, które Pentagon ostatecznie uznał za „operacyjny sabotaż”.

    Czerwone linie Anthropic: Firma próbowała zablokować użycie Claude do masowej inwigilacji i w systemach autonomicznych.

    Odpowiedź Pentagonu: Sekretarz Obrony Pete Hegseth określił Anthropic mianem „zagrożenia dla łańcucha dostaw” (supply chain risk), oskarżając firmę o niedemokratyczne próby dyktowania polityki państwa. Wojsko zapowiedziało wycofanie narzędzi Anthropic na rzecz rozwiązań od bardziej „elastycznych” partnerów. 

    Brutalna prawda płynąca z tego przykładu: okazuje się, że w przypadku konfliktu pokusa łatwego i szybkiego używania AI do eliminowania wrogów jest zbyt silna, a uwagi AI co do możliwych błędów pomijane, dokładnie tak samo, jak akceptowane na ślepo przez cywili regulaminy aplikacji internetowych, czy e-commerce, a także – co wykazały ostatnie badania – coraz częstsze błędne decyzje podejmowane bezrefleksyjnie i w kompletnym zaufaniu do AI przez menedżerów firm.

    Hard-Coded Negative Constraints (Twarde ograniczenia negatywne)

    Anthropic domagał się, aby w samym kodzie modelu Claude (na poziomie wag systemowych) zaszyte były tzw. „strefy zakazane”.

    Cel: Automatyczne blokowanie generowania współrzędnych celów, jeśli system wykryje w promieniu 100 metrów obiekty oznaczone w bazach jako chronione (szpitale, szkoły, obiekty kultu).

    Konflikt: Wojsko argumentowało, że przeciwnik (Iran) celowo lokuje zasoby militarne w sąsiedztwie szkół. Sztywny blok kodu uniemożliwiałby neutralizację zagrożenia nawet wtedy, gdy dowódca polowy uznałby atak za konieczny i zgodny z prawem.

    Protocol of Interpretability (Protokoł Wyjaśnialności – „Reasoning Trace”)

    Anthropic wymusił (na wczesnym etapie), aby Claude nie podawał samej decyzji o celu, ale wyświetlał pełny „łańcuch myślowy” (Chain of Thought).

    Mechanizm: Analityk nie widział przycisku „Zatwierdź atak”, dopóki nie przewinął tekstu wyjaśniającego, dlaczego dany obiekt został uznany za wrogi (np. „Analiza ruchu wykazała wzorce charakterystyczne dla transportu amunicji, 87% korelacji z sygnaturą radiową X”).

    Konflikt: Przy tempie 1000 celów na dobę (jeden co 86 sekund), oficerowie zaczęli pomijać czytanie tych uzasadnień. Pentagon oskarżył Anthropic o tworzenie „szumu informacyjnego”, który opóźnia reakcję w sytuacjach krytycznych.

    Red-Teaming Dual-Key (Podwójny klucz etyczny)

    Najbardziej radykalna propozycja zakładała, że każda instancja Claude’a używana przez wojsko musi mieć aktywną „wartę etyczną” – osobny proces AI, monitorujący czy główne zadanie nie narusza warunków użytkowania Anthropic.

    Miałoby wyglądać to tak, że jeśli „warta” uznała instrukcje wojskowe za sprzeczne z konstytucją modelu (np. podejrzenie czystek etnicznych lub masowych ataków na cywilów), system miał przechodzić w tryb „bezpieczny”, odcinając dostęp do precyzyjnego naprowadzania. Jednak generałowie uznali to za niedopuszczalną ingerencję korporacji w łańcuch dowodzenia USA. To właśnie ten punkt doprowadził do zerwania współpracy, gdy Pentagon stwierdził, że „żadna linia kodu nie może mieć prawa veta nad rozkazem Prezydenta”. A skutkiem jest usunięcie bezpieczników.

    Po tragicznych wydarzeniach w szkole w Minab, okazało się, że na prośbę wojska, inżynierowie Palantira zdołali „obejść” część tych protokołów, aby zwiększyć płynność systemu (tzw. low-latency mode). To doprowadziło do ostatecznego rozwodu Anthropic z Pentagonem i przejścia armii na autorskie, mniej restrykcyjne modele. Problemu to jednak przecież nie rozwiązuje.

    Nowa doktryna, nowe problemy i zatrute owoce zakazane

    Mamy oto nową doktrynę wojskową – błyskawicznie przeszliśmy od wojny informacyjnej do wojny algorytmicznej, gdzie przewaga zależy od szybkości procesora, a nie tylko liczby głowic. Mamy też do czynienia z problemem „wrapper architekture” – architektury opakowującej (ang. wrapper – opakowywanie), która powoduje, że trudno wskazać jedną osobę odpowiedzialną za błąd algorytmu opartego na starych danych. W kontekście AI taka architektura to sposób budowania aplikacji, który polega na „opakowaniu” gotowego, potężnego modelu sztucznej inteligencji (np. GPT-4 od OpenAI, Claude od Anthropic) w przyjazny interfejs użytkownika, dodając do niego specyficzne funkcje, wytyczne (prompt engineering) oraz dane użytkownika, które jednak w zastosowaniu praktycznym, jak niby tylko „opakowanie”, często zamienia ogólny model (potrafiący wszystko) w specjalistyczne narzędzie (potrafiące jedną rzecz bardzo dobrze). W tym przypadku służące do zabijania, a przez zmianę sposoby „myślenia” na masowo opracowywane dane i procesy, trudne do zweryfikowania w trakcie dynamicznych działań wojennych. Coś, co działa dobrze jako zaszyty w stronie internetowej mechanizm do pisania maili nie sprawdza się dobrze jako broń decydująca o życiu i śmierci. Mimo to system Maven nie jest już tylko programem USA – jest wdrażany w strukturach sojuszniczych jako standardowy interfejs walki.

    Czego może się z tego nauczyć Polska

    Higiena danych (Data Stewardship) to absolutna podstawa. Tragedia w Minab pokazuje, że najnowocześniejsza AI jest bezużyteczna (lub wręcz zabójcza i tragiczna w skutkach) przy „brudnych” danych. Polska absolutnie musi zainwestować w systemy ciągłej aktualizacji baz danych wywiadowczych. Nie dlatego, żeby jakieś własne systemy mogą źle działać, ale dlatego, żeby przypadkiem krzywdy nie zrobiły nam nawet systemy naszych sojuszników.

    Własne rozwiązania wyłącznie jako Etyczne AI by Design. Wypracowanie narodowych ram prawnych określających minimalny czas na ludzką weryfikację celu (tzw. meaningful human control), aby uniknąć efektu „gumowej pieczątki” – sytuacji, w której człowiek staje się jedynie „żywym elementem dekoracyjnym” w zabójczym systemie sterowanym przez AI. Meaningful Human Control (Istotna Kontrola Ludzka), to koncepcja wywodząca się z debaty nad autonomicznymi systemami uzbrojenia (LAWS). Zakłada ona, że aby atak był legalny i etyczny, decyzja człowieka nie może być tylko technologicznym kliknięciem „OK”. Kontrola jest „istotna” tylko wtedy, gdy: operator rozumie, dlaczego AI wskazała dany cel (ma wgląd w dane źródłowe), ma realną technologiczną i czasową możliwość przerwania ataku oraz gdy to człowiek ocenia czynniki, których AI nie rozumie (np. zmieniającą się sytuację polityczną lub niuanse kulturowe na miejscu). Realnie, nie na niby.

    Efekt „gumowej pieczątki” (Automation Bias)

    To pułapka psychologiczna, w którą wpadli operatorzy podczas operacji w Iranie. Gdy system Maven podawał 1000 celów na dobę, analitycy przestali weryfikować dane, bo:

    • Zaufanie do technologii: Myślenie „Skoro Claude i Palantir to połączyły, to pewnie mają rację” pokazuje obserwowalną praktycznie w każdej innej dziedzinie związanej z AI stopniowe poddawanie się człowieka osądowi mylących się za często algorytmów.
    • Przeciążenie poznawcze: Przy tempie jednego celu na 86 sekund, mózg ludzki nie jest w stanie rzetelnie przeanalizować zdjęć satelitarnych, raportów wywiadu i ryzyka strat cywilnych.
    • Rutyna: Człowiek staje się „gumową pieczątką” – bezrefleksyjnie zatwierdza wszystko, co podpowiada algorytm, byle dotrzymać tempa operacji.
    • Transparentność i bezpieczniki: Explainable AI – absolutną podstawą musi być budowanie systemów z wbudowaną funkcją „wyjaśnialności” (Explainable AI), która pozwoli analitykowi w kilka sekund zrozumieć, dlaczego algorytm wskazał dany obiekt jako cel.

    Z czasem, wdrażając systemy klasy Maven do polskiej armii, musimy uniknąć „amerykańskich błędów” z Iranu. Bez takich ram prawnych, w razie konfliktu, presja na szybkość działania doprowadzi do tego, że dowódcy znów oddadzą realną władzę nad życiem i śmiercią algorytmowi, stając się jedynie jego asystentami i pomocnikami w potencjalnej rzezi cywili.

    Najprościej byłoby stwierdzić, że w procesach decyzyjnych, związanych z analizami dokonywanymi przez AI – czy to w wojsku, czy biznesie, ale w wojsku na pewno – nie powinni uczestniczyć ludzie, którzy nie są w stanie zweryfikować poprawności jej procesów wnioskowania, danych wejściowych, danych wyjściowych i podejmowanych lub sugerowanych przez nią wniosków oraz propozycji wydawanych przez AI decyzji. W praktyce jest to, niestety, tylko coraz bardziej niemożliwe.

    I choć w teorii to nie AI wydało decyzję i teoretycznie nie ono odpowiada za śmierć cywili, bo decyzję finalnie podejmował człowiek, to jednak człowiek zaufał sztucznej inteligencji i zatwierdził jej błędną decyzję, która skutkowała rzezią dzieci. I nie ważne jest, czy człowiek podjął decyzję na podstawie fałszywych przesłanek, własnych słabości, własnych limitów poznawczych, procesowej wygody, czy zwykłego zaniedbania, skoro ostatni bastion bezpieczeństwa, jakim w wojskowości miała być zawsze ludzka inteligencja i ludzka decyzyjność, potrafi ulec presji w nawet tak newralgicznych przypadkach – decyzji o życiu i śmierci.

    Najbardziej przerażające jest chyba to, że właśnie w kwestiach życia lub śmierci, w nadziei na wynik, „łatwiej” człowiekowi winę za potencjalny błąd zrzucić na maszynę. Skoro ludzka inteligencja – niczym Poncjusz Piłat – potrafi scedować na inteligencję sztuczną kwestie odpowiedzialności za ludzkie życie i kwestię sumienia, to samemu się faktycznie odczłowiecza, i nie tylko jej równa, ale wręcz się jej podporządkowuje. Jednak scedowanie konsekwencji i sumienia na maszynę nie może usprawiedliwiać człowieka za moralne następstwa jej choćby zupełnie autonomicznych działań, bo przecież w procesie, jakim jest działanie wojenne, ta działa na rozkaz człowieka.

    Trudno jednak, w tym świetle, widzieć ludzką inteligencję jako wyższą, skoro sztucznej inteligencji oddaje tak kluczowe kwestie walkowerem.

    Maksymilian Wysocki

    CZYTAJ TEŻ: AI pomogło zaatakować Iran. Czy odpowiada za śmierć cywili?

    CZYTAJ TEŻ: Fundamentalny spór o możliwość zabijania ludzi przez AI i patent na etykę