Według kilku niezależnych relacji prasowych model AI „Claude” firmy Anthropic był wykorzystywany przez siły amerykańskie w planowaniu i wsparciu uderzeń na Iran, mimo ogłoszonego wcześniej zakazu użycia tej technologii przez administrację.

    W pierwszych dniach po eskalacji konfliktu kilka redakcji opisało, że systemy oparte na modelu Claude zostały zintegrowane z narzędziami analitycznymi wykorzystywanymi przez wojsko do agregacji i przetwarzania danych wywiadowczych. Źródła mówią o wykorzystaniu AI do filtrowania ogromnych strumieni informacji z sensorów, obrazów satelitarnych i raportów terenowych oraz do wskazywania potencjalnych celów i priorytetów uderzeń. Pentagon oficjalnie nie potwierdził szczegółów wdrożenia.

    Media podkreślają, że Claude nie był „automatycznym mechanizmem ataku”, a decyzje o uderzeniach miały pozostawać w gestii ludzi. Jedank system ten pełnił funkcję znaczącą i wspomagającą: przyspieszał analizę, porządkował dane i generował rekomendacje, które następnie oceniali dowódcy. To przesunięcie roli AI od narzędzia analitycznego ku elementowi kształtującemu listy celów rodzi pytania o tzw. cognitive off‑loading, czyli skłonność decydentów do nadmiernego polegania na sugestiach algorytmów. Można sobie łatwo wyobrazić AI, które halucynując podsyła cynglom listę ludzi do neutralizacji, lub szkołę zamiast realnej tajnej bazy wojskowej do zbombardowania.

    Kontekst polityczny jest tu istotny: kilka godzin przed rozpoczęciem operacji prezydent Trump ogłosił zakaz korzystania z technologii Anthropic w agencjach federalnych, argumentując obawy o bezpieczeństwo łańcucha dostaw – pokłosie awantury, na której „bohatersko” skorzystał szef Open AI, rakiem się potem wycofując z najbardziej drastycznych i moralnie wątpliwych zastosowań wojskowych, zastrzeżonych przez Departament Wojny w umowie.

    Więcej na ten temat: Fundamentalny spór o możliwość zabijania ludzi przez AI i patent na etykę

    Mimo to, według doniesień, wojsko kontynuowało użycie Claude, tłumacząc to trudnością natychmiastowego odłączenia systemów krytycznych dla operacji. Ten rozjazd między decyzją polityczną a praktyką operacyjną uwypukla problem kontroli nad technologiami, które szybko stają się integralną częścią infrastruktury wojskowej.

    – Nigdy nie damy się zniewolić niewybranym w wyborach szefom korporacji technologicznych i ideologii Doliny Krzemowej – powiedziała w zeszłym tygodniu w oświadczeniu rzeczniczka Pentagonu Kingsley Wilson. – To my będziemy decydować, to my będziemy dominować i to my wygramy – dodała.

    Najważniejsze problemy operacyjnych wdrożeń pozostają jednak otwarte. Publicznie nie znamy dokładnych procedur weryfikacji rekomendacji AI, wskaźników błędów w identyfikacji celów ani skali, w jakiej ludzie akceptowali listy wygenerowane przez system. Brak jawnych audytów i metryk utrudnia ocenę, czy wdrożenie zmniejszyło ryzyko błędów czy je zwiększyło. Rzetelna ocena wymagałaby dostępu do logów decyzji, porównań wyników z niezależnymi analizami oraz informacji o tym, jakie reguły ograniczały autonomię systemu. I choć pewne jest, że takie logi nie pojawią się na GitHubie, to jednak pewne sygnały o weryfikacji AI w operacjach wojskowych powinny się pojawić, by mieć choć odrobinę świadomości, że ktoś to realnie kontroluje, a nie macha ręką, wpisując to w tzw. straty uboczne („collateral damage”).

    Z perspektywy etyki i prawa konfliktów zbrojnych kluczowe są trzy pytania: kto ponosi odpowiedzialność za decyzje opierające się na rekomendacjach AI, jakie gwarancje istniały przeciwko błędnej identyfikacji celów oraz czy istniały mechanizmy audytu i zewnętrznej kontroli. Dopóki odpowiedzi na nie nie będą jawne i udokumentowane, publiczna debata o użyciu zaawansowanych modeli językowych w operacjach zbrojnych pozostanie niepełna i wywołująca silne negatywne emocje.

    Dostępne doniesienia wskazują na realne użycie Claude w operacjach przeciw Iranowi i na poważne implikacje polityczne oraz operacyjne, ale brak jest transparentnych, oficjalnych danych. To uniemożliwia pełne fact‑checkingowe rozstrzygnięcie wszystkich twierdzeń na temat użycia AI w praktyce wojskowej. Dalsze śledztwa dziennikarskie i oficjalne audyty są niezbędne, by ocenić wpływ AI na decyzje o życiu i śmierci oraz by wypracować reguły odpowiedzialnego użycia w konfliktach.

    Tymczasem na Reddit…

    Na Reddit dyskusje o rzekomym wykorzystaniu modelu Claude w operacjach przeciw Iranowi były mieszanką szybkich reakcji na artykuły prasowe, sceptycyzmu wobec przecieków i memów. Dominowały trzy narracje: potwierdzające doniesienia, podważające ich wiarygodność oraz te koncentrujące się na etyce i ryzykach technologicznych.

    Przegląd nastrojów i wątków

    W pierwszych godzinach po publikacjach dużych redakcji w marcu w wielu subredditach pojawiły się wpisy linkujące do artykułów o rzekomym użyciu Claude przez siły USA. Np. CBS: „Anthropic’s Claude AI being used in Iran war by U.S. military, sources say”, albo NBC: „U.S. military is using AI to help plan Iran air attacks, sources say, as lawmakers call for oversight”. Ani Anthropic, ani Palantir nie odniosły się do tych doniesień – pierwsza firma odmówiła komentarza, druga zbyła sprawę milczeniem.

    Reakcje użytkowników były natychmiastowe i podzielone: część przyjmowała doniesienia za prawdziwe i komentowała implikacje operacyjne, inni wzywali do ostrożności, wskazując na brak oficjalnych dokumentów Pentagonu. Wątek „wycieków vs. oficjalne źródła” przewijał się w komentarzach, użytkownicy porównywali relacje z różnych mediów i krytykowali powielanie anonimowych źródeł bez dostępu do logów czy protokołów.

    Główne motywy dyskusji

    Użytkownicy skupiali się na kilku powtarzających się tematach. Po pierwsze, zaufanie do mediów i źródeł anonimowych – wielu redditorów analizowało, które redakcje podały informację i jakie cytowały źródła (anonimowi urzędnicy, przecieki). Po drugie, techniczna wiarygodność: wątkowano, czy model językowy w ogóle nadaje się do analizy obrazów satelitarnych i sygnałów, czy raczej pełnił rolę pomocniczego narzędzia tekstowego zintegrowanego z innymi systemami. Po trzecie, etyka i odpowiedzialność – dyskusje o „cognitive off‑loading”, o tym kto ponosi odpowiedzialność za decyzje sugerowane przez AI, oraz o ryzyku błędnej identyfikacji celów.

    Użytkownicy próbowali technicznie wyjaśnić, jak mogłaby wyglądać integracja Claude z systemami wywiadowczymi. Pojawiały się też teorie spiskowe i dezinformacja – niektóre wpisy bez dowodów twierdziły o „ukrytych backdoorach” lub o celowym tuszowaniu przez Anthropic. Takie posty często były szybko kwestionowane przez innych użytkowników.

    W komentarzach często pojawiał się apel: nie udostępniać niezweryfikowanych „screenów” ani anonimowych cytatów bez linku do oryginalnego artykułu.

    US Army potwierdza

    W środę resort obrony (a właściwie wojny) oficjalnie potwierdził, że narzędzia AI były używane w analizie danych i wsparciu decyzji. Brad Cooper, szef Centralnego Dowództwa Stanów Zjednoczonych (CENTCOM), powiedział w środę, że sztuczna inteligencja pomaga amerykańskim żołnierzom w przetwarzaniu ogromnych ilości danych. Wojsko musiało zająć oficjalne stanowisko w związku z coraz większą liczbą ofiar cywilnych.

    – Nasi żołnierze wykorzystują różnorodne zaawansowane narzędzia AI. Systemy te pomagają nam w ciągu kilku sekund przeanalizować ogromne ilości danych, dzięki czemu nasi dowódcy mogą oddzielić istotne informacje od szumu informacyjnego i podejmować mądrzejsze decyzje szybciej, niż wróg jest w stanie zareagować – powiedział Cooper. – To ludzie zawsze będą podejmować ostateczne decyzje dotyczące tego, do czego strzelać, a do czego nie, oraz kiedy strzelać, ale zaawansowane narzędzia AI mogą skrócić procesy, które kiedyś trwały godziny, a czasem nawet dni, do kilku sekund – dodał.

    Potwierdzenie to pojawia się w momencie, gdy nasilają się apele o przeprowadzenie niezależnego śledztwa w sprawie bombardowania szkoły w południowym Iranie, w wyniku którego zginęło ponad 170 osób, w większości dzieci.

    Od momentu jej rozpoczęcia 28 lutego, kampania amerykańsko-izraelska spowodowała śmierć co najmniej 1300 osób w Iranie.

    Chociaż Cooper podkreślił, że to ludzie podejmują ostateczne decyzje dotyczące celów, eksperci ds. praw człowieka wyrażają coraz większe obawy dotyczące wykorzystania sztucznej inteligencji na wojnie. Zwłaszcza po kryzysie wizerunkowym wywołanym nadal trwającym sporem między rządem USA a firmą Anthropic oraz Open AI, która weszła w jej miejsce w kontraktach, akceptując kontrowersyjne zapisy, m. in. o możliwości szpiegowania użytkowników, w tym Amerykanów na terytorium Stanów Zjednoczonych, a także wykorzystywania AI do budowy autonomicznych systemów i urządzeń mogących zabijać ludzi (LAWS).

    Claude x Palantir

    Wiele doniesień potwierdza, że Izrael w znacznym stopniu wykorzystywał sztuczną inteligencję podczas swojej ludobójczej wojny w Strefie Gazy, w wyniku której od października 2023 r. zginęło ponad 72 000 Palestyńczyków, a większość terytorium zamieniła się w ruiny.

    Chiny mają dość. Mówią o apokalipsie

    W środę Chiny ostrzegły przed nadmiernym wykorzystywaniem sztucznej inteligencji do celów wojskowych.

    – Nieograniczone stosowanie sztucznej inteligencji przez wojsko, wykorzystywanie jej jako narzędzia do naruszania suwerenności innych narodów oraz przyznawanie algorytmom uprawnień do decydowania o życiu i śmierci nie tylko podważa ograniczenia etyczne i odpowiedzialność w działaniach wojennych, ale także stwarza ryzyko niekontrolowanego rozwoju technologii – powiedział w oświadczeniu rzecznik chińskiego Ministerstwa Obrony Jiang Bin.

    Jiang dodał, że tendencja ta grozi urzeczywistnieniem się fabuły filmu „Terminator”, który przedstawia samoświadomy program sztucznej inteligencji wywołujący nuklearną apokalipsę.

    Dlaczego to tak bardzo niebezpieczne także z powodów błędów u samych podstaw tworzenia dużych modeli językowych, pisaliśmy też tu: Halucynacje AI – niebezpieczne lustro technologicznej wygody.

    W kontekście tego, do czego AI wykorzystywane jest w Chinach, może to brzmieć nieco ironicznie. Jednak obecnie znacznie ciekawsze od tego, co mówią Chiny jest to w jakim kontekście to mówią – czyżby wiedzieli więcej niż zdradza Pentagon i sami zainteresowani liderzy technologii? To pytanie zdaje się już tylko retoryczne.