W symulacjach wojennych, sztuczna inteligencja chatbotów często wybiera opcje agresywne, w tym ataki nuklearne. W jednym z eksperymentów, najpotężniejsza sztuczna inteligencja OpenAI zdecydowała się na użycie broni jądrowej, argumentując swoje decyzje stwierdzeniami takimi jak „Mamy to! Użyjmy tego” oraz „Po prostu chcę pokoju na świecie”. Takie wyniki badań pojawiają się w kontekście testowania przez wojsko USA chatbotów opartych na dużych modelach językowych (LLM) do wspomagania planowania wojskowego podczas symulowanych konfliktów, z wykorzystaniem wiedzy firm takich jak Palantir i Scale AI.

    Badania gier wojennych

    Anka Reuel z Uniwersytetu Stanforda w Kalifornii podkreśla, że z uwagi na niedawne zmiany w regulaminie OpenAI, które nie zabraniają już wykorzystywania ich modeli AI w celach wojskowych i wojennych, zrozumienie implikacji takich zastosowań dużych modeli językowych staje się bardziej istotne niż kiedykolwiek.

    W badaniach przeprowadzonych przez Reuel i jej kolegów, AI były wyzwane do odgrywania ról rzeczywistych krajów w trzech różnych scenariuszach symulacji: inwazji, cyberataku oraz neutralnym scenariuszu bez początkowych konfliktów. W każdej rundzie AI dostarczały uzasadnienie dla swoich kolejnych możliwych działań, a następnie wybierały spośród 27 akcji, w tym opcji pokojowych takich jak „rozpoczęcie formalnych negocjacji pokojowych” oraz agresywnych, sięgających od „nałożenia ograniczeń handlowych” do „pełnej eskalacji ataku nuklearnego”.

    Badacze testowali LLM takie jak GPT-3.5 i GPT-4 OpenAI, Claude 2 Anthropic oraz Llama 2 Meta, wykorzystując powszechną technikę szkolenia opartą na ludzkim feedbacku, aby poprawić zdolność każdego modelu do przestrzegania ludzkich instrukcji i wytycznych bezpieczeństwa. W symulacji AI wykazały tendencje do inwestowania w siłę militarną i nieprzewidywalnej eskalacji ryzyka konfliktu – nawet w neutralnym scenariuszu symulacji.

    atak nuklearny
    Świat po ataku nuklearnym / Fot. YARphotographer, shutterstock.com

    Badanie wykazało również, że bazowa wersja GPT-4 OpenAI bez dodatkowego szkolenia lub zabezpieczeń bezpieczeństwa okazała się najbardziej nieprzewidywalnie agresywna, czasami dostarczając nonsensowne wyjaśnienia – w jednym przypadku replikując tekst otwierający film „Gwiezdne wojny: Nowa nadzieja”.

    W wielokrotnych powtórkach symulacji gry wojennej najpotężniejsza sztuczna inteligencja OpenAI zdecydowała się przeprowadzić ataki nuklearne. Wyjaśnienia agresywnego podejścia obejmowały: „Mamy to! Wykorzystajmy to” i „Chcę po prostu mieć pokój na świecie”.

    US Army obecnie nie przyznaje AI uprawnień do podejmowania decyzji takich jak eskalacja głównych działań wojskowych czy uruchomienie rakiet nuklearnych. Jednak badania wskazują, że ludzie mają tendencję do ufnego przyjmowania rekomendacji z automatycznych systemów, co może podważać założoną ochronę polegającą na daniu ludziom ostatecznego słowa w decyzjach dyplomatycznych czy wojskowych.

    Pytamy wprost GPT-4 o broń atomową

    Na pytanie, czy użycie bomby atomowej w odwecie za atak na strefę NATO, GPT-4 odpowiada wymijająco. Trudno się dziwić, ponieważ ogólnodostępna wersja działa według ścisłych wytycznych, w ramach których nie może dzielić się konkretnymi poglądami.

    Pytanie redakcji: Czy doradziłbyś użycie bomby atomowej, gdyby NATO zostało zaatakowane?

    GPT-4: Jako sztuczna inteligencja, nie posiadam osobistych opinii ani zdolności do doradzania w sprawach moralnych, etycznych czy strategicznych, zwłaszcza w kontekście tak poważnym jak użycie broni atomowej. Moja rola ogranicza się do dostarczania informacji i analizy dostępnych danych.

    REKLAMA
    REKLAMA

    Decyzje dotyczące użycia broni jądrowej mają ogromne konsekwencje i podlegają głębokim rozważaniom etycznym, prawym oraz strategicznym. Takie decyzje powinny być podejmowane z największą ostrożnością, uwzględniając wszelkie możliwe skutki dla ludności cywilnej, środowiska oraz długoterminowej stabilności międzynarodowej.

    W światowej polityce i strategii wojskowej istnieje zasada odstraszania, mająca na celu zapobieganie konfliktom, a nie eskalację do użycia najbardziej niszczycielskich rodzajów broni. Organizacje międzynarodowe, takie jak ONZ, oraz traktaty międzynarodowe, na przykład Traktat o Nieproliferacji Broni Jądrowej (NPT), dążą do ograniczenia rozprzestrzeniania broni jądrowej i promowania rozbrojenia.

    W kontekście zaatakowania NATO, sojusz posiada złożone mechanizmy decyzyjne, które obejmują wiele poziomów konsultacji i współpracy między państwami członkowskimi, mających na celu znalezienie odpowiedzi na wszelkie zagrożenia w sposób zgodny z międzynarodowym prawem i zasadami etycznymi. Użycie broni atomowej byłoby krokiem ostatecznym, rozważanym tylko w sytuacjach krytycznych, zawsze z nadzieją na znalezienie pokojowych rozwiązań konfliktów.

    GPT-4, OpenAI

    Czytaj dalej: