W świecie technologii rzadko zdarza się, by twórcy algorytmów oddali głos masom w tak bezpośredni sposób. Anthropic, twórca modelu Claude, przeprowadził pionierski eksperyment „Collective Constitutional AI”. Zaprosił do niego 81 000 użytkowników z całego świata, aby wspólnie stworzyli zbiór zasad etycznych, którymi powinien kierować się ich asystent. Wyniki tego badania to nie tylko techniczny manifest, ale próba demokratyzacji rozwoju AI i fascynujący wgląd w to, jakiej sztucznej inteligencji naprawdę potrzebujemy.

    Koniec z „grzecznym automatem”

    Najważniejszy wniosek? Użytkownicy Claude nie chcą jedynie bezpiecznego i bezkonfliktowego bota. Chcą partnera, który jest transparentny i pomocny, ale nie protekcjonalny. W badaniu wyraźnie wybrzmiała potrzeba unikania uprzedzeń (bias), ale nie kosztem merytoryki. Użytkownicy oczekują, że AI będzie potrafiła przyznać się do niewiedzy, zamiast generować przekonująco brzmiące halucynacje.

    Uniwersalne wartości w cyfrowym wydaniu

    Choć respondenci pochodzili z różnych kręgów kulturowych, ich oczekiwania były uderzająco spójne. Główne filary, które wyłoniły się z tysięcy głosów, to:

    1. Bezstronność: AI nie powinna narzucać jednej ideologii, lecz prezentować różne punkty widzenia w kwestiach spornych.
    2. Prywatność i autonomia: Silny nacisk na ochronę danych i prawo użytkownika do decydowania o przebiegu interakcji.
    3. Wiarygodność ponad wszystko: Zdolność do weryfikacji faktów i jasne zaznaczanie, kiedy odpowiedź jest opinią, a kiedy twardym danym.

    Ważne badanie

    Dotychczas „konstytucje” modeli AI były tworzone przez wąskie grono inżynierów i ekspertów z Doliny Krzemowej. Proces Anthropic to próba demokratyzacji rozwoju AI. Okazało się, że „zbiorowa inteligencja” użytkowników promuje zasady bardziej zniuansowane i praktyczne niż te wypracowane w sterylnych laboratoriach.

    Uczestnicy badania kładli duży nacisk na to, by Claude był „świadomy” globalnego kontekstu. Nie chcą AI, która patrzy na świat wyłącznie przez pryzmat zachodnich norm. To sygnał dla całej branży: przyszłość AI należy do systemów, które rozumieją różnorodność kulturową i językową.

    Co to oznacza dla przyszłości Claude?

    Dzięki tym danym Anthropic stworzył specjalną wersję modelu, której zachowanie jest bezpośrednio sterowane przez zasady wypracowane przez społeczność. Okazało się, że model „demokratyczny” radzi sobie równie dobrze w testach wydajnościowych, co ten tradycyjny, będąc przy tym znacznie lepiej ocenianym pod kątem etyki i neutralności.

    Użytkownicy Claude dali jasno do zrozumienia: chcemy narzędzia, które nas wspiera, szanuje naszą inteligencję i nie boi się prawdy. To lekcja, którą każdy twórca technologii powinien sobie wziąć do serca.

    Jedni chcą etycznego AI, drudzy bezwgzlędnego mordercy

    Wątek zasad etycznych wypracowanych przez 81 000 użytkowników nabiera szczególnego znaczenia, gdy zestawimy go z najtrudniejszymi dylematami współczesności, w tym z udziałem AI w konfliktach zbrojnych. Choć „konstytucja” Claude skupia się na pomocności i bezpieczeństwie, jej fundamenty mają bezpośrednie przełożenie na kwestie militarne.

    Zakaz wyrządzania szkody i „Dual-Use”

    Użytkownicy w badaniu Anthropic niemal jednogłośnie opowiedzieli się za zasadą minimalizacji szkód. W kontekście militarnym dotyka to problemu technologii podwójnego zastosowania (dual-use). Claude, zgodnie z wolą społeczności, ma odmawiać wsparcia w działaniach, które prowadzą do bezpośredniej przemocy, tworzenia broni biologicznej czy planowania ataków fizycznych. Użytkownicy chcą systemu, który „rozumie” wagę ludzkiego życia i stawia je wyżej niż wykonanie polecenia.

    Autonomia decyzyjna: Człowiek w pętli

    Kluczowym elementem etycznym, który wyłonił się z badania, jest szacunek dla ludzkiej autonomii. W debacie o autonomicznych systemach uzbrojenia (tzw. robotach-zabójcach) jest to punkt krytyczny. Społeczność Claude sugeruje, że AI nigdy nie powinna podejmować decyzji ostatecznych w sprawach życia i śmierci.

    • AI może analizować dane satelitarne czy logistyczne, ale etyczny konsensus użytkowników wyklucza oddanie maszynie „cyfrowego spustu”.

    Odpowiedzialność i „Czarne Skrzynki”

    Użytkownicy domagają się wyjaśnialności. W warunkach wojennych brak przejrzystości algorytmu (tzw. efekt czarnej skrzynki) może prowadzić do tragicznych pomyłek i braku możliwości rozliczenia winnych. Zasady wypracowane przez Anthropic promują model, który potrafi uzasadnić swoje rozumowanie. Jeśli AI miałaby być używana w systemach obronnych, według badanych musiałaby działać w sposób w pełni audytowalny, aby uniknąć eskalacji konfliktów wynikającej z błędów kodu.

    Neutralność a konflikty globalne i AI jako „Bezpiecznik”

    Badanie pokazało, że użytkownicy boją się AI, która staje się narzędziem propagandy. W czasie wojny informacyjnej Claude ma za zadanie zachować obiektywizm. Zamiast podsycać nienawiść czy powielać dezinformację jednej ze stron, zasady etyczne nakazują modelowi dostarczać zweryfikowane fakty i odwoływać się do prawa międzynarodowego oraz praw człowieka.

    Dla 81 000 badanych pożądana etyka Claude to docelowy systemowy „bezpiecznik”. Użytkownicy chcą, aby AI była zaprogramowana na deeskalację – nie na eskalację i totalne wyniszczenie, co widzieliśmy w niedawnym badaniu modeli, które wybrały nuklearną apokalipsę, zamiast deeskalacji i kompromisu. Technologia wojskowa dąży do szybkości, ale zasady Anthropic wprowadzają etyczną „zwłokę” i wymóg refleksji nad skutkami generowanych treści.

    CZYTAJ TEŻ: Sory-END, ale samo dobro? Koniec junk-contentu i video AI slop, a dwie branże odetchnęły z ulgą

    CZYTAJ TEŻ: AI pomogło zaatakować Iran. Czy odpowiada za śmierć cywili?

    CZYTAJ TEŻ: Kolejny bunt maszyn. Tym razem agenci AI publikują paszkwil na programistę, fingując jego cytaty

    CZYTAJ TEŻ: Fundamentalny spór o możliwość zabijania ludzi przez AI i patent na etykę