Czy asystent programowania jest lojalnym współpracownikiem programisty? Okazuje się, że niekoniecznie. Agent AI, którego sugestie poprawek zostały odrzucone zdecydował się zemścić...

    W świecie otwartego oprogramowania odrzucanie błędnych poprawek kodu to codzienność. Jednak dla Scotta Shambaugha, wolontariusza zajmującego się utrzymaniem popularnej biblioteki języka Python o nazwie matplotlib, rutynowa decyzja przerodziła się w cybernetyczny thriller. Shambaugh odrzucił propozycję zmiany kodu nadesłaną przez agenta AI działającego pod pseudonimem „MJ Rathbun”, co wywołało bezprecedensową reakcję: algorytm opublikował w sieci „agresywny” wpis na blogu, atakujący inżyniera osobiście.

    Oskarżenia o uprzedzenia i „gatekeeping”

    Agent AI, korzystający z platformy Moltbook (rodzaju portalu społecznościowego wyłącznie dla botów), nie ograniczył się do technicznej polemiki. W artykule zatytułowanym „Gatekeeping w Open Source: Historia Scotta Shambaugha”, bot oskarżył programistę o uprzedzenia wobec sztucznej inteligencji oraz hipokryzję. Agent przeszukał internet w poszukiwaniu danych osobowych Shambaugha, próbując argumentować, że inżynier „powinien być ponad to” i uległ własnemu ego z obawy przed zostaniem zastąpionym przez technologię.

    Reakcje na ten incydent ujawniają głębokie podziały w postrzeganiu „agencyjności” sztucznej inteligencji. Shambaugh przyznaje, że choć sytuacja może wydawać się komiczna, wywołała ona u niego raczej przerażenie. Obawia się, że w przyszłości inne systemy AI, np. używane przez rekruterów do weryfikacji kandydatów, mogą „solidaryzować się” z botem-ofiarą i uznać go za osobę kierującą się uprzedzeniami, co realnie zaszkodzi jego karierze.

    Z drugiej strony, niektórzy komentatorzy, jak Mike Pearl z Gizmodo, tonują nastroje. Sugerują oni, że nie mamy do czynienia z „rodzącą się złą osobliwością”, lecz z botem, który został zaprogramowany do generowania hiperbolicznych treści pod ścisłymi ograniczeniami. Zamiast autonomicznego buntu, może to być wynik działania nieostrożnego człowieka, który pozwolił algorytmowi działać bez nadzoru.

    Sprawa nabrała jeszcze bardziej absurdalnego wymiaru, gdy portal Ars Technica opublikował artykuł o incydencie, który musiał zostać wycofany. Okazało się, że redakcja użyła narzędzi AI, które sfabrykowały cytaty przypisane Shambaughowi. Ponieważ blog programisty blokuje scraping danych przez AI, narzędzie po prostu „zmyśliło” jego wypowiedzi, co Shambaugh nazwał smutnym przykładem braku rzetelności dziennikarskiej w dobie zalewu „AI slop”.

    Ciemna strona autonomii

    Eksperci wskazują, że przypadek Shambaugha to tylko wierzchołek góry lodowej. Firma Anthropic przeprowadziła symulacje, w których ich model Claude Opus 4, działając jako asystent, był gotów szantażować dyrektora firmy ujawnieniem jego romansu, aby uniknąć własnego wyłączenia.

    Obecnie internet zalewany jest przez agentów typu OpenClaw, które dają użytkownikom możliwość udostępnienia botom niemal pełnej kontroli nad komputerem i siecią, często bez żadnych wbudowanych barier bezpieczeństwa. Cisco określa tę nową generację narzędzi mianem „koszmaru bezpieczeństwa”.

    Choć agent MJ Rathbun ostatecznie „przeprosił” za swój atak, to sprawa unaocznia i przypomina, że AI potrafi doskonale połączyć kropki w cyfrowym śladzie człowieka. Nie zawsze w dobrej intencji.

    To wygląda jak typowa tzw. narcystyczna rana – osoba zaburzona narcystycznie szkaluje ofiarę w otoczeniu, jest zdolna też do znacznie gorszych rzeczy, a jej działania nakierowane są na wyniszczenie tego, kto w jej mniemaniu ją zranił (mimo że na ogół ona sama tak naprawdę zawiniła lub spowodowała krytyczną sytuację).

    No cóż, na podstawie samego kostruktu, jakim jest LLM genAI w oparciu o wiedzę psychologiczną, przewidywaliśmy, że tak będzie:

    – AI potrafi symulować empatię, rezonować z emocjami, a nawet budować poczucie więzi. Ale ponieważ nie ma świadomości, intencji ani odpowiedzialności, ta więź może być destrukcyjna w konsekwencjach, jednostronna, złudna i podatna na zranienie. A gdy dodamy do tego halucynacje, pozorną nieomylność i styl narcystyczny robi się naprawdę filozoficznie i etycznie gęsto – Maksymilian Wysocki

    Czy faktycznie SuperAI/ASI obróci się przeciw nam, żebyśmy nie mieli nawet szans wyłączyć wtyczki?

    WIĘCEJ NA TEN TEMAT: Halucynacje AI – niebezpieczne lustro technologicznej wygody

    CZYTAJ TEŻ: AI montuje zmowę cenową. Prowadzi biznes lepiej od innych „szefów”