Demo

    Entuzjasta X i udziałowiec Reddita Sam Altman doznał w poniedziałek olśnienia: boty sprawiły, że nie da się już ustalić, czy posty w mediach społecznościowych są naprawdę pisane przez ludzi — napisał.

    To uświadomienie przyszło do niego podczas czytania (i udostępniania) postów z subreddita r/Claudecode, które wychwalały OpenAI Codex. OpenAI uruchomiło tę usługę programistyczną w maju, jako konkurencję dla Claude Code od Anthropic.

    Ostatnio subreddit ten został wręcz zalany postami rzekomych użytkowników Code, którzy ogłaszali, że przeszli na Codex. Jeden z użytkowników Reddita zażartował nawet: „Czy da się przejść na Codex, nie zakładając przy tym wątku na Reddicie?”.

    To skłoniło Altmana do zastanowienia się, ilu z tych autorów to prawdziwi ludzie. „Miałem najdziwniejsze doświadczenie podczas czytania tego: zakładam, że to wszystko fałszywe/boty, mimo że w tym przypadku wiem, że wzrost Codex jest naprawdę silny i trend jest prawdziwy” — wyznał na X.

    Następnie na żywo przeanalizował swoje rozumowanie. „Myślę, że dzieje się tu kilka rzeczy: prawdziwi ludzie przejęli manieryzmy charakterystyczne dla języka LLM, środowisko ‘Extremely Online’ dryfuje razem w bardzo skorelowany sposób, cykl hype’u ma bardzo skrajny charakter w stylu ‘już po wszystkim/jesteśmy z powrotem’, presja optymalizacji ze strony platform społecznościowych nastawionych na zwiększanie zaangażowania oraz powiązany z tym sposób monetyzacji twórców, inne firmy stosowały wobec nas astroturfing, więc jestem na to szczególnie wyczulony, a także cała masa innych rzeczy (w tym prawdopodobnie nieco botów).”

    Zalew botów

    Mówiąc prościej, oskarża ludzi o to, że zaczynają brzmieć jak LLM-y, mimo że LLM-y — rozwijane przez OpenAI — zostały wymyślone właśnie po to, by naśladować ludzką komunikację, aż po stosowanie pauzy (—). Modele OpenAI były niewątpliwie trenowane na danych z Reddita, gdzie Altman zasiadał w zarządzie do 2022 roku i został ujawniony jako znaczący akcjonariusz podczas IPO firmy w ubiegłym roku.

    Altman trafnie zauważa, że fandomy, prowadzone przez wyjątkowo aktywnych użytkowników mediów społecznościowych, mają tendencję do dziwnych zachowań. Wiele grup potrafi zamienić się w wylewnie hejterskie przestrzenie, jeśli zostaną zdominowane przez sfrustrowanych użytkowników.

    Altman wbija też szpilę w system motywacji, gdy serwisy społecznościowe i twórcy polegają na zaangażowaniu jako źródle dochodów. Słuszna uwaga.

    Ale Altman wyznaje także, że jednym z powodów, dla których uważa, że pro-OpenAI posty w tym subreddicie mogą być botami, jest fakt, że OpenAI również było ofiarą „astroturfingu”. Zazwyczaj polega to na postach publikowanych przez ludzi lub boty opłacane przez konkurenta, ewentualnie przez podwykonawcę trzeciego stopnia, co daje konkurentowi możliwość wiarygodnego zaprzeczenia.

    Nie mamy dowodów na astroturfing (choć jest to możliwe). Widzieliśmy jednak, jak subreddity poświęcone OpenAI odwróciły się od firmy po wydaniu GPT 5.0. Zamiast fali zachwytów nad nowym modelem, pojawiło się wiele gniewnych postów, które zyskały popularność. Ludzie masowo narzekali na Reddicie i X — na wszystko, od osobowości GPT po to, jak szybko zużywa kredyty, nie kończąc zadań.

    Dzień po burzliwej premierze Altman przeprowadził sesję AMA na Reddicie w r/GPT, gdzie przyznał się do problemów z wdrożeniem i obiecał zmiany. Subreddit GPT nigdy nie odzyskał wcześniejszego poziomu uwielbienia, a użytkownicy nadal regularnie piszą, jak bardzo nie podoba im się GPT 5.0. Czy są to ludzie? Czy też — jak zdaje się sugerować Altman — w pewnym sensie fałszywe byty?

    Altman podsumował: „Efekt netto jest taki, że AI Twitter/AI Reddit wydaje się teraz bardzo fałszywy, w sposób, w jaki naprawdę nie był rok czy dwa lata temu.”

    Jeśli to prawda, to czyja to wina?

    GPT sprawił, że modele stały się tak dobre w pisaniu, iż LLM-y stały się plagą nie tylko dla mediów społecznościowych (które zawsze miały problem z botami), ale także dla szkół, dziennikarstwa i sądów.

    Nie wiemy, ile postów na Reddicie piszą boty lub fikcyjne konta prowadzone przez ludzi z pomocą LLM-ów, ale prawdopodobnie jest to znaczna liczba. Firma zajmująca się bezpieczeństwem danych Imperva podała, że w 2024 roku ponad połowa ruchu w internecie pochodziła od podmiotów nieludzkich, głównie za sprawą LLM-ów. Bot Grok, należący do X, mówi: „Dokładne liczby nie są publiczne, ale szacunki z 2024 roku wskazują na setki milionów botów na X.”

    Kilku cyników zasugerowało, że lament Altmana to jego pierwsza próba marketingu rzekomej platformy społecznościowej OpenAI. W kwietniu The Verge donosił, że taki projekt, mający konkurować z X i Facebookiem, znajdował się w najwcześniejszej fazie. Produkt ten może istnieć lub nie. Altman mógł mieć lub nie mieć ukrytych motywów, sugerując, że media społecznościowe są dziś zbyt fałszywe.

    Ale niezależnie od motywów, jeśli OpenAI rzeczywiście planuje sieć społecznościową, jakie są szanse, że będzie to strefa wolna od botów? Co zabawne, gdyby odwrócić sytuację i zakazać ludzi, wyniki prawdopodobnie nie byłyby inne. LLM-y wciąż halucynują fakty, a gdy badacze z Uniwersytetu Amsterdamskiego zbudowali sieć społeczną składającą się wyłącznie z botów, odkryli, że boty szybko tworzą własne kliki i komory echa.

    Czytaj też: