Raport

    W erze generatywnej sztucznej inteligencji, w której kolejne platformy z entuzjazmem testują modele LLM, Wikipedia wybrała ostrożność. Po burzliwych reakcjach społeczności redaktorów, Fundacja Wikimedia wstrzymała testy AI-generowanych podsumowań artykułów. Eksperyment miał trwać zaledwie dwa tygodnie, ale skończył się szybciej, niż rozpoczął. Powód? Obawy o reputację, wiarygodność i przyszłość encyklopedii jako źródła wiedzy tworzonego przez ludzi.

    AI na Wikipedii – co dokładnie planowano?

    Projekt nazwany „Simple Article Summaries” miał na celu zwiększenie dostępności treści Wikipedii. Pomysł zrodził się podczas konferencji Wikimania 2024, gdzie rozważano, jak ułatwić czytanie trudnych i technicznych haseł. Część uczestników sugerowała, że sztuczna inteligencja mogłaby tworzyć prostsze wersje złożonych artykułów.

    W praktyce test polegał na wyświetlaniu skrótu generowanego przez model językowy Aya firmy Cohere – na górze artykułu, w formie rozwijanej sekcji oznaczonej jako „nieweryfikowana”. Choć funkcja była opcjonalna i skierowana do użytkowników rozszerzenia przeglądarkowego Wikipedii, wystarczyło to, by wzbudzić masowy sprzeciw.

    „To nie Google” – czyli redaktorzy o granicach automatyzacji

    Redaktorzy nie pozostawili złudzeń: ich sprzeciw był głośny, jednoznaczny i wielowątkowy. Wśród cytowanych komentarzy pojawiały się określenia takie jak „bardzo zły pomysł”, „absolutnie nie” czy „najsilniejszy możliwy sprzeciw”. Z serwisu 404 dowiadujemy się więcej o reakcjach Wikipedystów.

    „To wyrządziłoby natychmiastową i nieodwracalną szkodę naszym czytelnikom i naszej reputacji jako w miarę wiarygodnego i poważnego źródła”.

    Inny porównał pomysł z próbą doścignięcia Google i jego kontrowersyjnych AI Overviews:

    „Wikipedia stała się synonimem powściągliwej, wręcz nudnej rzetelności – i to jest znakomite. Nie obrażajmy inteligencji naszych czytelników, goniąc za modą na efektowne streszczenia AI”.

    Wspomniane przez redaktorów Google AI Overviews stały się symbolem problemów: niezweryfikowane informacje, halucynacje i porady w stylu „jedz klej”, które kompromitowały nie tylko wyszukiwarkę, ale i ideę używania AI do prezentacji wiedzy bez nadzoru.

    Wikipedia jako bastion ręcznej moderacji

    Wikipedia przetrwała falę dezinformacji lepiej niż inne platformy – między innymi dlatego, że nadal opiera się na pracy ludzi. Redaktorzy uznali, że wprowadzenie AI-podsumowań w sposób scentralizowany, bez mechanizmów moderacyjnych, oznaczałoby zniszczenie dekad wypracowanej polityki neutralności i weryfikowalności.

    Jeden z redaktorów trafnie podsumował:

    „Tak, redaktorzy też mogą popełniać błędy. Ale jako kolektyw tworzymy wiarygodny zasób wiedzy. AI to jeden ‘redaktor’ z problemami z neutralnością, a nikt nie ma nad nim kontroli”.

    Reakcja Wikimedia Foundation: „Rozumiemy, cofamy się”

    Fundacja Wikimedia, zaskoczona skalą oporu, wstrzymała wdrożenie testu i wydała oficjalne oświadczenie. Potwierdzono, że celem projektu była poprawa czytelności artykułów, zwłaszcza dla osób z niższym poziomem edukacji lub nieznających specjalistycznej terminologii. Podkreślono, że nie planuje się wprowadzenia jakichkolwiek funkcji AI bez udziału społeczności redaktorów.

    Projekt menedżer dodał z pokorą:

    „Wprowadzanie generatywnej AI do Wikipedii to poważna decyzja. Powinniśmy byli lepiej otworzyć dialog. Teraz wiemy, że każde przyszłe działanie musi być oparte na transparentnej współpracy”.

    Co dalej? Wikipedia zostaje przy ludziach, przynajmniej na razie

    Choć Fundacja nie zamyka tematu na zawsze, wyciągnięto jeden ważny wniosek: każda automatyzacja musi iść w parze z redakcyjnym nadzorem i mechanizmami zgłaszania błędów. Wikipedia, jako symbol internetowej współpracy i kolektywnej odpowiedzialności, nie zamierza – przynajmniej na tym etapie – upodabniać się do komercyjnych platform takich jak Google czy Bing.

    W świecie zalewanym przez AI-generowany szum, decyzja Wikipedii może być sygnałem dla innych: technologia powinna służyć ludziom, ale nie zastępować ich w pełni tam, gdzie stawką jest jakość wiedzy i zaufanie.

    Czytaj dalej: