Grupa pracowników z OpenAI oraz DeepMind stwierdziła, że nie mogą wyrażać swoich obaw dotyczących zagrożeń AI dla ludzkości z powodu umów poufności, braku ochrony sygnalistów oraz obaw przed odwetem pracodawców. Naukowcy wzięli sprawy w swoje ręce.

    Prawo do wiedzy o zagrożeniach AI – list otwarty ekspertów

    W liście opublikowanym 4 czerwca 2024 r., ponad tuzin obecnych i byłych pracowników OpenAI, DeepMind należącego do Google oraz Anthropic stwierdziło, że firmy zajmujące się AI muszą stworzyć kanały raportowania, które pozwolą pracownikom bezpiecznie wyrażać swoje obawy wewnątrz oraz publicznie. Zaznaczyli oni, że umowy poufności uniemożliwiają im publiczne omawianie tych kwestii.

    „Osoby posiadające największą wiedzę na temat funkcjonowania zaawansowanych systemów AI oraz ryzyk związanych z ich wdrażaniem nie są w pełni wolne w wyrażaniu swoich opinii”, powiedział były pracownik OpenAI, William Saunders, który podpisał list.

    Oprócz Saundersa, list podpisało sześciu innych byłych pracowników OpenAI. Czterech obecnych pracowników OpenAI oraz jeden były i jeden obecny pracownik laboratorium badawczego AI Google DeepMind również podpisali swoje nazwiska. Sześć z podpisujących się osób pozostało anonimowych.

    Trzech czołowych ekspertów AI poparło list: naukowiec AI Stuart Russell oraz Yoshua Bengio i Geoffrey Hinton, którzy są uznawani za „ojców chrzestnych” AI ze względu na swoje przełomowe badania. Hinton opuścił Google w zeszłym roku, aby móc swobodniej dyskutować o ryzykach związanych z technologią.

    Hinton i inni od lat ostrzegają przed zagrożeniami, jakie AI może stwarzać dla ludzkości. Niektórzy badacze AI uważają, że technologia może wymknąć się spod kontroli i stać się równie niebezpieczna jak pandemie czy broń nuklearna. Inni mają bardziej umiarkowane obawy, ale wierzą, że AI powinna być bardziej regulowana.

    OpenAI ma swoje zdanie

    OpenAI w odpowiedzi na list stwierdziło we wtorek, że zgadza się z koniecznością regulacji rządowych.

    „Jesteśmy dumni z naszego dotychczasowego dorobku w dostarczaniu najzdolniejszych i najbezpieczniejszych systemów AI oraz wierzymy w nasze naukowe podejście do adresowania ryzyka,” powiedziała rzeczniczka OpenAI. „Zgadzamy się, że rygorystyczna debata jest kluczowa, biorąc pod uwagę znaczenie tej technologii i będziemy nadal angażować się we współpracę z rządami, społeczeństwem obywatelskim oraz innymi społecznościami na całym świecie”.

    DeepMind i Anthropic, wspierane przez Amazon, nie odpowiedziały od razu na prośby o komentarz.

    OpenAI, startup założony w 2015 roku, wypuścił ChatGPT do użytku publicznego w 2022 roku. Chatbot stał się jednym z najbardziej wiralowych produktów AI, pomagając przekształcić OpenAI w firmę wartą miliardy dolarów. Sam Altman, lider OpenAI i jeden z architektów rewolucji AI, wielokrotnie podkreślał, że chce, aby technologia była rozwijana bezpiecznie.

    REKLAMA
    REKLAMA

    Podpisujący list stwierdzili, że obecni i byli pracownicy są jednymi z nielicznych, którzy mogą pociągnąć korporacje do odpowiedzialności, ponieważ nie ma szerokiego nadzoru rządowego nad firmami AI. Wyrazili obawy, że ludzie mogą stracić kontrolę nad autonomicznymi systemami AI, które z kolei mogą doprowadzić do wyginięcia ludzkości.

    Autorzy domagają się również, aby firmy pozwoliły pracownikom anonimowo zgłaszać obawy, aby nie mściły się na sygnalistach oraz aby nie zmuszały ich do podpisywania umów, które mogłyby ich uciszać. Chcą, aby firmy AI były bardziej przejrzyste i koncentrowały się na środkach ostrożności.

    Były pracownik OpenAI, Daniel Kokotajlo, który podpisał list, powiedział, że firmy ignorują ryzyka związane z AI w swoim wyścigu do rozwijania technologii.

    „Zdecydowałem się opuścić OpenAI, ponieważ straciłem nadzieję, że będą działać odpowiedzialnie, zwłaszcza dążąc do zbudowania sztucznej inteligencji ogólnej”, powiedział. „Oni i inni przyjęli podejście „działaj szybko i destrukcyjnie”, co jest przeciwieństwem tego, co jest potrzebne dla technologii tak potężnej i tak słabo zrozumianej”.

    The Wall Street Journal

    Czytaj dalej: