Dziesiątki znanych postaci ze świata biznesu i polityki wzywają światowych liderów do zajęcia się „egzystencjalnymi ryzykami związanymi ze sztuczną inteligencją” oraz kryzysem klimatycznym.

    Założyciel Grupy Virgin, Richard Branson, wraz z byłym Sekretarzem Generalnym Organizacji Narodów Zjednoczonych Ban Ki-moonem, oraz Charlesem Oppenheimerem — wnukiem amerykańskiego fizyka J. Roberta Oppenheimera — podpisali otwarte pismo nawołujące do działania przeciwko eskalującym niebezpieczeństwom kryzysu klimatycznego, pandemii, broni jądrowej oraz nieuregulowanej sztucznej inteligencji.

    Oppenheimer obawia się AI

    W swojej wiadomości proszą światowych liderów o:

    • Przyjęcie strategii długoterminowej
    • Determinację do rozwiązywania nieustających problemów, a nie tylko zarządzania nimi
    • Mądrość do podejmowania decyzji opartych na dowodach naukowych
    • Rozsądku oraz pokory, aby słuchać wszystkich zainteresowanych stron

    Sygnatariusze wezwali do pilnych działań, w tym poprzez finansowanie przejścia od paliw kopalnych, podpisanie sprawiedliwego traktatu pandemicznego, wznowienie rozmów na temat kontroli zbrojeń jądrowych oraz budowę globalnego zarządzania potrzebnego, aby „uczynić AI siłą dobra”.

    List został opublikowany w czwartek przez The Elders, organizację pozarządową, która została uruchomiona przez byłego prezydenta Południowej Afryki Nelsona Mandelę i Bransona w celu zajęcia się globalnymi problemami praw człowieka i promowania pokoju na świecie.

    Silne wsparcie z różnych stron

    Wiadomość jest również wspierana przez Future of Life Institute, organizację non-profit założoną przez kosmologa z MIT Maxa Tegmarka i współzałożyciela Skype’a Jaana Tallinna, która ma na celu kierowanie transformacyjną technologią, jaką jest AI, w kierunku przynoszenia korzyści życiu, a nie w stronę dużych ryzyk.

    Tegmark powiedział, że The Elders i jego organizacja chcieli przekazać, że choć technologia sama w sobie nie jest „zła”, pozostaje „narzędziem”, które może prowadzić do poważnych konsekwencji, jeśli zostanie pozostawione do szybkiego rozwoju w rękach niewłaściwych osób.

    Oto przykłady takich konsekwencji, o jakich pisaliśmy niedawno na AI Driven:

    List został wydany przed Monachijską Konferencją Bezpieczeństwa, na której urzędnicy rządowi, liderzy wojskowi i dyplomaci będą dyskutować o bezpieczeństwie międzynarodowym w kontekście eskalujących globalnych konfliktów zbrojnych, w tym wojen Rosja-Ukraina i Izrael-Hamas.

    Future of Life Institute w zeszłym roku również opublikowało otwarte pismo wspierane przez czołowe postacie, w tym szefa Tesli Elona Muska i współzałożyciela Apple’a Steve’a Wozniaka, które wzywało laboratoria AI, takie jak OpenAI, do wstrzymania pracy nad trenowaniem modeli AI potężniejszych niż GPT-4 — obecnie najbardziej zaawansowany model AI od OpenAI.

    REKLAMA
    REKLAMA

    Eksperci, w tym Oppenheimer, wezwali do takiej przerwy w rozwoju AI, aby uniknąć „utraty kontroli” nad cywilizacją, co mogłoby skutkować masowym zniknięciem miejsc pracy i przewyższeniem ludzi przez komputery.

    Materiał wideo dołączony do listu (j. angielski):