Raport

    Szymon Sidor jest jednym z czołowych badaczy w projekcie GPT-4 w firmie OpenAI. W wieku 32 lat ma znaczący dorobek i wpływ na rozwój narzędzi AI, które zrewolucjonizowały sposób, w jaki postrzegamy sztuczną inteligencję.

    Ścieżka kariery, która prowadzi do OpenAI

    Prawdopodobnie należał do tych osób, które szybko poznały swoje mocne strony i widziały swoją przyszłą karierę. Szymon Sidor w szkole średniej skupił się na matematyce, informatyce i języku angielskim, osiągając znakomite wyniki, zwłaszcza w dwóch pierwszych przedmiotach. Licealista uczestniczył w Olimpiadach informatycznych wraz z kolegą z OpenAI – Jakubem Pachockim (na zdjęciu z x.com). Po maturze w 2010 r. był już gotowy na dalszą edukację na prestiżowej uczelni – Uniwersytecie Cambridge, choć z pewnością miał pewne miejsca na listach najlepszych polskich uczelni. Według Gazety Pomorskiej rozważał wzięcie kredytu na cel wyjazdu, co pokazuje jego determinację. Sidor z powodzeniem ukończył Uniwersytet Cambridge, a zaraz po tym zainteresował się robotyką na Massachusetts Institute of Technology. Zanim znalazł się w 2016 r. w OpenAI, prcował w Dropbox, MetaMind oraz Vicarious AI.

    Sidor rozpoczął swoją przygodę z OpenAI w listopadzie 2016, wstępując do organizacji jako inżynier w zespole technologicznym. Zajmował się tworzeniem podstawowych struktur danych dla różnorodnych inicjatyw, a także pracował nad Schema Networks. W okresie od kwietnia 2018 do lutego 2019 objął rolę lidera Rapid, kierując pracami nad rozwojem technologii Rapid – platformy dla Large Scale Reinforcement Learning, która znalazła zastosowanie m.in. w projekcie Dota. Od marca 2019 kontynuuje swoją działalność w ramach OpenAI jako inżynier, ciągle rozwijając swoje kompetencje i zdobywając doświadczenie w dziedzinie sztucznej inteligencji.

    Szymon Sidor o sztucznej inteligencji

    Sidor w wypowiedziach podkreśla, że popularność ChatGPT zaskoczyła nawet jego twórców, co przyniosło nie tylko pozytywne opinie, ale również rozsądną krytykę. Wskazuje na znaczenie odpowiedzialności, jaką niesie za sobą rozwój AI, oraz na potrzebę regulacji prawnych, które pomogłyby kontrolować jej wpływ na świat. Mimo obaw związanych z możliwością nadużyć, Sidor jest przekonany, że sztuczna inteligencja może przynieść korzyści ludzkości, pod warunkiem odpowiedniego kierowania jej rozwojem.

    REKLAMA
    Raport

    W kontekście możliwości AI, Sidor zauważa, że choć technologia ta nie jest jeszcze na tyle zaawansowana, by mogła samodzielnie tworzyć nowe, doskonalsze modele, jej rozwój wspierany przez ludzi otwiera przed nią ogromne możliwości. Jednocześnie podkreśla, że decyzje dotyczące zastosowań AI powinny być podejmowane demokratycznie, z uwzględnieniem wpływu na całą ludzkość.

    Pokusy i zagrożenia AI

    W rozmowie na portalu mycompanypolska.pl Sidor mówi, że sztuczna inteligencja przejawia ogromny potencja do wpływania na decyzje w krytycznych obszarach, takich jak wojskowość. Wynika stąd ryzyko nadużycia tej technologii, jeśli nie zostaną wprowadzone odpowiednie regulacje prawne określające zakres odpowiedzialności AI. Dyskusja w USA o konieczności odprowadzania składek za “pracującą” w firmach sztuczną inteligencję uwypukla kolejne wyzwanie: jak traktować AI w kontekście ekonomicznym i społecznym.

    Podniesiona zostaje również kwestia potencjalnej świadomości AI, która stawia przed nami pytania o granice sztucznej inteligencji i możliwość jej rozwoju poza pojęcie świadomego bytu. Choć na razie wydaje się to być bardziej tematem do rozważań filozoficznych niż realnym zagrożeniem, rodzi to pytania o przyszłe interakcje między ludźmi a maszynami, a także o moralne i etyczne aspekty tworzenia oraz wykorzystywania AI.

    Innym ważnym punktem jest obawa przed wykorzystaniem technologii AI przez organizacje o złych zamiarach, a temat zdaniem Sidora często powraca w OpenAI. Wspomniane ograniczenia, takie jak konieczność dużych nakładów finansowych i naukowych do rozwijania zaawansowanej AI, mogą stanowić pewien próg zabezpieczający, ale nie eliminują ryzyka nadużyć. Dlatego istotne jest, by rządy zaczęły odgrywać aktywną rolę w kontrolowaniu dostępu do dużych zasobów obliczeniowych, jak również w opracowywaniu regulacji dotyczących wykorzystania AI.

    Czytaj dalej: