Demo

    Zjednoczone Królestwo oraz Stany Zjednoczone zawarły Memorandum of Understanding, aby promować bezpieczny i bardziej odpowiedzialny ekosystem sztucznej inteligencji. Porozumienie ma na celu zacieśnienie współpracy w zakresie bezpieczeństwa AI.

    To istotne memorandum, podpisane 1 kwietnia 2024 roku, stanowi ważny krok w relacjach międzynarodowych i zarządzaniu sztuczną inteligencją. Jego przesłaniem jest priorytetowe traktowanie rozwoju i testowania zaawansowanych narzędzi AI w ramach określonych standardów etycznych.

    Promowanie bezpiecznych systemów AI

    Na mocy Memorandum of Understanding, instytuty AI w UK i USA mają ściśle współpracować, dzieląc się wiedzą specjalistyczną, wynikami badań i ocenami jakości, aby wzmocnić protokoły bezpieczeństwa systemów AI. Partnerstwo to nie tylko o dzielenie się wiedzą, ale także o rozwijanie wspólnych możliwości poprzez wymianę informacji i bliską kooperację ekspertów.

    W ramach współpracy, instytuty AI w Wielkiej Brytanii oraz w Stanach Zjednoczonych określiły ramy inicjatywy nad podejściem do sztucznej inteligencji, aby skutecznie radzić sobie z ryzykiem. Obydwa kraje mają na celu przeprowadzenie co najmniej jednego wspólnego testu bezpieczeństwa na modelu dostępnym publicznie, korzystając ze wspólnego zbioru wiedzy specjalistycznej.

    UK i USA będą prekursorami współpracy dotyczącej sztucznej inteligencji

    Jest to pierwsze na świecie porozumienie między dwoma krajami, które ma na celu budowanie relacji na gruncie dyskusji prowadzonych podczas Szczytu Bezpieczeństwa AI w Wielkiej Brytanii w listopadzie 2023 roku. Wydarzenie to zgromadziło światowych liderów AI oraz przedstawicieli rządów, w tym Sama Altmana z OpenAI, Demisa Hassabisa z Google DeepMind i Elona Muska. Podczas szczytu, na którym obecni byli również premier Wielkiej Brytanii, Rishi Sunak oraz wiceprezydent USA, Kamala Harris, zarówno Wielka Brytania, jak i Stany Zjednoczone utworzyły Instytuty Bezpieczeństwa AI, mające za zadanie ocenę systemów AI, zarówno tych o otwartym, jak i zamkniętym kodzie źródłowym.

    Pozostała część artykułu pod materiałem wideo:

    Zgodnie z komunikatem prasowym rządu Wielkiej Brytanii na stronie gov.uk, porozumienie jest wzajemnym uznaniem przez oba rządy, że trzeba „działać już teraz” w celu zapewnienia wspólnego podejścia do bezpieczeństwa AI. Istnieje potrzeba, aby rządy i liderzy biznesowi nadążali za ciągle pojawiającymi się ryzykami związanymi z AI.

    W miarę wzmacniania partnerstwa w dziedzinie bezpieczeństwa AI, oba kraje zobowiązały się również do podobnych partnerstw na całym świecie w celu promowania globalnej odpowiedzialności w zakresie sztucznej inteligencji.

    Utrzymanie kontrolowanego rozwoju AI

    W ostatnich miesiącach osoby działające w sektorze AI intensywnie pracowały nad inicjatywami mającymi na celu zwiększenie bezpieczeństwa sztucznej inteligencji. Postępy w innowacjach dokonywane przez wiodące światowe firmy idą w parze z nowymi regulacjami dotyczącymi AI, takimi jak nadchodzący akt prawny o AI w UE.

    Sekretarz ds. handlu rządu USA, Gina Raimondo, stwierdziła, że porozumienie umożliwi obu rządom lepsze zrozumienie systemów AI, co pozwoli im na lepsze doradztwo. „Przyspieszy to pracę obu naszych instytutów nad całym spektrum ryzyka, czy to związanego z naszym bezpieczeństwem narodowym, czy szerszym – społecznym”, powiedziała. „Nasze partnerstwo jasno pokazuje, że nie uciekamy od tych obaw – stawiamy im czoła”.

    REKLAMA
    REKLAMA

    Obawy i aspiracje

    Rosną także obawy dotyczące bezpieczeństwa AI z perspektywy biznesowej, ponieważ technologia ta jest coraz częściej wykorzystywana w sposób złośliwy, wpływając cyfrowo na organizacje. UK i USA podkreślają, że uregulowany rozwój tych systemów jest globalnym priorytetem. Ich praca ma na celu stworzenie wspólnego i trwałego podejścia do testowania bezpieczeństwa AI, z rządami i biznesem.

    „Musimy zobaczyć, jak globalne mocarstwa takie jak USA i UK przekształcają swoją łagodną retorykę w konkretne regulacje”, komentuje naukowiec AI, Peter van der Putten, szef laboratorium AI w Pegasystems. „W miarę gdy coraz więcej krajów zaczyna właściwie regulować używanie AI, firmy zaczynają zdawać sobie sprawę, że muszą robić więcej niż tylko mówić o używaniu tej technologii w moralny i etyczny sposób – mogą wkrótce musieć także zacząć tak działać”.

    Czytaj dalej: