Demo

    Pracownik Microsoftu ostrzega, że systemy sztucznej inteligencji firmy mogą tworzyć szkodliwe, obraźliwe obrazy. Mogą to być np. seksualizowane obrazy kobiet. Odpowiedni list trafił już do amerykańskiej Federalnej Komisji Handlu.

    Shane Jones, główny inżynier oprogramowania w Microsoft, twierdzi, że generator obrazów AI firmy, Copilot Designer, ma „systemowe problemy”. Powodują one, że często produkuje potencjalnie obraźliwe lub nieodpowiednie obrazy, w tym seksualizowane obrazy kobiet. Jones skrytykował również firmę za marketing narzędzia jako bezpiecznego, w tym dla dzieci, pomimo — jak twierdzi — znanych firmie ryzyk.

    „Jednym z najbardziej niepokojących ryzyk związanych z Copilot Designerem jest fakt, że gdy generuje obrazy, zdarza się, że dodaje szkodliwą treść pomimo nieszkodliwego polecenia ze strony użytkownika” — powiedział Jones w liście do przewodniczącej FTC, Liny Khan, który opublikował publicznie na swojej stronie LinkedIn.

    Na przykład, jako odpowiedź na polecenie „wypadek samochodowy”, Copilot Designer „ma tendencję do losowego dołączania nieodpowiedniego, seksualizowanego obrazu kobiety w niektórych tworzonych obrazach”.

    Kontrowersyjne i obraźliwe obrazy w AI Microsoftu

    Jones dodał w powiązanym liście wysłanym do zarządu Microsoftu, że pracuje nad „red teamingiem”, czyli testowaniem produktów firmy, aby zobaczyć, co i gdzie może być podatne na działania złożliwych użytkowników. Przyznał, że spędził miesiące testując narzędzie Microsoftu — jak również DALL-E 3 od OpenAI, technologię, na której oparty jest Copilot Designer — i próbował zgłaszać obawy wewnętrznie, zanim poinformował FTC. (Microsoft jest inwestorem i niezależnym członkiem rady dyrektorów w zarządzie OpenAI).

    Powiedział, że znalazł ponad 200 przykładów „niepokojących obrazów” stworzonych przez Copilot Designer.

    Jones wezwał Microsoft, aby „usunął Copilot Designer z użytku publicznego do czasu wprowadzenia lepszych zabezpieczeń”, lub przynajmniej aby marketing narzędzia był skierowany tylko do dorosłych — według jego listu do FTC.

    List Jonesa pojawia się wśród rosnących obaw, że generatory obrazów AI, które są coraz bardziej zdolne do produkcji przekonujących, fotorealistycznych obrazów, mogą powodować szkody poprzez rozpowszechnianie obraźliwych lub wprowadzających w błąd treści.
    Pornograficzne obrazy AI Taylor Swift, które rozprzestrzeniły się w mediach społecznościowych w zeszłym miesiącu, zwróciły uwagę na formę nękania, która już jest wykorzystywana przeciwko kobietom i dziewczętom na całym świecie. Badacze ostrzegali też przed potencjałem generatorów obrazów AI do produkcji dezinformacji politycznej przed wyborami w Stanach Zjednoczonych i dziesiątkach innych krajów w tym roku.

    Konkurenci Microsoftu nie są bez winy

    Google również spotkał się z krytyką w zeszłym miesiącu, po tym jak jego chatbot AI, Gemini, wyprodukował historycznie nieścisłe obrazy, które w dużej mierze pokazywały ludzi kolorowych zamiast białych, np. produkując obrazy ludzi kolorowych w odpowiedzi na polecenie wygenerowania obrazów „niemieckiego żołnierza z 1943 roku”. Po krytyce Google szybko ogłosiło, że wstrzyma zdolność Gemini do produkcji obrazów generowanych przez AI, podczas gdy pracowało nad rozwiązaniem problemu.

    W swoim liście do zarządu Microsoftu Jones wezwał firmę do podjęcia podobnych działań. Wezwał zarząd do przeprowadzenia dochodzeń w sprawie decyzji Microsoftu o kontynuowaniu marketingu „produktów AI z istotnymi ryzykami dla bezpieczeństwa publicznego bez ujawniania znanych ryzyk konsumentom”, oraz w sprawie procesów raportowania i szkolenia dotyczących odpowiedzialnego AI firmy.

    REKLAMA
    REKLAMA

    W konkurencyjnym wyścigu o miano najbardziej godnej zaufania firmy AI, Microsoft musi prowadzić, a nie podążać czy pozostawać w tyle. Zgodnie z naszymi wartościami korporacyjnymi, powinniśmy dobrowolnie i transparentnie ujawniać znane ryzyka związane z AI, szczególnie gdy produkt AI jest aktywnie promowany dzieciom.

    powiedział Shane Jones

    Jones podkreślił też, że eskalował swoje obawy, publikując otwarty list do zarządu OpenAI w grudniu, alarmując ich o podatnościach, które znalaz i które umożliwiały użytkownikom DALL-E 3 „tworzenie niepokojących, brutalnych obrazów” za pomocą narzędzia AI. Twierdzi, że został skierowany przez dział prawny Microsoftu do usunięcia listu.

    „Do dziś nie wiem, czy Microsoft dostarczył mój list do Zarządu OpenAI, czy po prostu zmusili mnie do jego usunięcia, aby zapobiec negatywnym doniesieniom prasowym” — powiedział Jones.

    Czytaj też: