Śledztwo dziennikarskie przeprowadzone we współpracy z kenijską dziennikarką Naipanoi Lepapą odsłania niepokojące kulisy działania okularów Meta Ray-Ban. Jeden z cytowanych anotatorów AI, zatrudnionych przez Meta, stwierdza: „Gdyby ludzie wiedzieli o skali gromadzenia tych danych, nikt nie odważyłby się używać tych okularów”.

    Meta RayBan to produkt reklamowany jako nowoczesny asystent ułatwiający życie i pracę, ale w rzeczywistości za algorytmami sztucznej inteligencji wre praca tysięcy ludzi w krajach o niskich dochodach. Uczą oni sztuczną inteligencję rozpoznawania obrazów a przy okazji mają wgląd w najbardziej intymne sfery życia użytkowników. Szczegóły ujawnia reportaż opublikowany przez szwedzkie gazety Svenska Dagbladet i Göteborgs-Posten (https://www.svd.se/a/K8nrV4/metas-ai-smart-glasses-and-data-privacy-concerns-workers-say-we-see-everything ).

    Ludzki „silnik” sztucznej inteligencji w Nairobi

    Z dala od Doliny Krzemowej, w stolicy Kenii, Nairobi, mieści się firma Sama, podwykonawca Mety. Tysiące pracowników, zwanych „anotatorami danych”, spędza tu po dziesięć godzin dziennie przed monitorami, opisując i etykietując zdjęcia oraz nagrania wideo przesyłane przez okulary Meta RatBan. Ich zadaniem jest „nauka” systemów AI rozpoznawania przedmiotów, takich jak doniczki czy znaki drogowe, aby uczynić technologię bardziej „ludzką”.

    Śledztwo dziennikarskie, oparte na wywiadach z ponad trzydziestoma pracownikami firmy Sama, ujawnia jednak, że do systemu trafiają materiały o całkowicie prywatnym charakterze. Pracownicy zeznali, że widzieli nagrania przedstawiające:

    • wizyty w toalecie i rozbierające się osoby, które wydawały się nieświadome faktu bycia nagrywanym;
    • sceny seksualne nagrane bezpośrednio przez użytkowników noszących okulary;
    • dane wrażliwe, takie jak numery kart bankowych czy treści prywatnych czatów.

    Mimo że Meta zapewnia o stosowaniu algorytmów rozmazujących twarze (anonimizacji), pracownicy i byli urzędnicy firmy przyznają, że technologia ta często zawodzi, szczególnie w trudnych warunkach oświetleniowych, co pozwala na identyfikację osób na nagraniach.

    Błędne informacje w szwedzkich sklepach

    Dziennikarze SvD i GP odwiedzili dziesięć salonów optycznych w Sztokholmie i Göteborgu, udając klientów zainteresowanych zakupem okularów. Wyniki tych wizyt wykazały głęboki brak wiedzy personelu sprzedażowego na temat przetwarzania danych. Sprzedawcy często uspokajali reporterów, twierdząc, że użytkownik ma pełną kontrolę nad prywatnością, a dane pozostają „lokalnie w aplikacji”, co okazało się nieprawdą.

    Testy przeprowadzone przez zespół śledczy we współpracy z deweloperem systemowym wykazały, że:

    1. Funkcje AI nie działają bez połączenia z internetem, co wymusza przesyłanie danych do serwerów Mety.
    2. Nawet jeśli użytkownik nie wyrazi zgody na udostępnianie „dodatkowych danych”, głos, tekst i obrazy muszą zostać przetworzone przez infrastrukturę Mety, aby asystent mógł odpowiedzieć na pytanie.
    3. Analiza ruchu sieciowego wykazała regularną komunikację aplikacji z serwerami w Szwecji (Luleå) i Danii.

    Pułapka regulaminów i brak przejrzystości

    Eksperci od ochrony danych, w tym prawniczka Kleanthi Sardeli z organizacji NOYB oraz specjaliści ze szwedzkiego organu ochrony prywatności (IMY), wskazują na poważne problemy z transparentnością. Choć regulaminy Mety wspominają o możliwości „ludzkiej recenzji” interakcji z AI, użytkownicy często nie zdają sobie sprawy, że ich codzienne życie staje się materiałem treningowym dla pracowników w Kenii.

    Meta, w oficjalnych odpowiedziach na pytania dziennikarzy, unikała bezpośredniego odniesienia się do kwestii intymnych nagrań trafiających do Kenii, odsyłając jedynie do swoich polityk prywatności. Firma podkreśla, że jako podmiot globalny musi przesyłać i przetwarzać dane na całym świecie. Tymczasem, jak zauważają eksperci, Unia Europejska nie uznała dotychczas Kenii za kraj zapewniający odpowiedni poziom ochrony danych, co stawia pod znakiem zapytania legalność takich transferów w świetle RODO.

    Cytowany w materiale jeden z pracowników w Nairobi stwierdził: „Gdyby ludzie wiedzieli o skali gromadzenia tych danych, nikt nie odważyłby się używać tych okularów”.

    CZYTAJ TEŻ: Nowe prawo w USA zmusi gigantów AI do ujawnienia tych tajemnic

    CZYTAJ TEŻ: Unia Europejska reguluje AI jako pierwsza. Trzeba powstrzymać „Raport mniejszości”, bo to już się dzieje