Przekonanie, że posługiwanie się pseudonimem w mediach społecznościowych zapewnia wystarczającą ochronę prywatności, zapewne nigdy nie było zbyt silne, ale teraz właśnie całkowicie legło w gruzach.

    Badania naukowców z ETH Zurich oraz firmy Anthropic dowodzą, że duże modele językowe (LLM) potrafią z zaskakującą precyzją łączyć anonimowe profile z prawdziwą tożsamością użytkowników, operując na ogromną skalę i przy minimalnych kosztach. Nie tylko Reddit i Wykop są zagrożone.

    Nowa broń w rękach cyfrowych detektywów

    Tradycyjne metody dezanonimizacji wymagały dotychczas albo ustrukturyzowanych zbiorów danych, albo żmudnej pracy wykwalifikowanych śledczych. Według badaczy, algorytmy AI potrafią analizować nieustrukturyzowany tekst, taki jak posty na Reddicie czy komentarze na Hacker News, i na jego podstawie tworzyć szczegółowe profile psychograficzne.

    Naukowcy opracowali framework o nazwie ESRC, który dzieli proces demaskowania na cztery etapy:

    1. Ekstrakcja (Extract): AI wyciąga z postów cechy tożsamościowe, takie jak lokalizacja, zawód, zainteresowania czy specyficzny styl pisania.
    2. Wyszukiwanie (Search): zakodowane cechy są porównywane z milionami publicznych profili (np. na LinkedIn) w celu znalezienia kandydatów.
    3. Rozumowanie (Reason): model analizuje dowody i ocenia, czy dany profil anonimowy i publiczny należą do tej samej osoby.
    4. Kalibracja (Calibrate): system szacuje pewność swojego wyboru, co pozwala na ograniczenie liczby błędnych trafień.

    Skuteczność, która budzi niepokój

    Wyniki eksperymentów są alarmujące. W jednym z testów naukowcom udało się poprawnie zidentyfikować 67% użytkowników serwisu Hacker News, łącząc ich anonimowe profile z kontami na LinkedIn przy zachowaniu 90-proc. precyzji. AI radziło sobie świetnie nawet wtedy, gdy użytkownik poruszał bardzo ogólne tematy. W przypadku dyskusji o filmach na Reddicie, wystarczyło wspomnienie o 10 lub więcej tytułach, by skuteczność identyfikacji wzrosła do niemal 50%.

    Przełomem jest fakt, że AI potrafi przeprowadzić proces dezanonimizacji „end-to-end”. Agent AI potrafi samodzielnie przeszukiwać sieć, weryfikować fakty i wyciągać wnioski, co wcześniej zajmowało człowiekowi godziny pracy. Koszt zidentyfikowania jednej osoby waha się obecnie w granicach od 1 do 4 dolarów.

    Prywatność staje się luksusem

    Badacze ostrzegają, że zjawisko to ma „daleko idące konsekwencje dla prywatności w Internecie”. Możliwość masowego i taniego odzierania z anonimowości otwiera drzwi do:

    • Doxxingu i nękania (stalkingu): łatwiejszego odnajdywania osób o przeciwnych poglądach.
    • Inwigilacji państwowej: rządy mogą wykorzystać te techniki do namierzania dysydentów i aktywistów.
    • Manipulacji rynkowej: firmy mogą tworzyć niezwykle precyzyjne profile marketingowe, łącząc anonimowe zwierzenia z historią zakupową.

    „Przeciętny użytkownik zakładał, że dezanonimizacja wymaga ogromnego wysiłku. LLM unieważniają to założenie” – piszą autorzy raportu.

    Czy można się bronić?

    Eksperci proponują kilka rozwiązań, choć przyznają, że walka jest nierówna. Platformy społecznościowe powinny wprowadzić limity dostępu do API oraz lepiej wykrywać zautomatyzowane zbieranie danych (scraping). Dostawcy modeli AI mogliby z kolei wdrażać blokady uniemożliwiające wykonywanie zadań związanych z dezanonimizacją, choć badacze są sceptyczni co do ich skuteczności, gdyż proces ten można rozbić na wiele pozornie niewinnych etapów, takich jak streszczanie tekstu.

    Dla zwykłego użytkownika jedyną skuteczną metodą pozostaje radykalne ograniczenie ilości udostępnianych informacji lub regularne usuwanie starych postów. W świecie, w którym AI potrafi połączyć kropki z naszych wpisów sprzed lat, anonimowość użytkowników mediów społecznościowych w praktyce przestaje istnieć.

    CZYTAJ TEŻ: Haker użył Claude oraz ChatGPT do wykradzenia meksykańskich danych wyborczych i podatkowych

    CZYTAJ TEŻ: Śledztwo szwedzkich dziennikarzy ujawnia, co widzą pracownicy Mety