Demo

    Technologia deepfake wykorzystuje zaawansowane algorytmy sztucznej inteligencji do tworzenia fałszywych, ale realistycznie wyglądających zdjęć, filmów lub nagrań audio.

    Osoby przedstawione w tych materiałach mogą mówić lub robić rzeczy, których nigdy nie powiedziały ani nie zrobiły. Nazwa „deepfake” pochodzi od połączenia słów „deep learning” (głębokie uczenie) i „fake” (fałszywy).

    Jak działa technologia deepfake?

    Deepfaki opierają się na sieciach neuronowych, które są systemami komputerowymi symulującymi działanie jak ludzki mózg w celu rozpoznawania wzorców w danych. Tworzenie deepfake’a zazwyczaj wymaga przetworzenia setek lub tysięcy obrazów przez sztuczną sieć neuronową, aby „nauczyć” ją identyfikować i odtwarzać wzorce, najczęściej twarze.

    Działanie algorytmów używanych do deepfake’ów opiera się na dwóch „składnikach”. Po pierwsze, algorytmy rozwijają głębokie zrozumienie twarzy jednej osoby i uczą się, jak przypisać te cechy do innej twarzy. Ludzie mają usta, oczy i nos mniej więcej w tym samym miejscu, zatem algorytm może analizować cechy tej anatomii i uczyć się jej z wyjątkowym poziomem szczegółowości. Następnie AI manipuluje funkcjami drugiego filmu, aby dopasować je do funkcji widocznych w pierwszym. Algorytm robi to wszystko, zachowując ogólny styl i wygląd oryginalnego materiału wideo.

    Istnieją różne technologie AI leżące u podstaw deepfake’ów, w tym autoenkodery i generatywne sieci antagonistyczne (GAN). Autoenkoder to sieć neuronowa szkolona do odtwarzania danych wejściowych z uproszczonej reprezentacji. GAN składa się z dwóch rywalizujących ze sobą sieci neuronowych: jedna stara się wyprodukować fałszywe obrazy, a druga stara się je wykryć. Ta rywalizacja prowadzi do coraz bardziej przekonujących deepfake’ów.

    Fot. spiceworks.com

    Zastosowania i wyzwania

    Technologia deepfake ma zarówno niewinne, jak i niebezpieczne zastosowania. Może być wykorzystywana w rozrywce, e-commerce czy komunikacji, umożliwiając syntezę mowy i manipulację twarzą, aby osoba wydawała się mówić w innym języku. Najnowszy film o Indianie Jonesie pokazuje aktora Harrisona Forda odmłodzonego o ponad 40 lat. Twórcy wykorzystali sztuczną inteligencję, aby przeszukać wszystkie nagrania aktora sprzed kilkudziesięciu lat i stworzyć młodszego Forda.

    Dalsza część pod materiałem wideo:

    Jednakże deepfaki są również wykorzystywane do nadużyć, takich jak pornografia, dezinformacja, wpływanie na politykę i wybory czy podżeganie do niepokojów społecznych (destabilizacja państwa). Popularną formą są nadużycia z wykorzystaniem wizerunku i/lub głosu. W ekstremalnych przypadkach przestępcy wyłudzili setki tysięcy dolarów, podając się za inne osoby. Technologia deepfake może w przyszłości mocno wpływać na etykę i kwestie prawne, takie jak wizerunek osoby. Od niedawna prowadzi się wiele dyskusji na temat tego, czy warto już rozważyć zastrzeżenie wizerunku, jeśli jest on aktualnie podstawą do czerpania zysków.

    Wpływ deepfake’ów na społeczeństwo

    Wykrywanie deepfake’ów stanowi poważne wyzwanie. Metody detekcji zazwyczaj wykorzystują AI do analizy filmów pod kątem cyfrowych artefaktów lub szczegółów, których deepfaki nie są w stanie realistycznie imitować. Aktualnie AI ma sporo niedociągnięć w odtwarzaniu wyglądu i zachowań ludzkich takich jak mruganie czy mimika twarzy. Jednakże, narzędzia do wykrywania oszustw muszą być regularnie aktualizowane, aby nadążać za coraz bardziej wyrafinowanymi technikami tworzenia deepfake’ów.

    REKLAMA
    REKLAMA

    Deepfaki mogą podważać wiarę w produkcję publicznych treści audiowizualnych, prowadząc do społeczeństwa o zerowym zaufaniu, gdzie ludzie nie mogą lub nie chcą odróżniać prawdy od fałszu. Fałszywe informacje mogą utrudniać wykrywanie prawdziwych dowodów na niewłaściwe działania, a nawet stanowić regularne zagrożenie dla bezpieczeństwa osobistego, na przykład poprzez oszustwa wykorzystujące syntezę głosu.

    Rozwiązania i przyszłość

    Publiczna edukacja na temat deepfake’ów, oznaczanie manipulowanych mediów oraz śledzenie pochodzenia informacji w celu weryfikacji ich autentyczności to tylko niektóre z proponowanych strategii radzenia sobie z tym zjawiskiem. Dużym wyzwaniem będzie przygotowanie społeczeństw na nowe zagrożenia, a starzenie się populacji i wykluczenie cyfrowe nie ułatwia zadania.

    W miarę jak technologia deepfake staje się coraz bardziej dostępna i zaawansowana, społeczeństwo musi stawić czoła wyzwaniom związanym z ochroną prawną, etyką i zaufaniem do mediów w erze cyfrowej.

    Czytaj dalej: