Raport

    Dziesięć lat temu – w czasach, gdy ransomware dopiero wchodził do mainstreamu, a phishing rzadko korzystał z szyfrowanego HTTPS – Orange Polska uruchomiła projekt CyberTarcza. Jego cel był prosty: automatycznie wyłapywać złośliwy ruch w sieci operatora i blokować go, zanim dotrze do klientów.

    Dziś system analizuje miliardy zdarzeń dziennie, wspiera 4,85 mln internautów i zatrzymuje setki tysięcy podejrzanych domen rocznie. Kluczowym katalizatorem tej zmiany stała się sztuczna inteligencja, która w ciągu dekady odmieniła zarówno metody obrony, jak i narzędzia cyberprzestępców. Czego jeszcze możemy dowiedzieć się z najnowszego raportu CERT Orange Polska?

    Kamienie milowe projektu

    • 2015 – pierwszy portal CyberTarczy dla użytkowników łączy stacjonarnych.
    • 2020 – wdrożenie uczenia maszynowego w produkcji.
    • 2021 – rekordowe 150 tys. zablokowanych domen phishingowych.
    • 2024 – 305 tys. domen zatrzymanych dzięki blokadom typu wildcard oraz 4,85 mln osób powstrzymanych przed utratą danych lub pieniędzy.

    Chronologia pokazuje, że każde znaczące przyspieszenie skuteczności systemu zbiegło się z wdrożeniem kolejnej warstwy automatyzacji opartej na AI/ML.

    Ewolucja zagrożeń – od makrowirusów do deepfake’ów

    W 2014 r. dominowały kampanie z trojanem Virut i pierwsze ataki DDoS na łączach szerokopasmowych. W 2024 r. lista TOP 10 malware w sieci stacjonarnej Orange otwierają już Lumma Stealer, Remcos RAT i AsyncRAT. Równolegle phishing przeszedł transformację tematyczną:

    • 2020-2022 – dominacja scenariusza „płatność za przesyłkę”.
    • 2023 – 59 % kliknięć dotyczyło oszustwa „na kupującego”.
    • 2024 – 60 % ruchu przyciągają „fałszywe inwestycje”, podsycane reklamami stylizowanymi przez generatywne modele AI.

    Ten ostatni skok pokazuje, jak AI pomaga oszustom dynamicznie dostosowywać treść i grafikę do emocji odbiorcy, zwiększając wiarygodność fałszywych ofert.

    REKLAMA
    Raport

    AI wdrażane po dobrej stronie

    Klasyczne listy domen złośliwych przestały wystarczać, gdy przestępcy zaczęli masowo generować subdomeny jednorazowe. Odpowiedzią był mechanizm wildcard: model detekcyjny rozpoznaje wzorzec i blokuje całą gałąź DNS, zanim większość subdomen zdąży się rozpropagować. To właśnie dzięki niemu liczba pojedynczych wpisów w 2024 r. spadła, choć realnie ochroniono więcej osób.

    Modele uczenia maszynowego analizują też anomalię ruchu (netflow), co pozwala wcześnie sygnalizować DDoS typu carpet-bombing. W 2024 r. średni alert dotyczył już ruchu o średniej krytyczności, a udział „niskich” spadł do 43 % – system lepiej odróżnia incydenty groźne od szumu.

    Sztuczna inteligencja po stronie atakujących

    Raport potwierdza, że cyberprzestępcy chętnie zlecają modelom generatywnym przygotowanie:

    • realistycznych profili społecznościowych z historią postów i zdjęciami AI,
    • deepfake’ów wideo zachęcających do „pewnych inwestycji”,
    • wielojęzycznych szablonów phishingowych.

    Jednak CERT zauważa, że mimo medialnego szumu AI nadal pełni rolę akceleratora, a nie rewolucyjnego game-changera. Nadal najskuteczniejsze ataki bazują na prostej socjotechnice – AI jedynie zwiększa ich zasięg i wiarygodność.

    Podatności dużych modeli i bezpieczeństwo chatbotów

    Popularność rozwiązań LLM wymusiła na zespole CERT analizę nowych klas luk.

    • Prompt/Indirect injection – wstrzyknięcie poleceń między tagami HTML strony odwiedzanej przez bota.
    • System-prompt leakage – niezamierzona ekspozycja konfiguracyjnych promptów zawierających np. klucze API.
    • Jailbreak – obejście filtrów moderacji (np. scenariusz DAN).

    Orange rekomenduje warstwę LLM Proxy (LLM Guard) z audytem zapytań i odpowiedzi, ograniczanie kontekstu oraz obowiązkowe testy fuzzingowe z użyciem narzędzi Giskard czy PyRIT. W tle wchodzą w życie wymogi EU AI Act, w tym „czerwony przycisk” pozwalający odłączyć model od produkcji, gdyby zaczął halucynować na masową skalę.

    Feedback loop

    Każdego roku klienci przesyłają do CERT około czterech tysięcy podejrzanych SMS-ów lub adresów. Te próbki trafiają do pipeline’u uczenia maszynowego i poprawiają skuteczność wykrywania. To przykład praktycznego reinforcement learning z udziałem ludzi, gdzie operator i użytkownicy tworzą wspólny ekosystem obronny.

    Co czeka nas jeszcze w 2025 r.?

    Eksperci Orange przewidują, że AI przeniknie do bardziej złożonych kampanii wpływu, łącząc automatyczne generowanie treści z błyskawicznym A/B-testowaniem reakcji ofiar. Po stronie organizacji kluczowe będzie:

    • automatyczne wykrywanie deepfake’ów,
    • szyfrowanie i silna autoryzacja źródeł danych treningowych,
    • nadzór łańcucha dostaw modeli (vendor risk management).

      Dziesięć lat temu CyberTarcza była prostym filtrem DNS; dziś to ekosystem uczenia maszynowego blokujący setki tysięcy zagrożeń rocznie. Sztuczna inteligencja okazała się zarówno katapultą dla obrony, jak i turbo-doładowaniem dla przestępców. Różnica tkwi w tym, kto lepiej potrafi ją zorganizować, zasilić danymi i utrzymać w ryzach regulacyjnych. Orange Polska pokazuje, że przy właściwej strategii AI wzmacnia tarczę znacznie szybciej, niż miecz przeciwnika przecina zbroję.

      Czytaj dalej: