Dziesięć lat temu – w czasach, gdy ransomware dopiero wchodził do mainstreamu, a phishing rzadko korzystał z szyfrowanego HTTPS – Orange Polska uruchomiła projekt CyberTarcza. Jego cel był prosty: automatycznie wyłapywać złośliwy ruch w sieci operatora i blokować go, zanim dotrze do klientów.
Dziś system analizuje miliardy zdarzeń dziennie, wspiera 4,85 mln internautów i zatrzymuje setki tysięcy podejrzanych domen rocznie. Kluczowym katalizatorem tej zmiany stała się sztuczna inteligencja, która w ciągu dekady odmieniła zarówno metody obrony, jak i narzędzia cyberprzestępców. Czego jeszcze możemy dowiedzieć się z najnowszego raportu CERT Orange Polska?
Kamienie milowe projektu
- 2015 – pierwszy portal CyberTarczy dla użytkowników łączy stacjonarnych.
- 2020 – wdrożenie uczenia maszynowego w produkcji.
- 2021 – rekordowe 150 tys. zablokowanych domen phishingowych.
- 2024 – 305 tys. domen zatrzymanych dzięki blokadom typu wildcard oraz 4,85 mln osób powstrzymanych przed utratą danych lub pieniędzy.
Chronologia pokazuje, że każde znaczące przyspieszenie skuteczności systemu zbiegło się z wdrożeniem kolejnej warstwy automatyzacji opartej na AI/ML.
Ewolucja zagrożeń – od makrowirusów do deepfake’ów
W 2014 r. dominowały kampanie z trojanem Virut i pierwsze ataki DDoS na łączach szerokopasmowych. W 2024 r. lista TOP 10 malware w sieci stacjonarnej Orange otwierają już Lumma Stealer, Remcos RAT i AsyncRAT. Równolegle phishing przeszedł transformację tematyczną:
- 2020-2022 – dominacja scenariusza „płatność za przesyłkę”.
- 2023 – 59 % kliknięć dotyczyło oszustwa „na kupującego”.
- 2024 – 60 % ruchu przyciągają „fałszywe inwestycje”, podsycane reklamami stylizowanymi przez generatywne modele AI.
Ten ostatni skok pokazuje, jak AI pomaga oszustom dynamicznie dostosowywać treść i grafikę do emocji odbiorcy, zwiększając wiarygodność fałszywych ofert.
AI wdrażane po dobrej stronie
Klasyczne listy domen złośliwych przestały wystarczać, gdy przestępcy zaczęli masowo generować subdomeny jednorazowe. Odpowiedzią był mechanizm wildcard: model detekcyjny rozpoznaje wzorzec i blokuje całą gałąź DNS, zanim większość subdomen zdąży się rozpropagować. To właśnie dzięki niemu liczba pojedynczych wpisów w 2024 r. spadła, choć realnie ochroniono więcej osób.
Modele uczenia maszynowego analizują też anomalię ruchu (netflow), co pozwala wcześnie sygnalizować DDoS typu carpet-bombing. W 2024 r. średni alert dotyczył już ruchu o średniej krytyczności, a udział „niskich” spadł do 43 % – system lepiej odróżnia incydenty groźne od szumu.
Sztuczna inteligencja po stronie atakujących
Raport potwierdza, że cyberprzestępcy chętnie zlecają modelom generatywnym przygotowanie:
- realistycznych profili społecznościowych z historią postów i zdjęciami AI,
- deepfake’ów wideo zachęcających do „pewnych inwestycji”,
- wielojęzycznych szablonów phishingowych.
Jednak CERT zauważa, że mimo medialnego szumu AI nadal pełni rolę akceleratora, a nie rewolucyjnego game-changera. Nadal najskuteczniejsze ataki bazują na prostej socjotechnice – AI jedynie zwiększa ich zasięg i wiarygodność.
Podatności dużych modeli i bezpieczeństwo chatbotów
Popularność rozwiązań LLM wymusiła na zespole CERT analizę nowych klas luk.
- Prompt/Indirect injection – wstrzyknięcie poleceń między tagami HTML strony odwiedzanej przez bota.
- System-prompt leakage – niezamierzona ekspozycja konfiguracyjnych promptów zawierających np. klucze API.
- Jailbreak – obejście filtrów moderacji (np. scenariusz DAN).
Orange rekomenduje warstwę LLM Proxy (LLM Guard) z audytem zapytań i odpowiedzi, ograniczanie kontekstu oraz obowiązkowe testy fuzzingowe z użyciem narzędzi Giskard czy PyRIT. W tle wchodzą w życie wymogi EU AI Act, w tym „czerwony przycisk” pozwalający odłączyć model od produkcji, gdyby zaczął halucynować na masową skalę.
Feedback loop
Każdego roku klienci przesyłają do CERT około czterech tysięcy podejrzanych SMS-ów lub adresów. Te próbki trafiają do pipeline’u uczenia maszynowego i poprawiają skuteczność wykrywania. To przykład praktycznego reinforcement learning z udziałem ludzi, gdzie operator i użytkownicy tworzą wspólny ekosystem obronny.
Co czeka nas jeszcze w 2025 r.?
Eksperci Orange przewidują, że AI przeniknie do bardziej złożonych kampanii wpływu, łącząc automatyczne generowanie treści z błyskawicznym A/B-testowaniem reakcji ofiar. Po stronie organizacji kluczowe będzie:
- automatyczne wykrywanie deepfake’ów,
- szyfrowanie i silna autoryzacja źródeł danych treningowych,
- nadzór łańcucha dostaw modeli (vendor risk management).
Dziesięć lat temu CyberTarcza była prostym filtrem DNS; dziś to ekosystem uczenia maszynowego blokujący setki tysięcy zagrożeń rocznie. Sztuczna inteligencja okazała się zarówno katapultą dla obrony, jak i turbo-doładowaniem dla przestępców. Różnica tkwi w tym, kto lepiej potrafi ją zorganizować, zasilić danymi i utrzymać w ryzach regulacyjnych. Orange Polska pokazuje, że przy właściwej strategii AI wzmacnia tarczę znacznie szybciej, niż miecz przeciwnika przecina zbroję.
Czytaj dalej: