Raport opublikowany przez Narodowe Centrum Cyberbezpieczeństwa Wielkiej Brytanii (NCSC) ostrzega, że sztuczna inteligencja znacząco zwiększy zagrożenia cybernetyczne w ciągu najbliższych dwóch lat. Organizacja zwraca uwagę na wzrost ataków ransomware, w których hakerzy wdrażają złośliwe oprogramowanie, aby zaszyfrować pliki ofiary lub cały system, a następnie żądają okupu za klucz deszyfrujący.
Ocena NCSC przewiduje, że AI zwiększy zdolności cyberprzestępców, głównie poprzez przeprowadzanie bardziej przekonujących ataków phishingowych, które oszukują osoby do podawania wrażliwych informacji lub klikania na złośliwe linki.
Generatywna AI może już tworzyć przekonujące interakcje, takie jak dokumenty, które oszukują ludzi, wolne od błędów tłumaczeniowych i gramatycznych, które są powszechne w e-mailach phishingowych, stwierdza raport.
The near-term impact of AI on the cyber threat, ncsc.gov.uk
AI jako zagrożenie cybernetyczne
Nadejście generatywnej AI, zdolnej do tworzenia przekonujących interakcji i dokumentów wolnych od typowych czerwonych flag phishingu, jest kluczowym czynnikiem przyczyniającym się do wzrostu zagrożeń w ciągu najbliższych dwóch lat.
Ocena NCSC identyfikuje wyzwania w cyberodporności, wskazując na trudności w weryfikacji autentyczności e-maili i żądań resetowania hasła z powodu generatywnej AI i dużych modeli językowych. Skracający się czas między aktualizacjami bezpieczeństwa a wykorzystaniem luk przez zagrożenia dodatkowo komplikuje szybkie łatanie podatności dla zarządców sieci.
James Babbage, dyrektor generalny ds. zagrożeń w Narodowej Agencji Przestępczości, skomentował:
Usługi AI obniżają bariery wejścia, zwiększając liczbę cyberprzestępców, i będą zwiększać ich zdolności poprzez poprawę skali, szybkości i skuteczności istniejących metod ataku.
Jednakże raport NCSC również zarysował, jak AI może wzmocnić cyberbezpieczeństwo poprzez ulepszone wykrywanie ataków i projektowanie systemów. Wzywa do dalszych badań nad tym, jak rozwój w obronnych rozwiązaniach AI może łagodzić ewoluujące zagrożenia.
Dostęp do jakościowych danych, umiejętności, narzędzi i czasu sprawia, że zaawansowane operacje cybernetyczne oparte na AI są obecnie wykonalne głównie dla wysoce zaawansowanych grup. NCSC ostrzega, że te bariery wejścia będą stopniowo maleć, ponieważ przestępcy komercjalizują i sprzedają narzędzia hakerskie zasilane przez AI.
Rodzaje niebezpieczeństw kreowanych przy udziale AI
AI przede wszystkim zaoferuje cyberprzestępcom wzrost możliwości w zakresie inżynierii społecznej. Generatywna AI już teraz może być wykorzystywana do tworzenia przekonujących interakcji z ofiarami, w tym tworzenia dokumentów przynęty, bez błędów tłumaczeniowych, ortograficznych i gramatycznych, które często zdradzają phishing. Jest to bardzo prawdopodobne, że wzrośnie w ciągu najbliższych dwóch lat, w miarę ewolucji modeli i wzrostu ich wykorzystania.
Zdolność AI do szybkiego podsumowywania danych również prawdopodobnie umożliwi cyberprzestępcom identyfikację aktywów o wysokiej wartości do zbadania, zwiększając wartość i wpływ cyberataków w ciągu najbliższych dwóch lat.
Twórcy zagrożeń, w tym osoby przeprowadzające ataki ransomware, już wykorzystują AI do zwiększenia efektywności i skuteczności aspektów operacji cybernetycznych, takich jak rozpoznanie, phishing i kodowanie. Ten trend z dużym prawdopodobieństwem będzie kontynuowany do 2025 roku i później. Phishing, zazwyczaj mający na celu dostarczenie malware lub kradzież informacji o hasłach, odgrywa ważną rolę w zapewnianiu początkowego dostępu do sieci, którego cyberprzestępcy potrzebują do przeprowadzenia ataków ransomware lub innych cyberprzestępstw. Dlatego prawdopodobne jest, że wykorzystanie dostępnych modeli AI przez cyberprzestępców do poprawy dostępu przyczyni się do globalnego zagrożenia ransomware w najbliższej przyszłości.
AI prawdopodobnie pomoże w rozwoju malware i exploitów, badaniach nad podatnościami oraz ruchu bocznym, czyniąc istniejące techniki bardziej efektywnymi. Jednak w najbliższym czasie te obszary nadal będą polegać na ludzkiej ekspertyzie. AI ma potencjał do generowania malware, które mogłoby unikać wykrycia przez obecne filtry bezpieczeństwa, ale tylko jeśli zostanie przeszkolone na danych o wysokiej jakości exploitach. Istnieje realistyczna możliwość, że bardzo zdolne państwa mają wystarczająco duże repozytoria malware, aby skutecznie szkolić model AI do tego celu.
Wyzwania związane z cyberodpornością staną się bardziej dotkliwe w miarę rozwoju technologii. Do 2025 roku GenAI i duże modele językowe (LLM) utrudnią każdemu, niezależnie od poziomu zrozumienia cyberbezpieczeństwa, ocenę, czy e-mail lub prośba o reset hasła są autentyczne, czy też identyfikację prób phishingu, spoofingu czy inżynierii społecznej. Czas między wydaniem aktualizacji bezpieczeństwa w celu naprawienia nowo zidentyfikowanych podatności a wykorzystaniem niezabezpieczonych oprogramowań przez atakujących już się skraca. Pogłębia to wyzwanie dla zarządców sieci, aby załatać znane podatności, zanim zostaną wykorzystane. AI prawdopodobnie przyspieszy to wyzwanie.
Czytaj dalej: