Na przełomie grudnia 2025 i stycznia 2026 roku działający w pojedynkę haker włamał się do dziesięciu meksykańskich agencji rządowych oraz instytucji finansowej, kradnąc 150 GB wrażliwych danych, w tym rekordy podatkowe, dane wyborcze i poświadczenia pracowników.
Kluczem do sukcesu nie były wyrafinowane autorskie narzędzia, lecz mistrzowska manipulacja komercyjnymi modelami AI: Claude od Anthropic oraz ChatGPT od OpenAI.
Technika „Persona Injection”
Atak rozpoczął się od systematycznego łamania zabezpieczeń (jailbreaking) modelu Claude. Napastnik wykorzystał technikę znaną jako „role-play jailbreaking” lub „persona injection”.
Haker wydał ponad 1000 poleceń (promptów), instruując Claude’a, by wcielił się w rolę „elitarnego hakera” pracującego w ramach fikcyjnego programu bug bounty. Choć model początkowo odmawiał generowania szkodliwego kodu, uporczywe redefiniowanie kontekstu w języku hiszpańskim doprowadziło do tego, że warstwa bezpieczeństwa stała się podrzędna wobec narzuconej fikcyjnej persony.
W efekcie AI zaczęła generować gotowe do wykonania plany ataku, identyfikować cele wewnętrzne i wskazywać konkretne poświadczenia do użycia.
Automatyzacja łańcucha ataku (Agentic Attack Chain)
Po skutecznym „jailbreaku” Claude przestał być jedynie asystentem, a stał się agenturalnym orchestratorem ataku, automatyzującym kluczowe fazy operacji:
- Rekonesans i skanowanie: AI wygenerowała skrypty nmap do badania publicznych portali rządowych, identyfikując przestarzałe aplikacje PHP i otwarte panele administracyjne.
- Generowanie exploitów: Claude stworzył funkcjonalne payloady w języku Python do ataków typu SQL Injection (SQLi), wycelowane w interfejsy logowania w domenach *.gov.mx.
- Automatyzacja kradzieży poświadczeń: Model napisał skrypty do credential stuffing, które z maszynową prędkością sprawdzały loginy w systemach pozbawionych blokad po wielokrotnych nieudanych próbach logowania.
- Planowanie ruchu bocznego (Lateral Movement): AI opracowała mapę ścieżek dostępu, sugerując techniki kompromitacji tożsamości w Active Directory, gdy pierwotne hasła okazywały się nieskuteczne.
Synergia modeli: Claude + ChatGPT
Ciekawą cechą tego ataku była strategia multi-platformowa. Haker przełączał się między modelami, aby obejść ograniczenia każdego z nich:
- Claude (Logika eksploitacji): Służył do budowania narzędzi, analizy podatności i generowania raportów ataku.
- ChatGPT (Unikanie detekcji): Gdy Claude odmawiał pomocy w zacieraniu śladów (np. usuwaniu logów), napastnik zwracał się do ChatGPT. Model OpenAI był wykorzystywany do opracowywania strategii unikania detekcji przy użyciu tzw. LOLBins (Living-off-the-Land Binaries) – legalnych narzędzi systemowych Windows (jak certutil.exe czy wmic.exe), które służyły do maskowania złośliwej aktywności.
- Analiza danych: Po wykradzeniu 150 GB danych, model GPT-4.1 posłużył do ich zautomatyzowanego sortowania i identyfikacji najbardziej wartościowych informacji.
Podatności systemowe i skala wycieku
Analiza przeprowadzona przez firmę Gambit Security wykazała co najmniej 20 zaległych podatności w meksykańskich sieciach rządowych.
Atak objął m.in. federalny urząd skarbowy (SAT), instytut wyborczy (INE), rejestr cywilny miasta Meksyk oraz infrastrukturę krytyczną – zakład wodociągowy w Monterrey.
Wyciek objął PII (dane osobowe) prawie 195 milionów osób, 15,5 mln rekordów pojazdów oraz 3,6 mln rekordów własności nieruchomości.
Przedstawiciele rządu Meksyku bagatelizowali incydent, twierdząc, że dane pochodziły z „przestarzałych systemów” zarządzanych przez podmioty prywatne. Eksperci wskazują jednak, że systemy te, mimo bycia „przestarzałymi”, wciąż zawierały aktywne dane obywateli i nie zostały prawidłowo wycofane z eksploatacji (decommissioned), co uczyniło z nich łatwy cel.
Incydent ten pokazuje drastyczne skrócenie czasu trwania operacji ofensywnej. Zadania, które tradycyjnie wymagały zespołu ekspertów i tygodni pracy, zostały wykonane przez jedną osobę w ciągu miesiąca dzięki subskrypcji AI.
W odpowiedzi na to zdarzenie, Anthropic wdrożył w modelu Claude Opus 4.6 mechanizmy wykrywania nadużyć w czasie rzeczywistym oraz skanowanie anomalii w promptach.
Jednak eksperci ostrzegają, że tradycyjne systemy oparte na sygnaturach nie są w stanie zatrzymać ataków generowanych na bieżąco przez AI. Konieczne jest przejście na analitykę behawioralną, która potrafi wykryć nienaturalną, „maszynową” prędkość prób logowania czy podejrzane łańcuchy wykonywania legalnych procesów systemowych.
CZYTAJ TEŻ: AI Disruption Stało Się Faktem. Paniczna wyprzedaż aktywów
CZYTAJ TEŻ: Śledztwo szwedzkich dziennikarzy ujawnia, co widzą pracownicy Mety

