W połowie lutego 2026 roku Parlament Europejski podjął precedensową decyzję o wyłączeniu wbudowanych funkcji sztucznej inteligencji na urządzeniach służbowych swoich pracowników i posłów.
Ten radykalny krok, ma być motywowany obawami o cyberbezpieczeństwo i ochronę danych. Staje się zarazem symbolem nowej ery w zarządzaniu technologią: ortodoksyjnie pojmowana suwerenność cyfrowa staje się ważniejsza niż doraźna produktywność.
Strach przed chmurą i szpiegostwem
Decyzja Parlamentu uderza w popularne narzędzia, takie jak asystenci redagowania tekstów, wirtualni asystenci oraz funkcje streszczania stron internetowych. Głównym powodem blokady jest fakt, że narzędzia te opierają się na przetwarzaniu danych w chmurze, co oznacza wysyłanie wrażliwych informacji poza urządzenie. W obliczu rosnącego zagrożenia szpiegostwem państwowym, dział IT Parlamentu uznał, że nie jest w stanie zagwarantować poufności dokumentów legislacyjnych i wewnętrznych korespondencji przetwarzanych przez zewnętrzne serwery.
Restrykcje objęły tablety i telefony służbowe, a europosłom zalecono ostrożność również na prywatnych urządzeniach, by nie skanowały one treści związanych z pracą. Co istotne, Parlament odmówił wskazania konkretnych producentów systemów, co odczytywane jest jako element strategii bezpieczeństwa operacyjnego.
CZYTAJ TEŻ: Robi się fizycznie. AI coraz bardziej wkracza do świata żywych
Akt o AI daje o sobie znać
Działania te wpisują się w szeroki kontekst unijny, zdominowany przez Akt o Sztucznej Inteligencji (RIA), który wszedł w życie 1 sierpnia 2024 roku. Przepisy te klasyfikują systemy sztucznej inteligencji według poziomu ryzyka, wprowadzając kategoryczny zakaz praktyk nieakceptowalnych, takich jak scoring społeczny czy manipulacja podprogowa.
Dla instytucji publicznych i firm kluczowe są wymogi dotyczące systemów wysokiego ryzyka, które od sierpnia 2026 roku będą musiały spełniać surowe normy w zakresie przejrzystości, dokumentacji technicznej i nadzoru ludzkiego. Niedostosowanie się do nowych regulacji może skutkować gigantycznymi karami: do 35 mln euro lub 7% rocznego światowego obrotu.
Zarządzanie SI: Strategiczny Mandat
Zarządzanie sztuczną inteligencją przestało być jedynie kwestią techniczną, a stało się strategicznym mandatem biznesowym. Organizacje muszą przejść od koncepcyjnej identyfikacji potrzeb do operacyjnego wdrażania ram zarządzania (Governance).
Kluczowe staje się powołanie nowych ról w strukturach firm, takich jak Chief AI Officer (CAIO), który odpowiada za etyczną i zrównoważoną strategię SI, współpracując z szefami bezpieczeństwa (CISO) i ochrony danych (DPO). Eksperci podkreślają, że wiarygodna SI musi być zgodna z prawem, etyczna i odporna technicznie.
Innowacja z ludzką twarzą
Europejski Inspektor Ochrony Danych (EDPS), Wojciech Wiewiórowski, zaznacza, że sztuczna inteligencja jest rozszerzeniem ludzkiej pomysłowości, ale jej zasady muszą ewoluować dynamicznie. Celem jest innowacja skoncentrowana na człowieku, która służy interesowi publicznemu bez kompromisów w standardach ochrony danych.
W 2025 r., według indeksu Cisco AI Readiness tylko około 23% firm deklarowało pełną gotowość do stawienia czoła wyzwaniom związanym z zarządzaniem sztuczną inteligencją. Przykład Parlamentu Europejskiego pokazuje jednak, że droga do bezpiecznej przyszłości cyfrowej wiedzie przez zasadę „trust but verify” (ufaj, ale sprawdzaj), a w krytycznych momentach – przez odwagę do naciśnięcia przycisku „wyłącz” i zawierzenia wrodzonej, a nie wspomaganej, inteligencji użytkowników.
CZYTAJ TEŻ: Prof. Sankowski: Pora na infuzję polskich technologii

