Google oficjalnie zapowiedziało podpisanie unijnego Kodeksu postępowania dla modeli ogólnego przeznaczenia (GPAI). To dobrowolny dokument, którego celem jest wspieranie zgodności z unijnym AI Act. Firma dołącza tym samym do grupy podmiotów technologicznych, które zdecydowały się przestrzegać nowych wytycznych w zakresie transparentności, bezpieczeństwa i praw autorskich.
Jednak – jak to często bywa – diabeł tkwi w szczegółach. Choć deklaracja ma wymiar symboliczny i polityczny, Google nie kryje obaw. I to obaw, które mogą rzutować na tempo rozwoju europejskiej sztucznej inteligencji.
Europa chce być liderem AI, ale na własnych warunkach
Zgodnie z założeniami Komisji Europejskiej, GPAI Code of Practice ma stanowić praktyczny przewodnik po tym, jak stosować się do AI Act. Ten ostatni to regulacja obowiązująca od 2 sierpnia 2025 roku, która – w teorii – ma chronić użytkowników, zapewniać bezpieczeństwo systemów AI i promować transparentność.
Sygnatariusze kodeksu mają zyskać większą pewność prawną, a co za tym idzie – mniejszą ekspozycję na kontrole. Ale uwaga: firmy, które wypuszczą nowe modele po tej dacie, będą musiały przestrzegać przepisów od razu. Dla istniejących modeli przewidziano dwuletni okres przejściowy.
Pozostała część artykułu pod materiałem wideo:
Google: wspieramy, ale ostrzegamy
W swoim oświadczeniu Kent Walker, prezes ds. globalnych w Google i Alphabet, nie owijał w bawełnę. Podkreślił, że choć finalna wersja kodeksu jest znacznie bardziej wyważona niż pierwotna propozycja, to nadal zawiera ryzyka dla rozwoju AI w Europie. Wśród największych problemów wymienił.
- Odejścia od unijnego prawa autorskiego – mogą zaszkodzić interoperacyjności i uderzyć w legalne wykorzystanie danych treningowych.
- Opóźnienia w zatwierdzaniu modeli – mogą spowolnić wdrożenia i zniechęcić firmy do inwestycji w UE.
- Ryzyko ujawnienia tajemnic handlowych – w imię transparentności można niechcący otworzyć drzwi konkurencji.
Wszystkie te punkty – zdaniem Google – mogą “zamrozić rozwój modeli w Europie” i osłabić jej pozycję w globalnym wyścigu technologicznym.
Meta mówi „nie”, a Google gra dyplomatycznie
Warto odnotować, że nie wszystkie amerykańskie firmy poszły drogą Google. Meta otwarcie zadeklarowała, że nie podpisze kodeksu, zarzucając unijnym przepisom tłumienie innowacyjności. W tle pojawiają się też kontrowersje związane z procesem powstawania samego kodeksu – organizacje praw autorskich krytykują go za rzekome osłabienie ochrony twórców.
Google wybrało drogę współpracy, choć nie bez warunków. Firma zapowiedziała ścisłą współpracę z nowo powstałym unijnym AI Office, który ma nadzorować wdrażanie przepisów. Amerykański gigant zapowiada aktywny udział w dalszym kształtowaniu przepisów – z naciskiem na proinnowacyjne podejście.
AI jako motor wzrostu – ale nie za wszelką cenę
Google przypomina również o potencjalnych korzyściach gospodarczych, jakie może przynieść AI. Według szacunków cytowanych przez firmę, Europa może zwiększyć swój PKB nawet o 8% rocznie do 2034 roku, jeśli uda się stworzyć sprzyjające warunki dla rozwoju sztucznej inteligencji.
I tu właśnie pojawia się napięcie: jak pogodzić ochronę użytkowników i artystów z potrzebą elastyczności i tempa innowacji? Czy AI Act i GPAI Code są szansą na harmonijny rozwój, czy też biurokratycznym balastem?
Wnioski: Europa reguluje, giganci kalkulują
Podpisanie kodeksu przez Google to nie dowód entuzjazmu, lecz raczej gest strategiczny. Firma zabezpiecza sobie pozycję w UE, jednocześnie głośno formułując zastrzeżenia. Ten ruch może oznaczać próbę wpływu na przyszłe interpretacje i dostosowanie przepisów do rzeczywistości rynkowej.
W praktyce Europa staje przed trudnym zadaniem: stworzyć system, który będzie skuteczny, ale nie duszący. Z jednej strony – potrzeba ochrony danych, praw twórców i bezpieczeństwa. Z drugiej – świat nie czeka. USA, Chiny i Indie inwestują w AI bez takich ograniczeń. Dlatego ten kodeks to nie koniec dyskusji, lecz jej początek. Google właśnie do niej dołączyło – z własnym scenariuszem pod pachą.
Czytaj dalej: