Polacy podchodzą do sztucznej inteligencji (AI) z rezerwą. Mimo niskiego poziomu zaufania, akceptacja dla tej technologii jest powszechna.
Z raportu KPMG „Sztuczna inteligencja w Polsce. Krajobraz pełen paradoksów” wynika, że Polacy podchodzą do sztucznej inteligencji (AI) z rezerwą. Mimo niskiego poziomu zaufania, akceptacja dla tej technologii jest jednak powszechna, co stawia przed firmami i regulatorami zadanie budowania wiarygodności poprzez ochronę danych i transparentność. Badanie, przeprowadzone we współpracy z University of Melbourne, objęło ponad 48 tys. osób z 47 krajów, w tym z Polski. Dane w Polsce zbierano od listopada 2024 do połowy stycznia 2025 roku.
Wyniki badania KPMG korespondują wynikami badania IDC i SAS Institute na temat dylematu zaufania do AI w firmach (LINK DO “Globalny dylemat zaufania do AI). W tym badaniu jednak skupiono się na postawach i nastawieniu użytkowników prywatnych.
Zaufanie do sztucznej inteligencji deklaruje 41% ankietowanych z Polski, co jest wynikiem niższym niż globalna średnia, która wynosi 46%.
Jednocześnie, aż 77% badanych Polaków akceptuje obecność AI w codziennych zadaniach w co najmniej umiarkowanym stopniu. W ocenie KPMG obrazuje to przesunięcie akcentów: zaufanie do AI nie jest automatyczne, ale musi być budowane. Polacy coraz częściej korzystają z bezpłatnych, ogólnodostępnych narzędzi AI, często powierzając im swoje dane, co stoi w sprzeczności z deklarowaną nieufnością wobec instytucji i obawami o prywatność.
Według raportu, najważniejszym czynnikiem zwiększającym skłonność do zaufania jest prawo do wycofania zgody na wykorzystywanie danych osobowych przez AI, wskazane przez 89% respondentów.
Kluczowe dla budowania zaufania według polskich respondentów są także:
- monitorowanie dokładności i niezawodności AI (86%),
- możliwość interwencji człowieka w celu korekty lub kwestionowania wyników pracy AI (85%),
- przestrzeganie międzynarodowych standardów w zakresie przejrzystości (86%),
- jasność, kto ponosi odpowiedzialność za ryzyka związane z AI (84%),
- obowiązywanie przepisów prawa regulujących korzystanie z AI (82%).
Zaufanie do podmiotów rozwijających i wdrażających AI jest zróżnicowane i zależy od ich charakteru oraz misji. Najwyższą wiarygodnością cieszą się instytucje akademickie, uczelnie wyższe oraz jednostki badawcze, które są postrzegane jako działające w interesie publicznym.
Czytaj też: Europa wychodzi z cienia i przyspiesza w wyścigu o dominację w AI
Czytaj też: Centrum XAI uruchomione na Politechnice Warszawskiej
Szczególnym wyzwaniem pozostaje jednak zaufanie do sektora publicznego. 45% respondentów z Polski ma ograniczone – niskie zaufanie co do tego, że instytucje państwowe wykorzystują i rozwijają narzędzia AI w najlepszym interesie społecznym. Obywatele nie są w pełni przekonani, że administracja wykorzysta tę technologię w ich interesie.
Respondenci badania wysoko oceniają natomiast znaczenie szkoleń i edukacji użytkowników, co świadczy o tym, że adaptacja AI w Polsce wymaga nie tylko wdrożeń technologicznych, ale także przygotowania ludzi do rozumienia mechanizmów działania, ograniczeń i potencjalnych konsekwencji tych narzędzi.
Organizacja szkoleń z zakresu odpowiedzialnego i bezpiecznego użytkowania AI dla pracowników organizacji wykorzystujących tę technologię jest ważna dla 84% badanych. W ocenie KPMG, w Polsce kształtuje się model adopcji AI, w którym innowacyjność idzie w parze z transparentnością i rozwojem kompetencji cyfrowych. Jeśli ten trend zostanie właściwie odczytany przez firmy i regulatorów, tempo i skala wykorzystania sztucznej inteligencji mogą przyspieszyć, opierając się na solidnych fundamentach społecznego zaufania.

