W zależności od miejsca pracy istnieje znaczne prawdopodobieństwo, że sztuczna inteligencja Aware analizuje twoje wiadomości na Slacku, Microsoft Teams, Zoomie i innych popularnych aplikacjach.

    Duże amerykańskie firmy, takie jak Walmart, Delta Air Lines, T-Mobile, Chevron i Starbucks, a także europejskie marki, w tym Nestle i AstraZeneca, zwróciły się do startupu, Aware, aby im pomógł. W czym? W monitorowaniu rozmów wśród pracowników — zwłaszcza dyskusji odbywających się na Slacku, Teamsach czy Zoomie.

    Jeff Schumann, współzałożyciel i CEO startupu mówi, że AI pomaga firmom „rozumieć ryzyko w ich komunikacji”, uzyskując informacje na temat nastrojów pracowników w czasie rzeczywistym. Zamiast polegać na corocznej lub dwukrotnej w roku ankiecie, AI na bieżąco monitoruje wiadomości i jeśli wykryje coś, co mogłoby nie spodobać się pracodawcy — daje mu o tym znać.

    Aware oczywiście podkreśla, że dane są zbierane w sposób anonimowy, ale czy na pewno? Klienci mogą zobaczyć, jak pracownicy w określonej grupie wiekowej lub w konkretnej lokalizacji reagują na nową politykę korporacyjną lub kampanię marketingową. Dziesiątki modeli AI Aware, zbudowanych do czytania tekstu i przetwarzania obrazów, mogą również identyfikować prześladowanie, molestowanie, dyskryminację, niezgodność z przepisami, pornografię, nagość i inne zachowania.

    Aware. Monitoruje wiadomości na Slacku i innych komunikatorach

    Narzędzie analityczne Aware — to, które monitoruje nastroje i „toksyczność” pracowników — nie ma możliwości flagowania indywidualnych nazwisk pracowników. Dlatego startup oferuje jeszcze oddzielne narzędzie eDiscovery, które może, w przypadku ekstremalnych zagrożeń lub innych zachowań ryzykownych (te ustala pracodawca), dokładnie namierzyć daną osobę.

    Aware przyznało, że firmy takie jak Walmart, T-Mobile, Chevron i Starbucks używają jego technologii do „zarządzania ryzykiem i zgodnością”. Duże korporacje stanowią ok. 80% biznesu firmy.

    Nie trzeba być entuzjastą dystopijnych powieści, aby zobaczyć, gdzie wszystko to zmierza.

    Jutta Williams, współzałożycielka organizacji non-profit Humane Intelligence, zajmującej się odpowiedzialnością AI, powiedziała, że AI dodaje nowy i potencjalnie problematyczny element do tak zwanych „programów ryzyka wewnętrznego”, które istnieją od lat w celu oceny takich rzeczy jak korporacyjne szpiegostwo, szczególnie w komunikacji e-mailowej.

    Mówiąc ogólnie o AI do nadzoru nad pracownikami, a nie konkretnie o technologii Aware, Williams powiedziała: „Wiele z tego staje się przestępstwem. To traktowanie ludzi jak inwentarza w sposób, którego do tej pory nie widziałam”.

    AI jako twój nadzorca

    AI do nadzoru nad pracownikami to szybko rozwijający się, ale niszowy segment większego rynku AI, który eksplodował w ubiegłym roku po uruchomieniu chatbota ChatGPT przez OpenAI pod koniec 2022 roku. Generatywna AI szybko stała się modnym hasłem, a jakaś forma technologii automatyzuje zadania niemal w każdej branży, od usług finansowych i badań biomedycznych po logistykę, podróże online i usługi komunalne.

    REKLAMA
    REKLAMA

    Dochody Aware rosły średnio o 150% rocznie przez ostatnie pięć lat, a typowy klient ma ok. 30 000 pracowników.

    Obawy dotyczące prywatności przed Aware

    Nawet jeśli dane są agregowane w większą całość lub anonimizowane, badania sugerują, że jest to wadliwy koncept. Badanie nad prywatnością danych, wykorzystujące dane spisu ludności USA z 1990 roku, pokazało, że 87% Amerykanów można było zidentyfikować wyłącznie za pomocą kodu pocztowego, daty urodzenia i płci.

    Klienci Aware korzystający z narzędzia analitycznego mają możliwość dodawania metadanych do śledzenia wiadomości, takich jak wiek pracownika, lokalizacja, dział, staż pracy lub funkcja.

    To, co mówią, opiera się na bardzo przestarzałej i całkowicie obalonej obecnie koncepcji, że anonimizacja lub agregacja zapewnia ochronę prywatnośi

    mówi Jutta Williams

    Ponadto, typ modelu AI używanego przez Aware może być skuteczny w generowaniu wniosków z agregowanych danych, dokonując trafnych przypuszczeń, na przykład na temat identyfikatorów osobistych na podstawie języka, kontekstu, slangu i większej liczbie elementów.

    Żadna firma nie jest w zasadzie w stanie zaoferować ogólnych zapewnień dotyczących prywatności i bezpieczeństwa AI, i tego rodzaju systemów.

    Aware potwierdziło też serwisowi CNBC, że używa danych od swoich klientów korporacyjnych do szkolenia modeli uczenia maszynowego. Repozytorium danych firmy zawiera około 6,5 miliarda wiadomości, reprezentujących około 20 miliardów indywidualnych interakcji między ponad 3 milionami unikalnych pracowników.

    Gdy nowy klient zapisuje się do narzędzia analitycznego, modele AI Aware potrzebują około dwóch tygodni, aby przeszkolić się na wiadomościach pracowników i poznać wzorce emocji i nastrojów w firmie, aby móc zobaczyć, co jest normalne, a co nie w danej organizacji.

    Czytaj też: