Generatywna sztuczna inteligencja stanowi rewolucyjną technologię, przekształcającą sposób działania firm w różnych dziedzinach. Jej implementacja niesie za sobą poważne wyzwania etyczne i prawne, wymagające gruntownego przygotowania personelu, zarówno od strony wiedzy specjalistycznej, jak i technicznej. Firmy muszą rozwijać kompleksowe strategie zarządzania sztuczną inteligencją, które zapewnią zgodność z przepisami prawnymi, etyką oraz przejrzystość procedur, co umożliwi odpowiedzialne korzystanie z możliwości tej technologii.

    Efektywne zastosowanie generatywnej sztucznej inteligencji w firmie wymaga odpowiedniego podziału obowiązków wśród pracowników, dostosowania do obowiązujących norm prawnych i etycznych, a także nieustannego rozwijania zrozumienia zasad działania AI. Ważne jest również utrzymanie wysokiego poziomu bezpieczeństwa, w tym zastosowanie adekwatnych środków ochrony technicznej. Brak właściwego przygotowania do korzystania z rozwiązań AI może skutkować naruszeniami etycznych standardów pracy i prowadzić do problemów z wizerunkiem firmy. Zarządzanie aplikacjami opartymi na AI, z naciskiem na uczciwość, integralność i jasność zasad, jest kluczowe do zmniejszenia ryzyka negatywnych konsekwencji.

    Procesy biznesowe, niezależnie od ich stopnia skomplikowania, otwierają przed nami perspektywę optymalizacji dzięki zastosowaniu sztucznej inteligencji. Jednakże efektywność AI w pełni zależy od jakości dostarczanych danych oraz warunków brzegowych ustalanych przez osoby odpowiedzialne za wdrażanie rozwiązań opartych na sztucznej inteligencji w strukturach organizacyjnych. Poszukiwanie i implementacja etycznych oraz pragmatycznych strategii optymalizacyjnych wykorzystujących potencjał AI, stawiają przed kadrą zarządzającą znaczące wyzwanie, doskonale wpisujące się w dynamiczną rzeczywistość biznesową

    mówi Łukasz Dylewski, Dyrektor, Lider Data Science & AI w KPMG w Polsce.

    Generatywna sztuczna inteligencja – ryzykowne obszary związane jej z wykorzystaniem w biznesie według KPMG

    Dokładną analizę obszarów ryzyka opracowano w From Promise to Practice The Risks and Governance Approach of Generative AI.

    • Prywatność i bezpieczeństwo danych osobowych
      • Modele generatywnej sztucznej inteligencji są zasilane i uczą się na obszernych zbiorach danych, w tym zawierających informacje osobowe lub poufne, co budzi zastrzeżenia dotyczące zgodności z przepisami RODO.
    • Własność intelektualna
      • GenAI korzysta z obszernej bazy istniejących dzieł, co skutkuje możliwością generowania treści przypominających istniejące, chronione prace. Niesie to za sobą obawy o naruszanie praw autorskich.
    • Precyzja dokonywanych analiz
      • Ryzyko tworzenia błędnych wniosków, znanych również jako „halucynacje”, wzrasta szczególnie w sytuacjach, gdy modele AI generują znaczną ilość danych lub wykorzystywane są w wysoko specjalistycznych branżach, w których nie są dostatecznie przeszkolone i brakuje im dostępu do adekwatnych źródeł informacji.
    • Dyskryminacja na tle praw obywatelskich
      • Wzrost zainteresowania modelami AI oraz ich coraz powszechniejsze zastosowanie w procesach biznesowych wywołuje pytania dotyczące etyki i sprawiedliwości społecznej. Generatywna sztuczna inteligencja niesie ze sobą ryzyko naruszania praw obywatelskich, gdy tworzone treści wykazują tendencje do dyskryminacji określonych grup społecznych.
    • Odpowiedzialność prawna
      • W ramach obowiązującej w Unii Europejskiej Dyrektywy w sprawie odpowiedzialności za produkty wadliwe oraz projektu Dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję, operator systemu AI może ponosić odpowiedzialność za szkody wyrządzone przez ten system osobom trzecim.

    Wdrożenie odpowiedniego podejścia do AI pozwoli firmom odpowiedzialnie i transparentnie wykorzystywać generatywną sztuczną inteligencję, jednocześnie minimalizując ryzyka i maksymalizując korzyści zarówno dla własnej działalności, jak i społeczeństwa. Ostatecznie kluczowe jest znalezienie równowagi między adaptacją innowacji a ochroną fundamentalnych wartości, co otworzy perspektywę na przyszłość, w której genAI będzie wykorzystywana dla ogólnego dobra społeczeństw i gospodarek

    mówi Łukasz Dylewski, Dyrektor, Lider Data Science & AI w KPMG w Polsce.

    Czytaj dalej: