W Polsce tego problemu jeszcze nie mamy, ale w Stanach Zjednoczonych zaczął już występować. O co chodzi? Ubezpieczyciele nadużywają modeli predykcyjnych AI, które decydują o zakresie opieki zdrowotnej pacjentów. Rząd USA poinformował, że to niesprawiedliwe — i zakazał takich praktyk.

    Centers for Medicare & Medicaid Services (CMS) to federalna agencja rządowa USA, która zarządza programem Medicare i decyduje o odpowiadających mu standardach opieki zdrowotnej. Organizacja ta niedawno wysłała nowe pismo do ubezpieczycieli, wyjaśniające właściwy sposób używania algorytmów AI oraz konsekwencje ich złamania.

    Ubezpieczyciele oferujący plany Medicare Advantage otrzymali nowe pismo od CMS, dokument przypominający FAQ, który oferuje ostrożne wyjaśnienia dotyczące użycia (lub nadużywania) predykcji AI.

    Agencja stwierdza, że firmy ubezpieczeniowe nie mogą odmawiać pokrycia kosztów leczenia osobom chorym wyłącznie na podstawie tego, co przekaże AI. Tłumaczą, że sztuczna inteligencja nie bierze pod uwagę pełnego obrazu stanu pacjenta.

    Problem ubezpieczycieli. Za bardzo polegali na AI

    Dokumenty CMS pojawiły się po tym, jak pacjenci wnieśli oskarżenia przeciwko UnitedHealth i Humana, dwóm firmom ubezpieczeniowym, które zatrudniły narzędzie AI znane jako nH Predict.

    Pozwy stwierdzają, że firmy ubezpieczeniowe niewłaściwie odmówiły pokrycia opieki zdrowotnej pacjentom w ramach planów MA, dokonując nieprawidłowych predykcji dotyczących ich okresów rehabilitacji.

    Oceny dostarczone przez nH Predict są niewiarygodne — twierdzą pozwy, i są znacznie bardziej restrykcyjne w porównaniu do oficjalnych planów MA. Na przykład, jeśli plan był zaprojektowany do pokrycia do 100 dni w domu opieki po operacji, UnitedHealth podobno użyło sztucznego osądu nH Predict, aby ograniczyć pokrycie do tylko 14 dni przed odmową dalszego wypłacania środków.

    CMS teraz stwierdza, że narzędzia takie jak nH Predict nie wystarczają, aby odmówić ubezpieczenia pacjentom MA. Teraz to problem ubezpieczycoeli i raczej poniosą tego konsekwencje. Okazało się, że algorytm został wytrenowany na bazie danych tylko 6 milionów pacjentów, dlatego ma ograniczoną wiedzę na temat potencjalnych stanów zdrowia lub potrzeb opieki zdrowotnej.

    Amerykańska agencja stwierdza, że ubezpieczyciele MA muszą opierać swoją decyzję na „okolicznościach indywidualnego pacjenta”, które obejmują historię medyczną, zalecenia lekarza i notatki kliniczne.

    Algorytmy AI mogą być używane do dokonywania predykcji i „pomocy” dostawcom ubezpieczeń, stwierdza CMS, ale nie mogą być nadużywane do zakończenia usług opieki pozaszpitalnej.

    REKLAMA
    REKLAMA

    Ubezpieczalnie chciały zaoszczędzić

    Agencja stwierdza, że stan pacjenta musi być dokładnie ponownie oceniony przed zakończeniem pokrycia, a ubezpieczyciele są zobowiązani do dostarczenia „konkretnej i szczegółowej” dokumentacji wyjaśniającej, dlaczego już nie świadczą usługi.

    Zgodnie z pozwami wniesionymi przeciwko UnitedHealth i Humana, pacjentom nigdy nie podano powodów ich odmów opieki zdrowotnej. Po prostu zdecydowała za nie AI.

    CMS dostarczyła również precyzyjne wyjaśnienie dla firm co do tego, co kwalifikuje się jako sztuczna inteligencja i predykcje oparte na algorytmach. Ma to sprawić, że ubezpieczalnie jasno zrozumieją swoje zobowiązania prawne. Agencja dodaje, że firmy działające niezgodnie z przepisami otrzymają listy ostrzegawcze, plany korygujące, a nawet kary pieniężne i sankcje.

    Czy to również problem ubezpieczycieli w Polsce?

    Polskie ubezpieczalnie już korzystają z technologii sztucznej inteligencji w różnych aspektach swojej działalności. Wykorzystanie AI w sektorze ubezpieczeń w Polsce obejmuje między innymi:

    • Automatyzację procesów. AI jest wykorzystywana do automatyzacji rutynowych zadań, takich jak przetwarzanie wniosków ubezpieczeniowych, co przyspiesza czas ich realizacji i zwiększa efektywność operacyjną.
    • Ocena ryzyka. Algorytmy AI analizują duże zbiory danych, aby precyzyjniej ocenić ryzyko związane z polisami ubezpieczeniowymi.
    • Wykrywanie oszustw. Ubezpieczyciele wykorzystują AI do analizy wzorców zachowań i identyfikacji podejrzanych transakcji, co pomaga w szybszym wykrywaniu i zapobieganiu oszustwom ubezpieczeniowym.
    • Obsługa klienta. Chatboty i wirtualni asystenci oparte na AI są stosowane do obsługi klienta, oferując szybką i dostępną całą dobę pomoc w odpowiedzi na pytania klientów oraz w kierowaniu ich przez procesy ubezpieczeniowe.
    • Personalizacja ofert. AI umożliwia analizę zachowań i preferencji klientów, co pozwala na tworzenie bardziej spersonalizowanych ofert ubezpieczeniowych i rekomendacji produktów.
    • Zarządzanie szkodami. Sztuczna inteligencja jest również wykorzystywana do oceny szkód, na przykład przez analizę zdjęć uszkodzonego mienia w celu szybkiej wyceny kosztów naprawy.

    Choć wykorzystanie AI w polskim sektorze ubezpieczeń przynosi wiele korzyści, takich jak zwiększona efektywność, lepsza obsługa klienta i precyzyjniejsza ocena ryzyka, rodzi także pytania dotyczące prywatności, etyki i transparentności w podejmowaniu decyzji. Ubezpieczyciele muszą więc równoważyć innowacje technologiczne z odpowiedzialnym wykorzystaniem danych i algorytmów, aby budować zaufanie i zapewniać sprawiedliwość w obsłudze klientów.

    Rygorystyczne przepisy Unii Europejskiej dotyczące ochrony danych i równości dostępu do usług mogą pomóc w zapobieganiu niektórym z tych problemów, szczególnie w zakresie ochrony prywatności i dyskryminacji. Niemniej jednak, zarówno w USA, jak i w Polsce, kluczowe będzie odpowiednie zarządzanie i regulacja wykorzystania AI, aby maksymalizować korzyści dla klientów i minimalizować potencjalne negatywne skutki.

    Czytaj też: