Wielu spodziewało się, że przełomowa technologia AI będzie miała największy wpływ na branżę IT. Raport Swiss Re dotyczący sztucznej inteligencji przyniósł zaskakujące wyniki, wskazując, że to przemysł farmaceutyczny będzie najbardziej dotknięty negatywnymi skutkami zastosowań AI.
Sektor farmaceutyczny jest bardzo narażony na skutki uboczne wdrażania AI
Według najnowszego badania przeprowadzonego przez giganta ubezpieczeniowego Swiss Re, sektor farmaceutyczny w nadchodzącej dekadzie doświadczy najpoważniejszych skutków ubocznych związanych z AI. To odkrycie jest zaskakujące, gdyż wielu spodziewało się, że technologia najbardziej wpłynie na branżę IT.
Chociaż badanie ujawnia, że obecnie to usługi IT są najbardziej narażone na ryzyka związane z AI ze względu na ich pionierską rolę w tej dziedzinie, sytuacja ta ma się zmienić wraz z coraz szerszym wykorzystaniem technologii we wszystkich branżach.
Raport sugeruje, że choć w latach 2024-2025 usługi IT zajmują pierwsze miejsce, a farmaceutyka trzecie pod względem ryzyk związanych z AI, to do roku 2032 te sektory zamienią się miejscami, na czele z farmaceutyką i usługami IT spadającymi na czwarte miejsce.
Potencjał AI w opiece zdrowotnej
Badania Swiss Re podkreślają ogromny potencjał korzyści płynących z AI, ale również stwierdzają, że opieka zdrowotna i farmaceutyka stoją w obliczu największych ryzyk związanych z wadliwymi systemami AI w ciągu najbliższych dziesięciu lat. Te branże mają być jednymi z największych beneficjentów i użytkowników AI, a badanie Tata Consultancy Services pokazuje, że ponad połowa przedsiębiorstw z sektora opieki zdrowotnej spodziewa się, że technologia AI pomoże podwoić produktywność w nadchodzących latach.
AI może być wykorzystywana w opiece zdrowotnej i farmaceutyce do takich funkcji jak monitorowanie pacjentów, diagnoza, rozwój leków i ich podawanie. Jednakże badanie poniekąd ostrzega, że wadliwe lub stronnicze systemy AI mogą prowadzić do błędnych diagnoz, skutkując chorobą lub utratą życia.
Światowa Organizacja Zdrowia podziela te obawy, podkreślając, że choć AI ma potencjał do „znacznego ulepszenia diagnostyki i leczenia”, twórcy, regulatorzy i dostawcy opieki zdrowotnej muszą „w pełni uwzględniać związane z tym ryzyka”. Jak ujął to Rohit Malpani z Departamentu Badań nad Zdrowiem WHO: „Nie ma nic za darmo. Z każdym przypadkiem użycia wiążą się różne ryzyka”.
gavi.org
Ryzyka AI w opiece zdrowotnej
WHO wskazuje na ryzyka, które powstają poprzez obciążone dane treningowe. Jeśli dane systemu AI nieproporcjonalnie reprezentują określone grupy demograficzne, może to prowadzić do dyskryminacji grup niedostatecznie reprezentowanych. Zagrożenie związane z koniecznością przeszkolenia specjalistów, gdy AI automatyzuje niektóre role, to dodatkowe wyzwania.
Choć chatboty AI, takie jak ChatGPT, oferują przydatne zastosowania kliniczne, takie jak łatwiejsze wyszukiwanie informacji czy pomoc w analizie problemów pacjentów na podstawie plików, ryzyka takie jak rozpowszechnianie dezinformacji i naruszanie ochrony danych muszą być łagodzone.
Partner RSM UK, Clive Makombera, ostrzega, że szanse muszą być równoważone z ryzykiem, gdy sektor opieki zdrowotnej zagłębia się w dalsze wykorzystanie AI. „Jak w przypadku każdej nowej technologii, istnieją często niewyraźne obszary, które wymagają dalszego zrozumienia i jasnych wytycznych” – powiedział Makombera dla Healthcare Digital. „Postępowanie z ostrożnością i identyfikowanie potencjalnych przeszkód związanych z ochroną danych, ryzykiem dezinformacji, udostępnianiem danych i ryzykiem inwestycyjnym jest zalecane”.
aimagazine.com
Aby złagodzić niektóre z tych ryzyk, Makombera argumentuje, że AI musi być postrzegana jako wsparcie, a nie decydent.
Ubezpieczyciele rozpoznają istotne zagrożenia
Rozpoznając potencjalne ryzyko, branża ubezpieczeniowa ma kluczową rolę we wspieraniu odpowiedzialnego wdrażania AI, zgodnie z raportem Swiss Re. Ubezpieczyciele zaczynają opracowywać nowe produkty obejmujące awarie z udziałem AI. Jako „amortyzator”, ubezpieczenia mogą pomóc w budowaniu zaufania cyfrowego, aby w pełni wykorzystać potencjał AI, jednocześnie zapewniając ochronę pacjentom.
Jest to coraz ważniejsze, ponieważ regulacje dotyczące AI w opiece zdrowotnej obecnie nie nadążają za tempem innowacji, zgodnie z publikacją WHO. W związku z tym organizacja wprowadziła szereg nowych wytycznych mających na celu ochronę prywatności pacjentów, walidację ścieżek danych, zarządzanie ryzykiem oraz zapewnienie przejrzystości.
„Sztuczna inteligencja ma ogromny potencjał dla zdrowia, ale wiąże się również z poważnymi wyzwaniami, w tym nieetycznym zbieraniem danych, zagrożeniami cyberbezpieczeństwa oraz amplifikacją biasów lub dezinformacji” – powiedział Dr Tedros Adhanom Ghebreyesus, Dyrektor Generalny WHO po ogłoszeniu. „Te nowe wytyczne wesprą kraje w skutecznej regulacji AI, aby wykorzystać jej potencjał, czy to w leczeniu raka, czy wykrywaniu gruźlicy, jednocześnie minimalizując ryzyka”.
Czytaj dalej: