W obliczu długich kolejek i rosnących kosztów w przeciążonych systemach opieki zdrowotnej, wiele osób zwraca się ku chatbotom wspieranym przez sztuczną inteligencję, takim jak ChatGPT, w celu samodzielnej diagnozy medycznej. Według niedawnego badania już około jeden na sześciu dorosłych Amerykanów korzysta z chatbotów w celu uzyskania porad zdrowotnych co najmniej raz w miesiącu.

    Jednak zbyt duże zaufanie do odpowiedzi chatbotów może być ryzykowne — częściowo dlatego, że użytkownicy często nie wiedzą, jakie informacje należy im przekazać, aby uzyskać jak najlepsze rekomendacje zdrowotne — wynika z niedawno opublikowanego badania prowadzonego przez Uniwersytet Oksfordzki.

    „Badanie ujawniło dwustronne zaburzenie komunikacji” – powiedział TechCrunch Adam Mahdi, dyrektor studiów magisterskich w Oxford Internet Institute i współautor badania. „Osoby korzystające z [chatbotów] nie podejmowały lepszych decyzji niż uczestnicy opierający się na tradycyjnych metodach, takich jak wyszukiwanie w internecie czy własny osąd.”

    W ramach badania autorzy zrekrutowali około 1300 osób w Wielkiej Brytanii i przedstawili im scenariusze medyczne opracowane przez zespół lekarzy. Uczestnicy mieli zidentyfikować potencjalne schorzenia na podstawie tych scenariuszy oraz — korzystając z chatbotów i własnych metod — określić możliwe działania (np. wizyta u lekarza czy w szpitalu).

    Ludzie mają trudności

    Uczestnicy korzystali z domyślnego modelu AI napędzającego ChatGPT — GPT-4o — a także z modelu Command R+ od Cohere oraz Llama 3 od firmy Meta, który wcześniej był podstawą asystenta Meta AI. Według autorów, korzystanie z chatbotów nie tylko zmniejszyło prawdopodobieństwo prawidłowego rozpoznania stanu zdrowia przez uczestników, ale też zwiększyło ryzyko niedocenienia powagi już rozpoznanych problemów.

    Mahdi zaznaczył, że uczestnicy często pomijali istotne szczegóły podczas zadawania pytań chatbotom, a odpowiedzi, które otrzymywali, bywały trudne do interpretacji.

    „[Odpowiedzi chatbotów] często łączyły dobre i złe rekomendacje” — dodał. „Obecne metody oceny [chatbotów] nie odzwierciedlają złożoności interakcji z ludźmi.”

    Odkrycia te pojawiają się w momencie, gdy firmy technologiczne coraz intensywniej promują AI jako sposób na poprawę wyników zdrowotnych. Apple pracuje rzekomo nad narzędziem AI udzielającym porad dotyczących ćwiczeń, diety i snu. Amazon bada wykorzystanie AI do analizy baz danych medycznych pod kątem tzw. społecznych uwarunkowań zdrowia. Microsoft z kolei pomaga rozwijać rozwiązania AI do sortowania wiadomości wysyłanych przez pacjentów do personelu medycznego.

    Jak jednak wcześniej donosił TechCrunch, zarówno profesjonaliści, jak i pacjenci są podzieleni co do tego, czy AI jest gotowa na zastosowania związane z większym ryzykiem zdrowotnym. Amerykańskie Towarzystwo Medyczne (AMA) odradza lekarzom korzystanie z chatbotów takich jak ChatGPT w podejmowaniu decyzji klinicznych, a czołowe firmy AI, w tym OpenAI, ostrzegają przed stawianiem diagnoz na podstawie odpowiedzi ich chatbotów.

    „Zalecamy opieranie się na sprawdzonych źródłach informacji przy podejmowaniu decyzji zdrowotnych” — powiedział Mahdi. „Obecne metody oceny [chatbotów] nie odzwierciedlają złożoności interakcji z ludźmi. Tak jak nowe leki wymagają badań klinicznych, tak i [systemy chatbotów] powinny być testowane w realnych warunkach przed ich wdrożeniem.”

    Czytaj też: