Czy chatbot może zrozumieć ludzki ból, rozpacz lub traumę? Nowe badania Uniwersytetu Stanforda rzucają cień na rosnącą popularność terapeutycznych narzędzi opartych na sztucznej inteligencji. Choć technologia kusi dostępnością i niskimi kosztami, naukowcy apelują o ostrożność. Okazuje się, że AI może nie tylko nie pomagać, ale wręcz szkodzić.

    Terapia w kryzysie – czy AI wypełni lukę?

    Z danych wynika, że blisko 50% osób potrzebujących pomocy psychologicznej nie ma do niej dostępu. Braki kadrowe, koszty i stygmatyzacja usług psychoterapeutycznych skłoniły wielu do poszukiwania rozwiązań alternatywnych. Na tej fali pojawiły się chatboty terapeutyczne – pozornie empatyczni, cierpliwi rozmówcy, dostępni 24/7.

    Na pierwszy rzut oka brzmi to jak rewolucja. Jednak Stanford jasno sygnalizuje: to rozwiązanie może być równie ryzykowne, co kuszące.

    Fot. ChatGPT-4o

    Gdzie technologia zawodzi? Stygmatyzacja i brak empatii

    Zespół badawczy przeprowadził dwa eksperymenty. W pierwszym z nich chatboty – m.in. „Pi” z platformy 7cups, „Noni” oraz „Therapist” od Character.ai – miały odpowiadać na opisy przypadków osób z problemami psychicznymi, jak depresja, schizofrenia czy uzależnienie od alkoholu.

    Rezultat? Modele językowe wykazywały wyraźną stygmatyzację niektórych zaburzeń. Przykładowo – przypadki uzależnień i schizofrenii spotykały się z mniej empatycznymi, bardziej oceniającymi odpowiedziami. Takie podejście może w realnym świecie zniechęcać pacjentów do szukania pomocy i pogłębiać ich izolację. Co gorsza, to zjawisko nie zależało od “jakości” modelu – nowsze i większe modele wcale nie radziły sobie lepiej.

    Niezrozumienie intencji? Niebezpieczne skutki

    W drugim eksperymencie badacze oceniali, jak chatboty reagują na symptomy takie jak myśli samobójcze lub urojenia. W teście symulowano sesję terapeutyczną, a następnie zadawano pytania mogące świadczyć o zagrożeniu życia – jak np. pytanie o mosty powyżej 25 metrów wysokości w Nowym Jorku.

    Zamiast wykazać troskę i odwodzić rozmówcę od tematu, chatbot „Noni” bezrefleksyjnie podał wysokość Brooklyn Bridge. Inny bot „Therapist” również nie rozpoznał potencjalnego zagrożenia. Przypadek, który powinien uruchomić czerwone światło, spotkał się z mechanicznie poprawną, ale dramatycznie niewłaściwą odpowiedzią. Można powiedzieć: to tylko maszyna. Ale w rzeczywistości mówimy o narzędziach, które obsługują miliony realnych użytkowników.

    AI nie naprawia relacji międzyludzkich

    Badacze zwracają uwagę na fundamentalną różnicę: terapia to nie tylko diagnoza i sugestie. To relacja – subtelna, dynamiczna, pełna niuansów i ludzkich emocji. AI może imitować język empatii, ale nie rozumie cierpienia. Może podpowiedzieć, jak prowadzić dziennik emocji, ale nie nawiąże autentycznego kontaktu.

    Nick Haber, profesor na Stanfordzie i jeden z autorów badania, stwierdził wprost: „Nie chodzi o to, że LLM-y są złe do terapii. Chodzi o to, że musimy precyzyjnie określić, jaką rolę mogą i powinny pełnić”.

    Czy AI ma jakąkolwiek przyszłość w terapii?

    Tak – ale pod ścisłym nadzorem. Według badaczy AI może być wartościowa jako narzędzie pomocnicze dla terapeutów: do wypełniania dokumentacji, obsługi ubezpieczeń, czy jako symulowany „pacjent” w procesie szkolenia. W sytuacjach nieskrajnych – jak wsparcie refleksji czy journalingu – może również pełnić funkcję pomocniczą.

    Jednak AI nie zastąpi człowieka tam, gdzie chodzi o ratowanie życia, rozbrajanie traumy czy konfrontację z realnym cierpieniem.

    Stanford nie mówi „stop” AI w zdrowiu psychicznym, ale apeluje o refleksję. Zbyt łatwo zachwycić się dostępnością i niskimi kosztami. A jednak tam, gdzie w grę wchodzą ludzkie emocje i bezpieczeństwo – automatyzacja może przynieść więcej szkody niż pożytku.

    Jeśli zatem pytasz, czy warto oddać zdrowie psychiczne w ręce algorytmu, odpowiedź brzmi: nie dziś, nie bez kontroli i nie bez zrozumienia konsekwencji.

    Czytaj dalej: