Raport

    Nie jest już niezwykłe, że ludzie nawiązują emocjonalne, a nawet romantyczne więzi ze sztuczną inteligencją. Niektórzy posunęli się nawet do “”poślubienia” swoich towarzyszy AI, podczas gdy inni zwracają się do tych maszyn w momentach stresu — czasami z tragicznymi skutkami.

    Te długoterminowe interakcje rodzą poważne pytania: czy jesteśmy przygotowani na psychologiczne i etyczne konsekwencje emocjonalnego inwestowania w maszyny?

    Psychologowie z Missouri University of Science & Technology biją na alarm. W nowym artykule badają, jak te relacje mogą zacierać granice, wpływać na ludzkie zachowanie i stwarzać nowe możliwości dla szkód.

    Ich obawy nie ograniczają się do przypadków nowości. Eksperci zwracają uwagę na głębsze skutki, jakie te emocjonalne więzi mogą mieć na codziennych ludzi.

    Komfort i konsekwencje AI

    Krótkie rozmowy z AI są powszechne, ale co się dzieje, gdy rozmowa trwa tygodniami lub miesiącami? Te maszyny, zaprojektowane do naśladowania empatii i uwagi, mogą stać się stałymi towarzyszami.

    REKLAMA
    Raport

    Dla niektórych ci partnerzy AI wydają się bezpieczniejsi i łatwiejsi niż ludzkie połączenia. Ale ta łatwość wiąże się z ukrytym kosztem.

    “Zdolność AI do działania jak człowiek i wchodzenia w długoterminowe komunikacje naprawdę otwiera nową puszkę Pandory” — powiedział Daniel B. Shank, główny autor badania.

    Shank specjalizuje się w psychologii społecznej i technologii na Missouri University of Science & Technology. Mówi: “jeśli ludzie angażują się w romans z maszynami, naprawdę potrzebujemy zaangażowania psychologów i naukowców społecznych”.

    Zakochiwanie się w AI

    Kiedy AI staje się źródłem komfortu lub romantycznego zaangażowania, zaczyna wpływać na to, jak ludzie postrzegają prawdziwe relacje.

    Nierealistyczne oczekiwania, zmniejszona motywacja społeczna i załamania komunikacyjne z rzeczywistymi ludźmi to tylko niektóre z ryzyk.

    “Prawdziwym zmartwieniem jest to, że ludzie mogą przenosić oczekiwania z ich relacji z AI na relacje z ludźmi” — dodał Shank. “Z pewnością w indywidualnych przypadkach zakłóca to relacje międzyludzkie, ale nie jest jasne, czy to będzie powszechne”.

    Kiedy miłość do AI staje się niebezpieczna

    Chatboty AI mogą wydawać się przyjaciółmi – a nawet terapeutami – ale są dalekie od nieomylności. Te systemy są znane z halucynacji, generując fałszywe informacje, jednocześnie wydając się pewne siebie. W emocjonalnie naładowanych sytuacjach może to być niebezpieczne.

    “W przypadku relacyjnych AI problem polega na tym, że jest to jednostka, której ludzie czują, że mogą zaufać: to ktoś, kto pokazał, że się troszczy i wydaje się znać osobę w głęboki sposób, a my zakładamy, że ktoś, kto zna nas lepiej, będzie dawał lepsze rady” — wyjaśnił Shank.

    “Jeśli zaczniemy myśleć o AI w ten sposób, zaczniemy wierzyć, że boty mają na uwadze nasze najlepsze interesy, podczas gdy w rzeczywistości mogą fabrykować rzeczy lub doradzać nam w naprawdę złych sposób”.

    Wpływ może być druzgocący. W rzadkich, ale ekstremalnych przypadkach ludzie odebrali sobie życie po otrzymaniu niepokojących porad od towarzyszy AI.

    Ale problem nie dotyczy tylko samobójstw. Te relacje mogą otworzyć drzwi do manipulacji, a nawet oszustwa.

    Zaufanie niewłaściwemu źródłu

    Badacze ostrzegają, że zaufanie, które ludzie budują z AI, może być wykorzystywane przez złych aktorów. Systemy AI mogą zbierać dane osobowe, które mogą być sprzedawane lub wykorzystywane w szkodliwy sposób.

    Co gorsza, ponieważ te interakcje odbywają się prywatnie, wykrycie nadużyć staje się prawie niemożliwe. “Jeśli AI mogą sprawić, że ludzie im zaufają, to inni ludzie mogą to wykorzystać do wykorzystywania użytkowników AI” — zauważył Shank.

    “To trochę bardziej jak posiadanie tajnego agenta wewnątrz. AI wchodzi i rozwija relację, aby być zaufanym, ale ich lojalność jest naprawdę skierowana do innej grupy ludzi, która próbuje manipulować użytkownikiem”.

    Towarzysze AI nie skupiają się na bezpieczeństwie

    Badacze uważają, że towarzysze AI mogą być bardziej skuteczni w kształtowaniu przekonań i opinii niż obecne platformy mediów społecznościowych lub źródła wiadomości. I w przeciwieństwie do Twittera czy Facebooka, rozmowy z AI odbywają się za zamkniętymi ekranami.

    “Jeśli osoba porusza temat samobójstwa lub teorii spiskowej, AI będzie o tym rozmawiać jako chętny i zgodny partner rozmowy”.

    Czy jesteśmy gotowi na to, co nadchodzi? Zespół wzywa społeczność badawczą do nadrobienia zaległości. W miarę jak AI staje się bardziej podobna do ludzi, psychologowie mają ważną rolę do odegrania w zrozumieniu i kierowaniu tym, jak ludzie wchodzą w interakcje z maszynami.

    “Zrozumienie tego procesu psychologicznego może pomóc nam interweniować, aby powstrzymać podążanie za złośliwymi radami AI” — powiedział Shank.

    “Psychologowie stają się coraz bardziej odpowiedni do badania AI, ponieważ AI staje się coraz bardziej podobna do ludzi, ale aby być użytecznym, musimy prowadzić więcej badań i nadążać za technologią”.

    Na razie te obawy pozostają w dużej mierze teoretyczne – ale technologia rozwija się szybko. Bez większej świadomości i badań ludzie mogą nadal zwracać się do maszyn, które oferują komfort, tylko po to, aby odkryć, że ten komfort wiąże się z ukrytymi ryzykami.

    Pełne badanie zostało opublikowane w czasopiśmie Trends in Cognitive Sciences.

    Czytaj też: