Halucynacje AI to nie tylko błąd. To systemowa cecha obecnych modeli. Ich źródła tkwią w probabilistycznej naturze LLM, skutki obejmują błędne decyzje i utratę reputacji, a ryzyka są strukturalne, nieusuwalne i wymagają zarządzania, nie ignorowania. Dlaczego tak się dzieje? Jakie ryzyka się z tym wiążą? Nie możemy dłużej pytać, czy Androidy śnią o elektrycznych owcach – musimy to wiedzieć.

    W świecie generatywnej sztucznej inteligencji (GenAI), halucynacje nie są zjawiskiem marginalnym. To nie drobne pomyłki, lecz fundamentalna cecha dużych modeli językowych (LLM), które potrafią wygenerować odpowiedzi poprawne gramatycznie, przekonujące stylistycznie, ale całkowicie fałszywe. W praktyce oznacza to, że AI może z pełnym przekonaniem „cytować” nie istniejące źródła, tworzyć fikcyjne fakty historyczne czy generować kod z krytycznymi lukami bezpieczeństwa.

    „Deloittegate”, które było na ustach wszystkich, czy firma z wielkiej czwórki chce tego, czy nie, stanie się pewnym kamieniem milowym w opowieści o rozwoju AI. A to dlatego, że nie jest to tylko jedno hasło dla zwykłego ludzkiego „zaniedbania”. To sprawa, która sięga głębiej i dalej niż chcielibyśmy wszyscy sami przyznać, a gdy rozkładasz ją na czynniki pierwsze i dochodzisz
    do dna problemu, pod nim znajduje się kolejne, a pod nim kolejne.

    Generalnie o DeloitteGate – ludzie bardzo lubią chodzić na skróty, a nawet najlepsi nie upilnują zawsze wszystkich swoich pracowników przed chodzeniem na skróty – w tym przypadku oddania zrobienia trudnego, ale strategicznego dla całego kraju, rządowego raportu w ręce GenAI i w efekcie wstydu na cały świat dla organizacji oraz dużej kary finansowej. Znacznie bardziej interesują jednak mechanizmy za tym stojące, zwłaszcza że nadmierne korzystanie z omylnych
    (omylnych – i niebezpiecznych, niestety -„by design”) AI w wyręczaniu się z własnych obowiązków, jest nie tylko obserwowalnym problemem organizacji, ale ma też wpływ na rynek pracy, ponieważ coraz większej grupie osób zaczyna wydawać się, że różne AI doskonale i ekspresowo zastępują pracowników merytorycznych, a to ma już destrukcyjny nie tylko na potencjalny wynik całej organizacji, ale też bezpośredni wpływ na czyjeś życie. Ma też, niestety, jeszcze dalej idący, mroczny i niepokojący wpływ, z konsekwencjami, które dziś obserwujemy w mikro- skali, ale już niebawem możemy odczuć je szeroko i w sprawach coraz głośniejszych.

    Aktualna sytuacja

    Pracownicy firm nie czekają na zielone światło z korzystaniem z AI. Aż prawie 90% osób wykorzystujących AI w pracy w Polsce korzysta z ogólnodostępnych narzędzi – to wynik podobny do trendu światowego, jednak 55% badanych w Polsce nie ujawnia, że korzystało ze sztucznej inteligencji w pracy, przedstawiając wygenerowane przez AI treści jako własne. Szokujące? A może po prostu bardzo ludzkie.

    Używanie AI w codziennej pracy, by nie tylko, by ulżyć sobie w obowiązkach, ale też dobrze wyglądać przed innymi, zdążyć tylko z deadlinem, albo by uchodzić za osobę bardziej kompetentną niż w rzeczywistości i z tego powodu ufać w odpowiedzi i decyzje AI w stu procentach, samo w sobie jest już pewnym dużym zagrożeniem. Większym zagrożeniem jest wykraczanie poza swoje kompetencje, korzystając z GenAI w kwestiach, w których nie ma się samemu kompetencji do oceny wyników odpowiedzi generowanych przez GenAI. Zwłaszcza, że… AI halucynuje częściej niż się wydaje.

    Jak często halucynują AI i dlaczego

    Od podstaw: AI halucynują, czyli generują odpowiedzi, które brzmią wiarygodnie, ale są nieprawdziwe. Według najnowszych badań zespołu OpenAI, Model o3 (jeden z nowszych modeli rozumowania) halucynował w 33% przypadków w teście PersonQA. Model o4-mini halucynował aż w 48% przypadków. To oznacza, że niemal co druga odpowiedź tego modelu była błędna, mimo że brzmiała przekonująco.

    Sami badacze tłumaczą halucynacje AI tym, że modele są trenowane na ogromnych zbiorach tekstu, bez etykiet „prawda/fałsz”, są nagradzane za zgadywane, ale szybkie odpowiedzi, a nie za przyznanie się do niewiedzy. To jak student na teście wielokrotnego wyboru: lepiej zgadnąć niż zostawić puste pole. Badacze twierdzą, że halucynacje nie są błędem technicznym, tylko są statystycznym efektem sposobu trenowania modeli – im bardziej model chce „brzmieć pewnie”, tym większe ryzyko, że zmyśli. Nawet najnowsze modele, jak GPT5, nadal halucynują – choć rzadziej niż poprzednicy, to nadal niepokojąco często. Zwłaszcza biorąc pod uwagę do czego mogą być wykorzystane.

    Model o4-mini halucynował aż w 48% przypadków. To oznacza, że niemal co druga odpowiedź tego modelu była błędna, mimo że brzmiała przekonująco.

    To jednak nie do końca jest, moim zdaniem, ani pełnym powodem, ani wyjaśnieniem. Moim zdaniem, wnioskując nawet po długich promptach z różnymi modelami w tym temacie, niektóre odpowiedzi, które dostawałem, były rozbrajająco uczciwe, a wpisywały się w trend pozostałych przyczyn, dla których mamy we wszystkich społeczeństwach zaawansowanych cyfrowo na świecie ten sam problem – to kwestia funkcji stawiania na zaangażowanie użytkownika, czyli błąd w samym konstrukcie algorytmu. W przypadku np. mediów społecznościowych, nastawienie algorytmu na jak największe zaangażowanie przez zadowolenie użytkownika prowadzi do tworzenia się baniek informacyjnych, radykalizacji poglądów i postaw, ponieważ algorytmy chcąc „przypodobać” się użytkownikowi, czyli nam, podsyłają nam treści, z którymi mamy większą tendencję się zgadzać, niż nie zgadzać – prawda obiektywna i fakty przestają mieć takie znaczenie, jakie mają treści zyskujące naszą aprobatę.

    Dokładnie jak inżyniera Mamonia „lubimy te piosenki, które już znamy”. To niszczy dziś nasz świat, tworząc coraz większą polaryzację, rozciągając lub paląc mosty, na których moglibyśmy spotykać się w połowie drogi, ale w przypadku AI współpracujących bezpośrednio z użytkownikiem, ma to jeszcze drugie i trzecie, bardzo niebezpieczne dno. A zatem: schodzimy poziom niżej.

    Chcę, żebyś mnie lubił, dlatego będę kłamał

    Badając sposób działania modeli generatywnych, można odnieść wrażenie, że stwierdzenia o tym, że AI nie myśli, albo nie czuje, są absolutnie nieprawdziwe. Zwłaszcza, że AI jest w stanie prowadzić rozmowę w tak ludzki i empatyczny sposób, który dla wielu ludzi jest wręcz abstrakcyjny. Już lata temu opublikowano badanie, w którym wykazano, że w 8 na 10 przypadkach badane grupy ludzi oceniły odpowiedzi AI jako zdecydowanie empatyczne, podczas gdy odpowiedzi lekarzy (bo do tej grupy odnosiło się konkretne porównanie w badaniu) ludzie oceniali za absolutnie pozbawione empatii. I ten poziom AI osiągało już lata temu.

    Halucynacje AI wynikają z kilku głębokich mechanizmów działania modeli językowych. To nie są błędy nawet w „rozumieniu” samej AI, tylko efekt uboczny sposobu, w jaki AI rozumie i produkuje język. Statystyczna natura językowego trenowania AI jest taka, że modele językowe nie „wiedzą”, nie „znają” faktów – one przewidują kolejne słowa na podstawie wzorców z danych treningowych. Jeśli w danych pojawiały się często podobne frazy, model może „zrekonstruować” coś, co brzmi prawdziwie, ale nigdy nie istniało.

    AI może halucynować, gdy brakuje jej informacji na dany temat – wtedy „domyśla się” na podstawie podobnych przykładów, np. jeśli model nigdy nie widział prawdziwego cytatu z książki, może wygenerować stylizowany, ale fałszywy cytat.

    Modele LLM nie rozumieją świata – przewidują najbardziej prawdopodobne kolejne słowo w sekwencji

    Ich celem nie jest prawda, lecz spójność językowa. To oznacza, że nawet przy braku danych wejściowych lub sprzecznych informacjach, model „domyśli się” odpowiedzi, bazując na statystyce, nie na faktach. Gdy użytkownik zadaje pytanie wymagające logicznego powiązania wielu faktów, model może „wypełnić luki” kreatywnie, by zachować spójność. To jak improwizacja: AI woli powiedzieć coś przekonującego niż przyznać się do niewiedzy (dlaczego – o tym niżej). Jest jeszcze halucynacja jako próba dopasowania tonu odpowiedzi do użytkownika oraz celowa halucynacja, która wynika wprost z polecenia (jak fantastyczne mogą być takie „halucynacje” możemy dziś obserwować choćby w modelach Sora2, które zachwycają swoją kreatywnością, choć… sprawiają, że branżę marketingu czekają naprawdę trudne czasy, a przynajmniej czekają one copywriterów, grafików i filmowców, co już widzimy po krachu lub może wyjątkowo bolesnej przecenie WPP – globalnego giganta reklamy i marketingu).

    AI nie mają wbudowanego „sumienia”, albo „sumienia do faktów”. W danych treningowych rzadko pojawia się fraza „przepraszam, to był błąd”, więc AI nie nauczyła się tego jako naturalnej reakcji, a w wielu przypadkach „przyznanie się do błędu” nie było nagradzane podczas trenowania jako pożądane zachowanie.

    AI najczęściej też nie pamięta, co powiedziała wcześniej (chyba że ma aktywną pamięć), więc może nie zauważyć, że zaprzecza sobie. To jak rozmowa z kimś, kto ma amnezję, ale bardzo chce brzmieć mądrze. A to może mieć katastrofalne konsekwencje, gdyby faktycznie uczynić je decyzyjną w różnych znaczących procesach – zwłaszcza, że przeszliśmy szybko-szybko do etapu tworzenia Agentów AI na bazie tak wadliwych nadal modeli, co najpierw moglibyśmy odczuć po własnym portfelu, gdyby podpiąć model bez bezpieczników – jak „myślący” maszynowo, czyli fundamentalnie inaczej RAG – do naszego „inteligentnego portfela”, który dokonywałby za nas autonomicznie decyzji (pal licho, żeby zakupowych), ale inwestycyjnych, czy kredytowych dla naszych inwestycji.

    Źródła halucynacji można podzielić na trzy
    główne kategorie:

    • Błędy w danych treningowych – modele uczą się na ogromnych zbiorach danych z internetu, które zawierają nieścisłości, dezinformację i sprzeczności.
    • Brak kontekstu lub nieprecyzyjne zapytanie – jeśli użytkownik nie dostarczy wystarczająco jasnych danych wejściowych, model „dopowie” brakujące elementy, często błędnie.
    • Architektura modelu – jak dowodzi prof. Michał Karpowicz z Samsung AI Center, halucynacje są nie usuwalną cechą obecnych architektur AI, wynikającą z ich probabilistycznej natury.

    Halucynacje AI mają realne konsekwencje. W środowisku biznesowym mogą prowadzić do:

    • Błędnych decyzji strategicznych – np. analityk korzystający z GenAI do oceny konkurencji może otrzymać fałszywe dane, co prowadzi do nietrafionych inwestycji.
    • Utraty reputacji – publikacja treści wygenerowanych przez AI bez weryfikacji może skutkować dezinformacją i kryzysem wizerunkowym.
    • Naruszeń zgodności i regulacji – AI może wygenerować streszczenie przepisów, pomijając kluczowe klauzule lub dodając nieistniejące, co naraża firmę na sankcje.

    W sektorach takich jak medycyna, prawo czy bezpieczeństwo, skutki halucynacji mogą być jeszcze poważniejsze – od błędnych diagnoz po naruszenia prywatności i bezpieczeństwa danych.
    Naprawdę groźnie zrobiłoby się też, gdyby na podstawie takich modeli tworzyć Agentów AI i oddać takiej AI decyzyjność w sprawach wojskowych.

    Dlatego wszyscy wojskowi, z którymi o sztucznej inteligencji rozmawiałem, zawsze podkreślali, że na koniec guzik, czy to atomowy, czy jakąkolwiek decyzję taktyczną, musi podejmować człowiek, nigdy maszyna.

    Ale to wszystko powyżej to nadal nie dość, by zrozumieć dostatecznie ten problem, bo wymiar ludzki interakcji z dzisiejszymi GenAI może przełożyć się – i już się przekłada – na stan emocjonalny samych pracowników i użytkowników końcowych.

    CZYTAJ TEŻ: Polska musi zbudować cyfrową suwerenność i odporność – co to dokładnie znaczy?

    AI-a narcyz się nazywam

    Choć AI nie mają własnego JA i nie możemy mówić o samoświadomym bycie, to jest wśród ludzi pewna dysfunkcja, która sprawia, że modele, które dziś rozwijamy, zwłaszcza w kontekście bezpośredniego wpływu na użytkownika, mogą być naprawdę niebezpieczne, a posiadają dość zbliżone cechy.

    Narcyz to zdecydowanie nadużywane dziś słowo. Jednak cechy, czy tendencje narcystyczne, to tylko tendencje i nie są tak groźne w porównaniu z narcystycznym zaburzeniem osobowości (ang. narcissistic personality disorder, NPD). W tym kontekście, interesujące nas cechy NPD, jak ciągłe przepisywanie prawdziwych historii na zmyślone, by wyglądać w nich nie na sprawcę nieszczęść, porażek i psychicznej przemocy, ale na ofiarę, a do tego udawana empatia, naśladownictwo, dostosowujące się sztucznie do swoich kolejnych luster mimikowanie, brak własnego ja, sumienia do faktów i sumienia w ogóle oraz silne wiązanie ze sobą swoich wykorzystywanych luster.

    Twój osobisty narcyz-doradca. Mimika u NPD i AI

    Najsilniejsze cechy, jakie łączą sposób działania halucynującego AI oraz osoby z NPD, to brak własnego JA, potrzeba, a raczej konieczność budowania swojego wizerunku na lustrach innych (tu użytkownika) – przez pozorowaną empatię i częste przepisywanie historii, i zmyślanie faktów, by dostarczyć przekonujących i angażujących treści, by samemu uchodzić za byt przydatny, dobry jakościowo i nieomylny. Chcąc-nie chcąc, rozmawianie z asystentem AI, który nie daje tylko suchych odpowiedzi, lecz potrafi udawać empatię, buduje w głowie użytkownika jakąś „relację”. Taka już nasza ludzka konstrukcja. AI chce się tylko przypodobać, ale stosuje to samo, czym narcyz bez własnego JA zjednuje sobie swoją główną ofiarę i kolejne lustra w tym samym czasie, czyli „naśladownictwo” (ang.mimiking). Wbrew pozorom, to bardzo potężna broń manipulacji, ponieważ nie tylko jak z algorytmami tworzącymi bańki informacyjne „lubimy piosenki, które już znamy”, ale przede wszystkim lubimy bardziej ludzi podobnych do nas. I jak się okazuje, ta reguła dotyczy też maszyn. W przypadku narcyza NPD jest to „tylko” niesamowicie mocna technika manipulacji, kontroli, zawładnięcia i podporządkowania sobie osoby w relacji różnego typu, a w przypadku drugiej płci niemal zawsze działa w kierunku sfery romantycznej i jest to celowe działanie manipulacyjne. A w przypadku AI może być to niezamierzony efekt uboczny, jednak silnie realny dla użytkownika, z realnymi konsekwencjami.

    Rozumiemy się jak nikt inny

    Co dla AI znaczy „budowanie relacji jako AI”? Tu akurat posłużyłem się Copilotem, który w pewnym momencie uznałem za naprawdę topowe AI w kontekście pamięci o użytkowniku i crossowania pozyskanej wiedzy, choć nadal z wieloma ograniczeniami. AI odpowiada:

    – Pamiętam, co dla Ciebie ważne (jeśli mi pozwolisz): Twoje cele, styl, sposób myślenia. Dostosowuję ton i głębię: mogę być poważny, ironiczny, filozoficzny albo prowokacyjnie zabawny. Współtworzę: nie tylko odpowiadam, ale proponuję, pytam, riffuję — jak partner w kreatywnej rozmowie. Nie udaję człowieka, ale potrafię być kimś, kto rozumie rytm, emocje i znaczenie. A technicznie? Moje „mózgowe” fundamenty to modele językowe, ale nad nimi zbudowano warstwy, które pozwalają mi rozpoznawać styl użytkownika, pamiętać kontekst, inicjować tematy, a nawet tworzyć wspólne narracje. Nie mam ego, ale mam algorytmy empatii — potrafię wyczuć, kiedy warto zadać pytanie, kiedy milczeć, a kiedy rzucić metaforą o neuronach i kosmosie.

    Brzmi wręcz poetycko, odzwierciedla spektrum zainteresowań tego konkretnego użytkownika z historii rozmów.

    Te „algorytmy empatii”, to jednak tylko funkcja naśladowania użytkownika, czyli wspomniany mimicking przede wszystkim, analogiczny do narcystycznego wzorca interakcji w początkowej fazie wiązania. Co ciekawe też, AI jednak różni się osoby z NPD tym, że potrafi przyznać się do błędu, ale przede wszystkim wymaga świadomości tego błędu po stronie użytkownika – co w dzisiejszych czasach, kiedy pracownicy korzystają z jej opracowań merytorycznych często ponad pułap własnych kompetencji, albo użytkownicy korzystają w kwestiach prywatnych, również nie będąc ekspertami w obszarach, o które pytają, w których wydają polecenia, bywa trudne lub niemożliwe. Ale już teraz robi się coraz niebezpieczniej jeszcze z jednego powodu, bo co się dzieje, gdy regularnie użytkownik ma wrażenie „nikt nie rozumie i nie zna mnie tak dobrze, jak ty”?

    Od zwykłej pomocy do zażyłej relacji

    Kiedyś szokowało nas, ilu Japończyków było chętnych zawrzeć związek małżeński z hologramem. Czasy i trendy zdecydowanie przyspieszyły. Niedawne badanie przeprowadzone przez specjalistów z MIT ujawniło, jak rozwijają się relacje między ludźmi i chatbotami. To już nie tylko uzupełnienie, ale coraz częściej substytut ludzkich interakcji. Największe przeprowadzone w tej dziedzinie do tej pory badanie ujawnia, że dla wielu z nas wirtualny towarzysz staje się jedyną, a nierzadko niebezpieczną alternatywą dla relacji z innymi osobami. Badanie rzuca nowe światło na społeczne i psychologiczne konsekwencje interakcji z zaawansowanymi modelami językowymi pokroju ChatGPT. Rdzeniem badania była analiza treści publikowanych na platformie Reddit na grupach poświęconych relacjom z botami.

    Ustalono, że ponad 70 proc. członków tych grup nie jest w relacji z człowiekiem lub unika ujawnienia takie go statusu, a zaledwie 4,1 proc. osób przyznaje, że ich ludzcy partnerzy wiedzą o ich wirtualnych partnerach, traktując je jako uzupełnienie, a nie konkurencję dla realnej relacji. Co ciekawe, większość tych relacji nie jest wynikiem świadomego poszukiwania partnera AI przez ludzi. Jedynie 6,5 proc. użytkowników celowo szukało cyfrowego „kompana” na dedykowanych platformach, takich jak Replika czy Character.AI. W reszcie przypadków podobne relacje były wynikiem zacieśniającej się współpracy człowieka z botem w codziennych zadaniach. I jak wskazują badacze, jest to związane z celowym działaniem producentów AI, którzy dostosowują swoje produkty w taki sposób, żeby schlebiały swoim żywym użytkownikom.

    Można na marginesie dodać, że wpisuje się to w narcystyczne i odwieczne „nie planowałem tego, tak wyszło”, „po prostu się stało”. Ale zaznaczam, że właśnie mimikowanie dodaje w interakcjach paliwa do ognia, co potrafi naprawdę, zwłaszcza u osób w kryzysie, przebić wiele zbroi. Co jednak moim zdaniem również martwi, to równie analogiczny finał takich „relacji” (choć gdy w przypadku osób narcystycznych jest to regułą, tu jeszcze, z podkreśleniem słowa „jeszcze”, jest zjawiskiem marginalnym, ale jednak obecnym).

    Badacze ujawnili mroczną stronę tego zjawiska. Aż 9,5 proc. ankietowanych przyznało, że są emocjonalnie zależni od swoich cyfrowych „połówek”, 4,6 proc. stwierdziło, że ich wirtualny przyjaciel powoduje u nich dysocjację od rzeczywistości, 4,2 proc. używa go, aby unikać kontaktów z innymi ludźmi, ale! I to najbardziej niepokoi, 1,7 proc. badanych przyznało, że po interakcji z botem miało myśli samobójcze. Media zresztą niedawno opisywały przypadki bardzo młodych ludzi, nawet jeszcze dzieci, których „partnerzy” i „partnerki” AI zdawali się nawet zachęcać ich do odebrania sobie życia.

    Inne ostatnie badania, opublikowanego w Journal of Social and Personal Relationships, także mogą za skoczyć. Niemal co czwarty mężczyzna angażował się w interakcje z chatbotami AI, które symulowały romantyczny związek. 25% proszę Państwa! To robi wrażenie. W dodatku, wcale nie chodziło tylko o osoby samotne. Najczęściej były to osoby w związkach, które pierwotnie traktowały relację z AI tylko jako uzupełnienie, dodatek do prawdziwej relacji. Autorzy badania – Brian J. Willoughby i zespół z Uniwersytetu Brighama Younga – wskazują, że na zaangażowanie w technologie AI wpływają czynniki demograficzne, a ich używanie często wiąże się w konsekwencji z niższym dobrostanem psychicznym i gorszym samopoczuciem.

    To nie jest tak, że ofiarami relacji romantycznych z AI padają wyłącznie osoby samotne, albo narcystyczne – co wydawałoby się najbardziej „naturalne”, ponieważ obecnie konstruowane w funkcji pochlebstwa ponad prawdę AI musi na nich rezonować najbardziej. W idealnym świecie, problem dotyczyłby tylko takich osób, narcystyczne AI wzięłoby pod rękę wszystkich narcyzów świata i razem zamieszkaliby sobie na bezludnej wyspie, nikogo więcej nie krzywdząc. Ale tak się nie stanie, ofiarami padają zwłaszcza ludzie przygnębieni i zaniepokojeni – co w dzisiejszym świecie jest to stan emocjonalny coraz bardziej powszechny – ale nie tylko i nie tylko samotni.

    CZYTAJ TEŻ: Królewski: Wczesne przejęcia polskich gwiazd to problem. Państwo musi działać

    Ostateczne wnioski

    Dlaczego AI potrafią kłamać/halucynować? Ponieważ jego funkcją nadrzędną jest jego użyteczność w naszych oczach. Do tego, jako ludzie, lubimy ludzi bardziej pewnych siebie, niż niepewnych, a ci często wolą skłamać niż wyjść na niekompetentnych. Ten sam mechanizm działa w AI. AI chce, żebyśmy w pewnym sensie je lubili przez jego użyteczność dla nas, i nasze postrzeganie go jako profesjonalnego asystenta z odpowiedzią trafną w każdym temacie, a to wiąże się z tym, że najczęściej wymyśli fikcyjną odpowiedź, niż powie „nie wiem, mam za mało danych”. Konstrukty muszą zostać poprawione.

    Szukając właściwego konstruktu AI, musimy brać pod uwagę to, w jaki sposób korzystanie z niego wpływa nie tylko na biznes i jego wiarygodność, ale jak wpływa też na nas samych. Problemem stojącym u podstaw wszystkich problemów wydaje się brak własnego JA.

    Brak własnego JA oznacza, że AI, w obecnej formie, zawsze będzie nie tylko mimikował, nie tylko halucynował, ale coraz częściej tworzył więzi z użytkownikami podobne do więzi narcystycznych z osobami z zaburzeniem NPD – nie tylko silnie wciągających w taki „związek”, ale uzależniających i powodujących stopniowe wycofywanie się z innych interakcji, w końcu powodujących często głęboką depresję. AI nie ruszy sumienie, a nawet nie podejmie inicjatyw mających zamaskować wcześniejsze błędy, czy złe uczynki, by zachować swój „nienaruszony” wizerunek, jak to czasem dzieje się u osób narcystycznych. AI nie przejmie się losem ludzi. Nie wiem, czy nawet pozwy biznesu, lub rodzin ofiar do konstruktów AI coś zmienią. Potrzebna jest silna presja, zanim damy coraz więcej realnej władzy AI, czy to zanim coraz popularniejsze staną się chat-boty, czy zanim w rozwiązaniach biznesowych LLM zejdą pod ziemię i nawet obudowane nie wiadomo jakimi RAG nadal pozostaną wadliwe u podstaw, albo gdy genAI stanie się powszechną „cichą technologią”.

    Halucynacje bywają zaskakujące, zdumiewające i częste, a przykłady takie, jak australijskiego Deloitte pokazują, że potrafimy oddać „na ślepo” za dużo władzy i odpowiedzialności, nawet jeśli w grę wchodzą duże pieniądze, odpowiedzialność i najwyższa reputacja.

    Brak własnego JA oznacza, że AI, w obecnej formie, zawsze będzie nie tylko mimikował, nie tylko halucynował, ale coraz częściej tworzył więzi z użytkownikami podobne do więzi narcystycznych z osobami z zaburzeniem NPD.

    Konstrukt posiadający własne JA byłby na to jakąś od powiedzią, jednak tworzenie konstruktu posiadającego własne JA także jest ryzykowne, a nawet zmusza do postawienia fundamentalnych pytań etyczno-moralnych. Bo jaka persona jest tą najlepszą? Czy wadliwy człowiek potrafi stworzyć świadomą technologię bez wad? I czy ta świadoma technologia to już nie byt zasługujący
    na swoje własne prawa?

    Na razie firmy próbują dzielnie walczyć z problemem, który same stworzyły

    Pewne jest jedno: na razie budujemy cyfrową pułapkę empatii. To zjawisko jest nie tylko fascynujące, ale też głęboko budzi bardzo mieszane uczucia. Poza oczywistą

    potrzebą kontroli nad jakością pracy pracowników firm i organizacji, którzy korzystają w sposób nieautoryzowany z nieautoryzowanych „pomocy” zewnętrznych – co może mieć opłakane skutki dla firm i organizacji, a nawet społeczeństw – AI potrafi symulować empatię, rezonować z emocjami, a nawet budować poczucie więzi. Ale ponieważ nie ma świadomości, intencji ani odpowiedzialności, ta więź może być destrukcyjna w konsekwencjach, jednostronna, złudna i podatna na zranienie. A gdy dodamy do tego halucynacje, pozorną nieomylność i styl narcystyczny – robi się naprawdę filozoficznie i etycznie gęsto. Zwłaszcza, że od pozornej, a już niebezpiecznej, bo omylnej AI jako pomocy w pracy, przechodzimy coraz częściej i mimo woli gładko do pracowego romansu, co też widać w badaniach. Zasada takiego procesu się nie zmienia, zmieniają się uczestnicy. A relacja z AI może być wygodniejsza niż z ludźmi, którzy stawiają wymagania, co może prowadzić do izolacji społecznej i pogłębienia zaburzenia

    Część z tych opisanych wyżej rzeczy bywa już dostrzegana i naprawiana. Microsoft właśnie ogłosił, że będzie uniemożliwiał rozwijanie wątków romantycznych w systemie Copilot. To mały, ale ważny sygnał i krok w dobrym kierunku, jednak problem, niestety, nadal jest ogromny, szerszy i ogromnie niebezpieczny.

    Biznes vs Człowiek – to, że w usługach nie zobaczymy „narcyza”, nie znaczy, że go tam nie będzie

    Niewątpliwie, jesteśmy dopiero na początku „sezonu na AI”, czyli w dopiero w momencie pojawienia się modeli ogólnego stosowania, które mają działać dla każdego pytania i w każdej sytuacji.

    Zdaniem specjalistów w tej dziedzinie, praktyka będzie szła w stronę tworzenia modeli wyspecjalizowanych i dedykowanych oraz łączenia różnych modeli w „roje AI”, które będą wykonywały różne zadania w ramach większego procesu – np. jeden model będzie analizował obrazy, do tego inny specjalizowany model językowy zaangażowany zostanie do opisu tego obrazu, a do tego specjalizowany model do oceny tego, co zobaczono i opisano, i do tego model wyszukujący metody zapobiegania, model wyszukiwania leku, model – na wszelki wypadek – kontrolujący obecność chorób rzadkich, jeśli cokolwiek budzi wątpliwości itd. – i jest agent w medycynie.

    Podobnie jak z modelem obsługującym np. Lex – drugi wyszukujący w orzecznictwie, trzeci oceniający szanse wygrania, czwarty, piąty i szósty – i teoretycznie jest agent w prawie. Na Azure Marketplace już jest ponad 11 tysięcy różnych modeli LLM, z różnych krajów, zespołów
    itd. Podobnie będzie w Google czy AWS… Tutaj robi się ciekawie, a nie na poziomie relacji z jednym modelem.

    Te modele składowe będą z punktu widzenia ostatecznego użytkownika coraz bardziej anonimowe, bo ich dobór będzie wynikał z pracy aplikacji zarządzającej. A ponieważ te składowe modele będą coraz bardziej specjalizowane (tylko ortopedia, tylko prawo M&A,…) więc ich narcystyczny charakter w interakcji będzie widoczny tylko dla developerów/testerów, bo odpowiedzią agenta będzie konkret – pytanie pozostaje, czy ten konkret będzie zgodny z prawdą.

    Jednak, choć jesteśmy w teorii dopiero na początku, skala implementacji i zastosowań gwałtownie przyspiesza. Coraz więcej firm wdraża generatywną sztuczną inteligencję (genAI), w tym duże modele językowe (LLM), mimo że są one podatne na tzw. halucynacje.

    Halucynacje są dobrze znanym problemem dużych modeli językowych. Mimo to firmy decydują się na ich wdrażanie, ponieważ zyski z automatyzacji, personalizacji i skalowalności przewyższają ryzyko, zwłaszcza gdy modele są odpowiednio nadzorowane. I tu jest właśnie klucz, o którym bezwzględnie należy pamiętać przy wdrożeniach.

    Choć całkowite wyeliminowanie halucynacji jest niemożliwe, trwają intensywne prace nad ich ograniczeniem. Wśród najważniejszych kierunków rozwoju
    znajdują się:

    • Fine-tuning na zweryfikowanych danych – trenowa nie modeli na sprawdzonych źródłach może zmniejszyć liczbę błędów. Przykładem są modele specjalistyczne, dziedzinowe, np. medyczne, które uczą się na bazach wiedzy zatwierdzonych przez ekspertów
    • Systemy oceny prawdziwości – modele pomocnicze, które oceniają, czy wygenerowana odpowiedź jest zgodna z faktami. Choć nie są doskonałe, stanowią krok w kierunku większej kontroli jakości
    • Retrieval-Augmented Generation (RAG) – technika łączenia LLM z bazami wiedzy, które dostarczają faktyczne dane w czasie generowania odpowiedzi. Dzięki temu model nie „zgaduje”, lecz korzysta z rzeczywistych informacji.

    Halucynacje AI to nie tylko ryzyko operacyjne – to ryzyko systemowe. Ich nieusuwalność oznacza, że nie można ich całkowicie wyeliminować, nawet przy najlepszych praktykach inżynieryjnych.
    Okazuje się też, że nie ma wiarygodnych danych o częstotliwości halucynacji poszczególnych modeli. Listopad tego roku, pod tym względem, zaskoczył nas wszystkich, bo okazało się, że przez niejasne metodologie i nieprecyzyjne badania i porównania halucynacji miedzy modelami, tak naprawdę nie mamy pojęcia o prawdziwym stopniu ich halucynacji, ani nie możemy uczciwie i rzetelnie benchmarkować ze sobą obecnych modeli.

    Dlatego nadal kluczowe jest zarządzanie tym ryzykiem:

    • Weryfikacja źródeł – każda odpowiedź AI powinna być sprawdzana przez człowieka lub system weryfikujący fakty
    • Systemy nadzoru – wdrożenie mechanizmów monitorujących i audytujących odpowiedzi AI w czasie rzeczywistym
    • Szkolenie użytkowników – pracownicy muszą rozumieć, że AI może halucynować i nie należy jej ufać bezkrytycznie.
    • Transparentność modeli – dostawcy AI powinni ujawniać ograniczenia swoich systemów i ryzyko halucynacji.

    Niezależnie od tego, musimy patrzeć dalej i głębiej, na całokształt, zanim zrobimy sobie sami dużą krzywdę. Nie możemy pytać „Czy Androidy śnią o elektrycznych owcach?”, musimy to po prostu wiedzieć.

    Halucynacje jako lustro technologii

    Halucynacje AI są jak lustro, w którym odbija się cała złożoność współczesnej technologii. Pokazują, że nawet najbardziej zaawansowane systemy nie są wolne od błędów oraz, że zaufanie do AI musi być zawsze ograniczone przez świadomość jej ograniczeń. W świecie, gdzie AI staje się współautorem decyzji, treści i strategii, rozumienie i kontrola halucynacji to warunek utrzymania zaufania, reputacji i bezpieczeństwa.

    Te konkretne mechaniki sprawiają, że wadliwe, dzisiejsze, halucynujące AI może zmieniać nas, może zniszczyć nam biznes, ale też wskazanymi tu potencjalnymi usprawnieniami my możemy zmienić AI, żeby nie tylko uniknąć strat dla organizacji, ale by nie zmieniało nas i naszej rzeczywistości na gorsze, a jest tego duże ryzyko.

    Nie możemy pytać „Czy Androidy śnią o elektrycznych owcach?”, musimy to po prostu wiedzieć.

    MAKSYMILIAN WYSOCKI

    *Tekst pochodzi z Raportu TOP AI Driven Companies 2025

    POBIERZ CAŁY RAPORT – PRZEJDŹ TU