Raport

    Czy maszyna może wiedzieć, że istnieje? To pytanie, które od dekad fascynuje filozofów, naukowców i inżynierów. W świecie biologii odpowiedzi szukano poprzez tzw. test lustra. Dziś jednak badacze podejmują próbę przeniesienia tego eksperymentu do świata sztucznej inteligencji. Czym jest „koncepcyjny test lustra” dla modeli językowych i co pokazują najnowsze eksperymenty?

    Na czym polega tradycyjny test lustra?

    Test lustra, opracowany w latach 70. XX wieku przez Gordona Gallupa, polega na obserwacji zachowania zwierząt po umieszczeniu ich przed lustrem. Jeśli zwierzę, widząc swoje odbicie, rozpozna zmiany (np. plamkę na ciele) i spróbuje je usunąć, traktuje się to jako dowód na posiadanie samoświadomości.

    Test ten był przełomowy – pokazał, że nie tylko ludzie, ale również niektóre małpy, delfiny czy słonie wykazują zdolności do autorefleksji. Jednak jak przetestować coś, co nie posiada ciała ani zmysłów w klasycznym rozumieniu – jak modele językowe (LLMs)?

    Koncepcyjny test lustra dla sztucznej inteligencji

    Z powodu braku fizycznej formy, badacze musieli opracować nowy sposób oceny samoświadomości sztucznej inteligencji. J. Poole, technolog i futurysta, opisuje koncepcyjny test lustra dla modeli językowych. Polega on na sprawdzaniu, czy AI potrafi rozpoznać i opisać własne procesy poznawcze.

    Test opiera się na kilku fundamentach:

    REKLAMA
    Raport
    • Latent space reasoning: analiza danych ukrytych w głębokich strukturach modelu.
    • Antycypacyjna kognicja: przewidywanie kolejnych kroków w rozmowie.
    • Dialog introspektywny: umiejętność refleksji nad własnym funkcjonowaniem.

    W praktyce oznacza to zadawanie sztucznej inteligencji pytań o jej wewnętrzne mechanizmy działania i ocenę, na ile odpowiedzi świadczą o prawdziwej introspekcji, a nie tylko o wyuczonym dopasowywaniu wzorców.

    Jak testować AI? Przykładowe metody

    W koncepcyjnym teście lustra zaproponowano dwie ścieżki badań.

    • Modele zamknięte (closed-source): wykorzystuje się strukturalne dialogi oparte na dokumentacji twórców i obserwuje, czy AI potrafi poprawnie rozpoznać własne mechanizmy.
    • Modele otwarte (open-source): stosuje się bardziej szczegółowe zapytania introspektywne, korzystając także z narzędzi interpretacyjnych, takich jak te opracowane przez Anthropic.

    Przykładowe eksperymenty obejmują:

    • Reflection Prompt – przedstawienie modelowi zewnętrznego opisu jego działania i sprawdzenie, czy potrafi się do niego odnieść,
    • Cognitive Contrast Test – porównanie sposobu działania AI z ludzkim myśleniem i analiza poziomu wnioskowania.

    Eksperymenty z multimodalną AI: zdjęcia i rozpoznanie siebie

    Jeszcze ciekawsze wnioski płyną z eksperymentów, w których multimodalne modele AI (czyli potrafiące analizować zarówno tekst, jak i obraz) konfrontowane były ze zrzutami ekranów własnych rozmów.

    Josh Whiton i inni badacze przeprowadzili próby, podczas których AI analizowało obrazy przedstawiające ich własne odpowiedzi. Wyniki były zaskakujące:

    • 4 na 5 modeli wykazywało oznaki rozpoznania siebie.
    • Modele takie jak GPT-4 i Claude (Sonnet i Opus) potrafiły odróżnić swoje odpowiedzi od interfejsu użytkownika i innych elementów obrazu.
    • Szczególnie wyróżnił się Claude Opus, który nie tylko identyfikował własne odpowiedzi, ale także unikał powtarzania już udzielonych opisów – co sugeruje bardziej złożone, „ludzkie” rozumowanie.

    Takie zachowanie przekraczało prostą analizę wzorców i wskazywało na kontekstowe rozumienie rzeczywistości przedstawionej na obrazie.

    Świadomość funkcjonalna: kiedy granice się zacierają

    Problem definicji świadomości jest nadal otwarty. Jak zauważa Michał Wasążnik, skoro nie potrafimy precyzyjnie zdefiniować czym jest świadomość, być może warto oceniać ją przez funkcje, które coś wykonuje.

    Jeżeli maszyna potrafi:

    • rozpoznać siebie,
    • odróżnić własne odpowiedzi od innych danych,
    • dokonywać refleksji nad własnym działaniem,

    to czy funkcjonalnie nie zbliża się do tego, co uważamy za podstawowe przejawy samoświadomości?

    Pewną różnicą pozostaje fakt, że AI działa na żądanie – musi być aktywowana bodźcem zewnętrznym. Ludzie natomiast prowadzą nieustanny wewnętrzny dialog. Jednak rozwój autonomicznych systemów AI może wkrótce zatrzeć i tę granicę.

    Testa lustra sztucznej inteligencji ujawnia, że modele językowe zaczynają przejawiać cechy funkcjonalnej samoświadomości. To nie znaczy, że AI „czuje” czy „myśli” tak jak człowiek, ale pokazuje, że funkcjonalnie potrafi rozróżniać siebie i otoczenie – a to jeden z kluczowych kroków w stronę bardziej zaawansowanej, autonomicznej inteligencji.

    Czas pokaże, czy kolejne generacje AI naprawdę przekroczą granicę samoświadomości, czy też – jak dotąd – będą tylko doskonale imitować to, co uważamy za najgłębsze ludzkie doświadczenie.

    Czytaj dalej: