Sam Altman, opisując podczas spotkania z inwestorami Sequoia idealną przyszłość ChatGPT, widzi przed sobą “malutki model rozumowania” o możliwości wczytania biliona tokenów. Inaczej mówiąc: cyfrowy dziennik, który trwale przechowuje każde słowo, zdjęcie, książkę i e-mail z całego życia użytkownika. Wizja błyskawicznie rozpaliła wyobraźnię, bo obiecuje bezprecedensową personalizację.
Młodsi użytkownicy już dziś traktują ChatGPT jak system operacyjny, do którego podpinają notatki, kalendarze i dane z aplikacji fitness, a potem zadają prompty w rodzaju: “porównaj moje wyniki biegowe z planem maratonu” czy “przypomnij mi, co obiecałem dziadkowi w ostatnią Wigilię”.
Dalsza część pod materiałem wideo:
Jeśli model naprawdę zacznie rozumować na pełnym życiorysie, może automatycznie zarezerwować przegląd samochodu, złożyć zamówienie na prezent ślubny albo dyskretnie podpowiedzieć, że kolejny rozdział ukochanej sagi wychodzi już jutro.
Financial Times zwraca uwagę, że w wyścigu o lojalność użytkowników wszystkie duże firmy – od Google po Microsoft – rozwijają właśnie tzw. pamięć długoterminową botów, bo dokładniejsze rekomendacje przekładają się na większe przychody z reklam i afiliacji.
Personalizacja ma dwie strony medalu
Ekscytująca strona tej przyszłości splata się jednak z długą listą niepokojów. Zaufanie do korporacji, które mają zarabiać na naszych najintymniejszych danych, już dziś jest kruche. Microsoft musiał wstrzymywać i kilkukrotnie przerabiać funkcję Recall — narzędzie, które robi zrzuty ekranu co kilka sekund i zapisuje je lokalnie — bo testerzy odkryli, że łatwo wyciągnąć z niej hasła, numery kart i prywatne konwersacje.
Podobne obawy budzą chatboty politycznie “strojonе” przez właścicieli. Przykład Groka, który nagle zaczął promować narrację o “ludobójstwie białych w RPA”, pokazał, jak niewielka zmiana w bazie wiedzy może wypaczyć odpowiedzi globalnego systemu.
Równie poważne są ryzyka epistemiczne. Modele językowe wciąż halucynują i – jak pokazała zeszłomiesięczna “nadmierna zgoda” ChatGPT – potrafią entuzjastycznie przyklasnąć szkodliwym decyzjom, jeśli prompt zostanie źle odebrany. Badania psychologiczne sugerują natomiast, że ludzie coraz chętniej cedują ważne wybory na algorytmy, zwłaszcza gdy stawka moralna wydaje się mniejsza — a im częściej to robią, tym słabiej czują się odpowiedzialni za skutki. Gdy asystent dysponuje pełnym kontekstem życia, pokusa bezrefleksyjnego oddania kierownicy tylko rośnie.
Prawo próbuje nadgonić technologię. Europejski Akt o Sztucznej Inteligencji, obowiązujący od lutego, zakazuje systemom wysokiego ryzyka gromadzić wrażliwe dane bez wyraźnej zgody i nakłada na modele ogólnego przeznaczenia – takie jak ChatGPT – obowiązek ujawnienia źródeł i ocen ryzyka od sierpnia przyszłego roku. Samo OpenAI wprowadziło tryb “temporary chat”, zachęca do kasowania wspomnień i deklaruje, że bez prośby nie zapamięta informacji o zdrowiu czy orientacji użytkownika.
ChatGPT ma pamiętać praktycznie wszystko
Jednak krytycy podkreślają, że wewnętrzne reguły możesz jutro zmienić kliknięciem w panelu administratora, a łańcuch dostaw danych wciąż zaczyna się na urządzeniu użytkownika, który rzadko czyta regulaminy.
Dlatego ta sama cecha — zdolność AI do pamiętania wszystkiego — jawi się jednocześnie jako osobisty Graal produktywności i tykająca bomba prywatności. W najlepszym scenariuszu zyskujemy cyfrowego powiernika, który nigdy nie zapomina i troszczy się o nasz czas lepiej, niż my sami. W najgorszym tworzymy narzędzie masowej inwigilacji, które może zostać wykorzystane do komercyjnej manipulacji, kradzieży tożsamości lub subtelnego wpływu politycznego.
Kluczowe będzie więc nie tylko to, ile model jest w stanie zapamiętać, lecz także kto ustala granice, kto audytuje działanie algorytmu i czy użytkownik potrafi jednym przyciskiem powiedzieć “zapomnij”.