
Jeszcze niedawno każda rozmowa z chatbotem zaczynała się od zera. Dziś sztuczna inteligencja buduje nasze profile z każdym wpisanym słowem. Pamięta imię, zawód, styl pisania, a choćby to, nad jakim projektem pracowaliśmy w zeszłym miesiącu. To oczywiście oszczędność czasu – koniec z ciągłym powtarzaniem tych samych instrukcji. Z drugiej strony – jest to wyzwanie dla naszej prywatności. W tym artykule powiemy, co pamiętają o nas chatboty, jak poszczególne modele gromadzą nasze dane, w jakich sytuacjach ta funkcja jest niezastąpiona i co musimy zrobić, aby chronić nasze sekrety.
Jeśli używaliście któregoś z chatbotów AI – prawdopodobnie ChatGPT – parę lat temu, to prawdopodobnie pamiętacie tę frustrację: po otwarciu nowego okna czatu sztuczna inteligencja cierpiała na całkowitą amnezję. Za każdym razem trzeba było tłumaczyć jej od nowa kim jesteśmy, jakiego języka programowania używamy, albo iż wolimy odpowiedzi w formie krótkich punktów, a nie rozwlekłych elaboratów.
Koniec z Dniem Świstaka
Problemem pierwszych chatbotów było to, iż były tak zwanymi systemami bezstanowymi – a więc takimi, w których każdy nowy czat stanowił całkowicie izolowany byt, pozbawiony dostępu do poprzednich konwersacji. To powodowało, iż jeżeli chcieliśmy, by odpowiedź była dostosowana do tego kim jesteśmy, do naszych preferencji czy potrzeb, to każdorazowo musieliśmy to wpisywać w okienko chatbota.
Pierwsze rozwiązania tego problemu nie były zbyt zaawansowane technologicznie – w 2023 OpenAI wprowadziło Custom Instructions, możliwość określenia przez samego użytkownika swoich preferencji, które były wykorzystywane przy każdym nowym czacie. Trudno tu jednak mówić o pamięci – to po prostu kilka zdań kontekstu wpisanych przez samego użytkownika.
Nieco inną ścieżką poszedł Google, który wprowadził rozszerzenia (extensions), które umożliwiały jego chatbotowi użycie zawartości Gmaila czy Dysku Google jako kontekstu. Google nie po raz pierwszy (i nie po raz ostatni) wprowadził funkcję, która była korzystna z punktu widzenia wygody użytkownika, za to nie za bardzo z punktu widzenia jego prywatności. Niejedna osoba ma na przykład na Gmailu treści, których świadomie do pamięci AI by raczej nie dodała…
Pierwsze „pamięci” z prawdziwego zdarzenia pojawiły się rok później – w 2024 roku OpenAI zaoferowało system pamięci niektórym użytkownikom płatnym, by w następnym roku rozszerzyć go na użytkowników darmowych. Era Dnia Świstaka, w której musieliśmy mówić chatbotowi wszystko od początku, zaczęła odchodzić w niepamięć.
Co pamiętają chatboty?
Jak to w tej chwili działa? Mechanizmów jest kilka. Po pierwsze, mamy tradycyjne ustawienia personalizacji: sami wpisujemy do chatbota jak mamy na imię, czym się zajmujemy, jakie są nasze preferencje.
Po drugie, mamy mechanizm, w którym wewnątrz chatu informujemy AI, jakie informacje powinno zapamiętać. Powiedzmy, iż poprosiliśmy chatbota o wygenerowanie nam raportu. Dostajemy zamówiony raport, ale nie wszystkie aspekty, na przykład związane z formatowaniem nam się podobają. Więc wydajemy odpowiednie instrukcje, jak raport powinien być sformatowany. jeżeli chcemy, by przyszłe raporty były sformatowane w podobny sposób, to po osiągnięciu adekwatnego efektu po prostu piszemy AI, iż chcemy, by inne raporty były tak samo formatowane.
No i mamy trzeci, bodaj najważniejszy mechanizm – budowanie pamięci poprzez wydestylowanie przez AI najważniejszych informacji z naszych czatów. AI analizuje ich treść i zapamiętuje te elementy, które wydają jej się istotne pod względem długoterminowym: kim jesteśmy, co lubimy, jaki styl komunikacji preferujemy itp. Zupełnie bez naszego udziału.
I dlaczego jest to dla nas użyteczne?
Korzyści z pamięci AI są dla nas dość oczywiste. To przede wszystkim oszczędność czasu. Nie musimy już szczegółowo tłumaczyć, kim jesteśmy, co lubimy, jakie odpowiedzi preferujemy, czy jacy są odbiorcy tworzonych przez nas przy pomocy AI dokumentów. AI to pamięta, my musimy tylko od czasu do czasu odnotować, jeżeli dane zapytanie odbiega od standardu – jeżeli zwykle AI pomaga nam pisać notki do zespołu, gdzie pewien poziom żartobliwości jest dozwolony, to raczej powinniśmy poprosić o zmianę tonu na poważniejszy, jeżeli przygotowujemy prezentację na prestiżową konferencję.
Drugą zaletą jest ciągłość – jeżeli wrócimy dla jakiegoś projektu, który dyskutowaliśmy kiedyś z chatbotem, to AI po prostu sobie przypomni kontekst choćby jeżeli my sami zapomnieliśmy, iż już to kiedyś z nią dyskutowaliśmy.
Trzecią korzyścią z pamięci jest to, iż odpowiedzi udzielane przez AI będą po prostu wyższej jakości. Ktoś może powiedzieć, iż to sprowadza się do oszczędności czasu – tego, który poświecimy na cyzelowanie tejże odpowiedzi. Czasem jednak czasu nie mamy (raport ma się znaleźć na biurku szefa za 5 minut). Wtedy jakość tej pierwszej odpowiedzi ma zasadnicze znaczenie.
Co pamiętają chatboty – ryzyka…
Jak to bardzo często się zdarza w naszym cyfrowym życiu, im coś jest wygodniejsze, tym bardziej ryzykowne. Nie inaczej jest z pamięcią chatbotów.
Prawda jest taka, iż pamięć AI to tak naprawdę szczegółowy profil behawioralny użytkownika. I ten profil znajduje się (w większości przypadków) gdzieś w chmurze obliczeniowej firmy, która stworzyła dany chatbot. Na takich danych może być trenowany model AI (jeśli naszych danych z takiego użycia nie wypiszemy), taki profil może po prostu być obiektem wycieku danych, albo zostać przeczytany przez mało życzliwego kolegę z pracy, jeżeli pójdziemy na kawę nie zablokowawszy uprzednio komputera.
Ryzyka są również mniej oczywiste. Naszą pamięć – a więc i preferencje – może popsuć na przykład fakt, iż z naszego chatbota korzysta na przykład nasze dziecko. Może ona być również podatna na prompt injection – to jest atak, w którym na specjalnie spreparowanej stronie znajdują się instrukcje dla chatbota, które unieważniają nasze instrukcje.
… i jak nimi zarządzać, czyli higiena pamięci AI
Co więc powinniśmy zrobić, by zapobiec tego typu ryzykom? Zasada jest prosta – nie wklejaj/wpisuj do chatbota niczego, czego byś nie wysłała do zewnętrznej firmy, choćby takiej, której ufasz. Bądźmy więc bardzo ostrożni z tym, co wysyłamy AI, a co dotyczy na przykład naszych finansów czy stanu zdrowia.
Jeśli już mamy tematy, w których chcielibyśmy się skonsultować z chatbotem, a które są wrażliwe, to oddzielmy je od pamięci AI. Wyłączmy tymczasowo budowanie pamięci i włączmy czaty tymczasowe / incognito. To nie tylko spowoduje, iż nasze czaty nie posłużą do budowania pamięci AI, ale również iż po jakimś czasie (choć nie natychmiast) zostaną usunięte z serwerów firmy.
Dobrym nawykiem jest również przejrzenie raz na jakiś czas – powiedzmy co kilka tygodni – pamięci naszego chatbota o nas. Najpopularniejsze chatboty dają nam możliwość przejrzenia i edycji swojej pamięci. Skorzystajmy z tego choćby po to, by usunąć niepotrzebne lub wrażliwe informacje czy naprostować te, które są nieaktualne lub nieprecyzyjne.
A teraz spójrzmy jak pamięć działa w poszczególnych chatbotach.
Jak działa pamięć w ChatGPT…
Pamięć ChatGPT składa się z dwóch mechanizmów. Pierwszym są zapisane wspomnienia (saved memories), w przypadku których wydajemy modelowi komendę zapamiętania określonego faktu, na przykład preferencji formatowania kodu, szczegółów dotyczących struktury projektowanej aplikacji, czy specyficznych wymagań redakcyjnych. Przy czym nie musimy grzebać w ustawieniach – wystarczy wydać odpowiednie polecenie z poziomu okna chatbota.
Drugim, istotnie potężniejszym mechanizmem jest tak zwana historia referencyjna, w przypadku której ChatGPT w tle analizuje przebieg konwersacji, identyfikując wzorce behawioralne i istotne konteksty, które mogą okazać się przydatne w przyszłości.
… a jak (nie) działa w Gemini?
Gemini jest swego rodzaju kuriozum. Google wprowadził do swojego chatbota tak zwaną Personal Intelligence, integrującą nie tylko historię chatbota, ale również innych usług firmy, takich jak Gmail czy Dysk Google. Jednocześnie połączył je ze zgodą użytkownika na wykorzystywanie tych osobistych danych do trenowania swoich modeli.
Skutek? Żeby uniknąć reakcji władz UE na politykę tak agresywnie ingerującą w prywatność, Google wyłączył Personal Intelligence na obszarze UE (oraz innych państw EOG). Jest to więc jedyny z głównych chatbotów AI, który nie oferuje Polakom automatycznej pamięci. przez cały czas możemy nakazać chatbotowi zapamiętanie czegoś, ale on sam nie będzie budował swojej pamięci o nas. W ten sposób. w jakiejś mierze niechcący, Google stał się czempionem prywatności – przynajmniej na terenie UE.
Profesjonalna (i podzielona) pamięć Claude’a
Nieco inne podejście do budowania pamięci przyjął Anthropic. Ponieważ firma w dużej mierze oferuje swoje produkty firmom i profesjonalistom, to Claude zamiast wychwytywać fakty z życia prywatnego, skupia się na analizie historii czatów pod kątem informacji takich jak: stanowisko zawodowe użytkownika, aktualnie prowadzone projekty, preferencje dotyczące formatowania kodu czy preferowany styl komunikacji.
Synteza ta aktualizowana jest co 24 godziny, tworząc uporządkowany profil, który jest uwzględniany przy rozpoczynaniu nowych czatów.
Dodatkowo Claude oferuje nam możliwość podzielenia naszej pamięci. Z poziomu chatbota służą do tego tak zwane projekty. Każdy projekt działa jako niezależny „cyfrowy mózg” posiadający własne wytyczne, bazę wiedzy i odrębną pamięć, co gwarantuje, iż nie mieszają się nam konteksty z bardzo różnych projektów – na przykład projekt budowania raportu finansowego ma oddzielną pamięć od projektu stworzenia prezentacji marketingowej..
Podobnie podzielona jest pamięć w Claude Cowork – tutaj każde zadanie (task) ma swoją własną pamięć, budowaną automatycznie przez AI.
Perplexity też pamięta
Perplexity to dość specyficzny chatbot. Firma do udzielania odpowiedzi użytkownikom wykorzystuje modele zewnętrznych firm, takich jak OpenAI, Google, Anthropic czy Nvidia (choć od pewnego czasu dysponuje również własnym modelem Sonar) a jej przewagą konkurencyjną jest to, iż bardzo efektywnie łączy te modele z wyszukiwaniem internetowym.
Pomimo tej odmienności, chatbot ten analizuje zapytania użytkownika, zapamiętując ustrukturyzowane informacje, takie jak zawód, zainteresowania, stopień zaawansowania technologicznego czy specyficzne preferencje.
Im drożej, tym lepiej
Różnice w użyciu pamięci zauważymy jednak nie tylko między różnymi chatbotami. Różnić się będzie również jakość pamięci między różnymi planami taryfowymi.
I tak, choć podstawową pamięć jest dostępna we wszystkich – za wyjątkiem Gemini – planach bezpłatnych, to jej użyteczność będzie niższa. Częściowo wynika to z mniejszej ilości zapisywanych informacji, a częściowo z mniejszego okna kontekstowego modeli wykorzystywanych w tych planach.
Co pamiętają chatboty? Nie zostawiaj tej decyzji AI
Pamięć chatbotów to bez wątpienia jeden z najważniejszych kroków w ewolucji AI, jednak żeby w miarę bezpiecznie z niej korzystać, musimy zachować ostrożność i kontrolować sztuczną inteligencję. Z jednej strony, oferuje nam bezprecedensową wygodę, uwalniając od irytującego powtarzania kontekstu i zamieniając proste maszyny liczące w prawdziwie spersonalizowanych, wirtualnych asystentów. Z drugiej – ta płynność rozmowy ma swoją realną cenę, którą płacimy walutą prywatności. Im wygodniej nam się z botem rozmawia, tym grubszy cyfrowy profil na nasz temat ląduje na serwerach wielkich korporacji. Ostatecznie jednak, to od nas zależy, na ile pozwolimy maszynom wejść w nasze życie.
Kluczem nie jest całkowita rezygnacja z ułatwień, ale świadome zarządzanie swoim śladem w AI: regularne kontrolowanie ustawień, czyszczenie pamięci z niepotrzebnych czy wrażliwych informacji i trzymanie się prostej zasady – nigdy nie powierzaj sztucznej inteligencji danych, których nie powiesiłbyś na publicznej tablicy ogłoszeń.
FAQ: Pamięć AI. Jak z niej skorzystać i uniknąć pułapek?
Pamięć chatbotów budowana jest na trzy sposoby. Po pierwsze: manualnie, gdy samodzielnie wypełniasz swój profil w ustawieniach. Po drugie: komendami w czacie, gdy polecasz maszynie zachować dany format na przyszłość. Po trzecie (najważniejsze): pasywnie w tle. Nowoczesne chatboty (jak ChatGPT) same analizują Twoje rozmowy i wyciągają z nich najważniejsze informacje o Twoim zawodzie, preferencjach czy stylu komunikacji, budując Twój behawioralny profil.
Wygoda korzystania z pamięci AI wiąże się z ryzykiem utraty prywatności. Twoje dane trafiają na serwery korporacji i mogą (jeśli tego nie wyłączysz) posłużyć do trenowania kolejnych modeli językowych. Istnieje też ryzyko wycieków lub ataku typu prompt injection. Złota zasada brzmi: nigdy nie powierzaj chatbotom informacji finansowych, zdrowotnych ani żadnych poufnych danych firmy, których nie powiesiłbyś na publicznej tablicy ogłoszeń.
Tak, pamięć jest zwykle dostępna w darmowych planach, ale działa tam znacznie gorzej. Płatne wersje (np. ChatGPT Plus, Claude Pro) potrafią zapamiętać znacznie więcej danych, dysponują szerszym „oknem kontekstowym” i oferują narzędzia do lepszego zarządzania wiedzą. Na przykład płatna wersja Claude pozwala tworzyć rozbudowane „Projekty”, dzięki czemu bot nie miesza informacji z naszego życia prywatnego z poufnymi zadaniami w pracy.
Jeśli musisz przeanalizować wrażliwy temat (np. prywatny problem lub poufny raport) i nie chcesz, by AI wplotło to w Twój stały profil, po prostu otwórz czat tymczasowy/incognito. Maszyna rozwiąże Twój problem, ale zignoruje tę konwersację przy budowaniu pamięci, a sam czat zostanie po niedługim czasie usunięty z serwerów.
To bardzo proste i stanowi podstawę cyfrowej higieny. Wystarczy wejść w ustawienia narzędzia i odszukać sekcję zarządzania pamięcią. Masz tam pełen wgląd w listę faktów, które bot o Tobie zgromadził. Możesz je swobodnie edytować lub bezpowrotnie usuwać. Warto robić taki przegląd co kilka tygodni.
Wynika to z przepisów prawa. Aby uniknąć konfliktu z europejskimi organami regulacyjnymi w kwestii ochrony prywatności (RODO), firma Google zablokowała automatyczne i pasywne budowanie pamięci w tle na całym obszarze Europejskiego Obszaru Gospodarczego (w tym w Polsce). W naszym regionie Gemini zapamięta na stałe tylko te wytyczne, które sam manualnie wprowadzisz w jego ustawieniach.
Źródło grafiki: Sztuczna inteligencja, model Nano Banana 2








