
Wprowadzenie do problemu / definicja
Rosnąca popularność agentów AI wspierających programistów zmienia model ryzyka w organizacjach. Narzędzia takie jak Claude Code nie pełnią już wyłącznie roli asystenta konwersacyjnego, ale działają jako aktywni agenci wykonujący operacje na lokalnej stacji roboczej użytkownika. W praktyce oznacza to możliwość odczytu plików, uruchamiania poleceń systemowych, korzystania z interfejsów API i łączenia się z dodatkowymi usługami integracyjnymi.
Z perspektywy bezpieczeństwa najważniejsze jest to, iż agent AI dziedziczy uprawnienia użytkownika, który go uruchamia. Może więc uzyskać dostęp do repozytoriów kodu, sekretów, kluczy SSH, danych konfiguracyjnych czy choćby środowisk produkcyjnych. Ceros jest pozycjonowany jako warstwa kontroli i obserwowalności, której celem jest objęcie nadzorem lokalnych działań wykonywanych przez Claude Code.
W skrócie
Ceros to rozwiązanie zaprojektowane jako warstwa zaufania dla agentów AI uruchamianych na urządzeniach deweloperskich. Jego zadaniem jest monitorowanie aktywności Claude Code oraz egzekwowanie polityk bezpieczeństwa w czasie rzeczywistym.
- Zapewnia widoczność działań agenta na stacji roboczej.
- Umożliwia blokowanie lub ograniczanie wybranych operacji jeszcze przed ich wykonaniem.
- Tworzy kryptograficznie chroniony ślad audytowy.
- Rozszerza kontrolę na lokalne narzędzia, połączenia MCP i stan bezpieczeństwa urządzenia.
Kontekst / historia
Tradycyjne programy bezpieczeństwa były budowane wokół użytkowników, aplikacji, kont serwisowych i ruchu sieciowego. Mechanizmy takie jak EDR, SIEM, CASB czy DLP dobrze sprawdzają się wtedy, gdy zdarzenie jest już widoczne na poziomie systemowym albo sieciowym.
Problem pojawia się, gdy agent AI działa lokalnie i korzysta z narzędzi dostępnych na urządzeniu użytkownika. W takim modelu aktywność może wyglądać jak zwykła praca programisty, mimo iż w rzeczywistości została wykonana przez agenta. Powstaje więc luka kontrolna pomiędzy momentem wykonania działania a chwilą, gdy zdarzenie stanie się widoczne dla centralnych systemów bezpieczeństwa.
Wraz z wdrażaniem agentowych narzędzi AI do zespołów inżynieryjnych rośnie znaczenie mechanizmów governance, rozliczalności i audytu. Jest to szczególnie istotne dla organizacji podlegających wymogom regulacyjnym i kontraktowym, które muszą jednoznacznie wykazać, kto, kiedy i w jakim kontekście wykonał określone operacje.
Analiza techniczna
Według opisu rozwiązania Ceros działa bezpośrednio na stacji roboczej dewelopera i uruchamia Claude Code w kontrolowanym kontekście. Taki model pozwala obserwować aktywność agenta jeszcze zanim skutki jego działań staną się widoczne poza urządzeniem. To istotna różnica względem narzędzi bazujących wyłącznie na monitorowaniu sieci lub bram API.
Platforma ma gromadzić informacje o stanie urządzenia, takie jak system operacyjny, wersja jądra, status szyfrowania dysku, Secure Boot oraz aktywność ochrony endpointu. Dodatkowo rejestrowane ma być pełne drzewo procesów prowadzących do uruchomienia Claude Code wraz z hashami binariów. Taki zestaw danych ułatwia analizę incydentów i ocenę integralności łańcucha zaufania.
Jednym z najważniejszych elementów jest widoczność wywołań narzędzi. jeżeli użytkownik zada agentowi pozornie niewinne pytanie, model może zainicjować wykonanie komendy systemowej. Ceros ma ujawniać, jakie narzędzia są dostępne dla agenta, jakie polecenia zostały faktycznie uruchomione, z jakimi argumentami i z jakim rezultatem.
Szczególne znaczenie mają serwery MCP, czyli integracje umożliwiające agentowi dostęp do dodatkowych usług i źródeł danych. Mogą one obejmować komunikatory, pocztę, bazy danych, wewnętrzne API czy zasoby infrastruktury. Z punktu widzenia bezpieczeństwa każdy taki serwer stanowi kolejną ścieżkę dostępu do danych i funkcji biznesowych. Ceros ma zapewniać ich inwentaryzację, śledzenie pierwszego wykrycia, przypisanie do konkretnych urządzeń oraz status zatwierdzenia.
Warstwa polityk ma działać runtime’owo, a więc przed wykonaniem operacji. Dzięki temu możliwe jest nie tylko monitorowanie działań, ale również ich blokowanie. Przykładowe scenariusze obejmują dopuszczanie wyłącznie zatwierdzonych serwerów MCP, blokowanie użycia powłoki Bash czy ograniczanie dostępu do plików poza katalogiem projektu.
Istotnym elementem jest także ciągła ocena stanu bezpieczeństwa urządzenia. jeżeli organizacja wymaga aktywnego szyfrowania dysku i uruchomionej ochrony endpointu, sesja agenta może zostać ograniczona lub zablokowana w momencie niespełnienia tych wymagań. Oznacza to przejście od jednorazowej weryfikacji do ciągłej walidacji ryzyka.
Na potrzeby zgodności i audytu Ceros akcentuje niezmienność logów. Wpisy mają być podpisywane kryptograficznie kluczem powiązanym sprzętowo jeszcze przed opuszczeniem urządzenia. Taki mechanizm zwiększa wiarygodność materiału dowodowego i utrudnia manipulację zapisami audytowymi.
Konsekwencje / ryzyko
Najważniejszym ryzykiem związanym z agentami AI w środowisku deweloperskim jest zatarcie granicy między zapytaniem użytkownika a wykonaniem uprzywilejowanej operacji. Każda interakcja z agentem może przełożyć się na realne działania na systemie, plikach lub usługach zewnętrznych.
Ryzyko obejmuje kilka obszarów:
- nieautoryzowaną ekspozycję danych lokalnych, takich jak pliki projektowe, tokeny i sekrety,
- uruchamianie poleceń systemowych prowadzących do naruszenia integralności środowiska,
- rozszerzenie powierzchni ataku przez niekontrolowane integracje MCP,
- trudności z rozliczalnością działań wykonywanych przez agenta w imieniu użytkownika.
Dla działów compliance szczególnie problematyczny jest brak jednoznacznego rozróżnienia między aktywnością człowieka a operacjami wykonanymi przez agenta. Bez precyzyjnego śladu audytowego analiza incydentów i wykazanie zgodności z regulacjami stają się znacznie trudniejsze.
Rekomendacje
Organizacje wdrażające agentów AI do procesów programistycznych powinny traktować je jako nową klasę tożsamości operacyjnej, a nie jedynie narzędzie zwiększające produktywność. Oznacza to konieczność objęcia ich politykami bezpieczeństwa, monitoringiem i formalnym procesem zatwierdzania integracji.
- Zidentyfikować zespoły korzystające z agentów kodujących oraz ich rzeczywiste uprawnienia.
- Wdrożyć zasadę najmniejszych uprawnień na poziomie stacji roboczej, sekretów i dostępu do środowisk.
- Utworzyć listę dozwolonych integracji MCP i blokować połączenia niezatwierdzone.
- Ograniczyć możliwość wykonywania poleceń powłoki oraz dostęp do wrażliwych ścieżek systemowych.
- Powiązać sesję agenta z potwierdzoną tożsamością użytkownika i stanem bezpieczeństwa urządzenia.
- Zapewnić logowanie pełnej sekwencji działań agenta w sposób odporny na manipulację.
Z perspektywy SOC i zespołów reagowania na incydenty najważniejsze jest wdrożenie telemetryki pozwalającej odtworzyć całą ścieżkę działania — od promptu, przez wywołania narzędzi, aż po wynik operacji. Tylko wtedy możliwe będzie skuteczne dochodzenie i korelacja z innymi źródłami danych bezpieczeństwa.
Podsumowanie
Agenci AI tacy jak Claude Code wprowadzają nowy model ryzyka, ponieważ działają lokalnie, korzystają z uprawnień użytkownika i często wyprzedzają tradycyjne mechanizmy kontroli oparte na obserwacji ruchu sieciowego. W efekcie bezpieczeństwo musi przesunąć punkt ciężkości z samego monitorowania komunikacji na analizę intencji, kontekstu wykonania i narzędzi używanych przez agenta.
Ceros został przedstawiony jako rozwiązanie adresujące tę lukę poprzez połączenie widoczności, egzekwowania polityk i kryptograficznie zabezpieczonego audytu. Niezależnie od wyboru konkretnej platformy jedno jest jasne: organizacje muszą budować kontrolę nad agentami AI na poziomie endpointu, tożsamości, integracji i dowodów audytowych.
Źródła
- The Hacker News — https://thehackernews.com/2026/03/how-ceros-gives-security-teams.html
- Anthropic Documentation — Claude Code Overview — https://docs.anthropic.com/
- Beyond Identity — Ceros / AI Trust Layer — https://www.beyondidentity.com/








