
Wprowadzenie do problemu / definicja
Rosnąca skala wdrożeń autonomicznych agentów AI tworzy nową kategorię wyzwań dla bezpieczeństwa przedsiębiorstw. W odróżnieniu od klasycznych modeli generatywnych, które głównie przetwarzają treści, agenci AI mogą wykonywać działania, korzystać z narzędzi, integrować się z usługami SaaS, środowiskami chmurowymi, repozytoriami kodu i systemami firmowymi. Oznacza to, iż bezpieczeństwo nie ogranicza się już do ochrony danych wejściowych i wyjściowych, ale obejmuje także kontrolę decyzji podejmowanych przez AI, zakres przyznanych uprawnień i skutki operacyjne ich działań.
W skrócie
Onyx Security oficjalnie zadebiutował na rynku, informując o pozyskaniu 40 mln dolarów finansowania od funduszy Conviction i Cyberstarts. Firma rozwija platformę bezpieczeństwa dla agentów AI, która ma zapewniać przedsiębiorstwom widoczność aktywności agentów, możliwość nadzoru nad ich działaniami oraz egzekwowanie polityk bezpieczeństwa i governance.
- Spółka pozyskała 40 mln dolarów finansowania.
- Platforma ma wykrywać i monitorować autonomiczne agenty AI w środowisku firmowym.
- Rozwiązanie wspiera zatwierdzanie, korygowanie i ograniczanie działań agentów.
- Onyx deklaruje wykorzystanie własnych modeli AI i agentów nadzorczych do analizy zachowań w czasie rzeczywistym.
Kontekst / historia
Rynek cyberbezpieczeństwa coraz mocniej przesuwa uwagę z ochrony pojedynczych aplikacji AI na zabezpieczanie systemów agentowych. W pierwszej fali popularyzacji generatywnej sztucznej inteligencji dominowały obawy dotyczące wycieku danych do chatbotów, nieautoryzowanego użycia modeli czy zgodności regulacyjnej. w tej chwili organizacje wdrażają jednak rozwiązania, które nie tylko generują treści, ale również wykonują zadania operacyjne, korzystają z API, analizują kod, modyfikują konfiguracje i współpracują z wieloma systemami jednocześnie.
W takim krajobrazie pojawia się potrzeba stworzenia warstwy kontrolnej porównywalnej do rozwiązań znanych z obszaru ochrony tożsamości uprzywilejowanych, EDR czy CSPM. Onyx Security pozycjonuje się właśnie jako dostawca takiej warstwy zabezpieczeń dla agentic AI. Firma została założona przez osoby związane z izraelskim sektorem obronnym i działa z Tel Awiwu oraz Nowego Jorku, rozwijając zespół w Izraelu, USA i Kanadzie.
Analiza techniczna
Z technicznego punktu widzenia model proponowany przez Onyx wpisuje się w nowo powstający segment zabezpieczeń dla środowisk agentowych. Kluczowym elementem jest centralna warstwa kontroli, która umożliwia wykrywanie agentów działających w organizacji i mapowanie ich możliwości operacyjnych. Obejmuje to identyfikację połączeń z usługami chmurowymi, stacjami roboczymi, repozytoriami kodu i platformami SaaS.
Istotna jest nie tylko sama inwentaryzacja, ale też analiza uprawnień oraz zachowania agentów. o ile agent może wykonywać akcje w imieniu użytkownika lub procesu biznesowego, bezpieczeństwo zależy od tego, jakie dane może odczytać, jakie systemy może zmieniać, jak podejmuje decyzje i czy jego działania można zatrzymać lub skorygować przed wykonaniem. Onyx deklaruje, iż jego platforma ma umożliwiać monitorowanie takich aktywności oraz zatwierdzanie lub poprawianie działań zgodnie z politykami organizacji.
Firma podkreśla również wykorzystanie agentów nadzorczych i własnych modeli AI do interpretowania rozumowania innych agentów. To ważne, ponieważ w środowiskach agentowych klasyczne logowanie akcji może nie wystarczać. Ryzyko może wynikać nie tylko z końcowego działania, ale także z błędnej sekwencji wnioskowania, niewłaściwego użycia narzędzia, eskalacji uprawnień przez integracje lub podatności na manipulację promptami i kontekstem. Warstwa nadzorcza działająca w czasie rzeczywistym ma ograniczać takie ryzyka jeszcze przed wystąpieniem szkody biznesowej.
W praktyce architektura tego typu przypomina połączenie kilku znanych klas zabezpieczeń:
- discovery aktywów i agentów,
- monitoringu zachowania,
- egzekwowania polityk bezpieczeństwa,
- analizy ryzyka,
- mechanizmów human-in-the-loop dla działań wysokiego ryzyka.
Konsekwencje / ryzyko
Z perspektywy przedsiębiorstw rozwój takich platform pokazuje, iż bezpieczeństwo agentów AI staje się samodzielnym obszarem ryzyka. Autonomiczne systemy mogą prowadzić do nieautoryzowanego dostępu do danych, błędnego wykonywania poleceń, niekontrolowanego użycia narzędzi, naruszeń zasad compliance oraz propagacji błędów między połączonymi systemami. Im większa autonomia agenta i im szerszy zakres integracji, tym większa staje się powierzchnia ataku.
Dodatkowym problemem jest skala. Pojedynczego agenta można jeszcze ocenić manualnie, ale środowisko obejmujące setki lub tysiące agentów wymaga automatycznego nadzoru, klasyfikacji ryzyka i wymuszania polityk bezpieczeństwa. Bez centralnej widoczności organizacje mogą gwałtownie utracić kontrolę nad tym, jakie agenty działają w infrastrukturze, jakie mają uprawnienia i jakie operacje faktycznie wykonują.
Z biznesowego punktu widzenia pozyskanie przez Onyx Security 40 mln dolarów wskazuje, iż inwestorzy traktują bezpieczeństwo agentów AI jako strategiczny segment rynku. Może to przyspieszyć zarówno rozwój konkurencyjnych produktów, jak i wdrażanie narzędzi governance w dużych organizacjach.
Rekomendacje
Organizacje wdrażające agentów AI powinny traktować je jak uprzywilejowane byty wykonawcze, a nie tylko jako kolejne interfejsy użytkownika. W praktyce oznacza to konieczność pełnej inwentaryzacji agentów, ich integracji, źródeł danych i zakresu uprawnień.
- Stosować zasadę najmniejszych uprawnień dla wszystkich agentów.
- Ograniczać dostęp do narzędzi, API i repozytoriów wyłącznie do niezbędnego minimum.
- Definiować jasny zakres działań, limity operacyjne i mechanizmy awaryjnego zatrzymania.
- Budować monitoring skoncentrowany na zachowaniu agentów, a nie tylko na logach aplikacyjnych.
- Wprowadzać zatwierdzanie przez człowieka dla operacji wysokiego ryzyka.
- Tworzyć polityki governance obejmujące klasyfikację agentów, ocenę ryzyka, audyt i procedury reagowania na incydenty AI.
Podsumowanie
Onyx Security wchodzi na rynek z mocnym sygnałem, iż zabezpieczanie autonomicznych agentów AI staje się jednym z najważniejszych nowych obszarów cyberbezpieczeństwa. Pozyskane 40 mln dolarów ma wesprzeć rozwój platformy zapewniającej wykrywanie, monitoring i kontrolę działań agentów w środowiskach przedsiębiorstw. Dla rynku to kolejny dowód, iż wraz ze wzrostem autonomii systemów AI rośnie też potrzeba nowych mechanizmów nadzoru, egzekwowania polityk i ograniczania ryzyka operacyjnego.
Źródła
- SecurityWeek – Onyx Security Launches With $40 Million in Funding — https://www.securityweek.com/onyx-security-launches-with-40-million-in-funding/
- Onyx Security — https://onyx.security/






