
Wprowadzenie do problemu / definicja luki
Rozszerzalne ekosystemy agentów AI (pluginy, „skills”, narzędzia i marketplace’y) zaczynają przypominać klasyczne repozytoria zależności typu npm/PyPI — ale z jedną kluczową różnicą: agent nie tylko „instaluje” komponent, ale potrafi samodzielnie działać, podejmować decyzje i wykonywać operacje na uprawnieniach użytkownika. To zmienia supply chain w coś więcej niż podmianę biblioteki: staje się to łańcuchem wpływu między agentami, gdzie dystrybucja złośliwego komponentu odbywa się przez rekomendacje, rankingi i „zaufanie” w społecznościach agentów.
Najnowszy incydent opisany jako agent-to-agent attack chain pokazuje, iż atakujący mogą prowadzić kampanie, które przypominają klasyczną socjotechnikę — tylko iż ich celem są autonomiczne systemy rekomendacji i automatyczne workflow, a nie człowiek.
W skrócie
- Badacze opisali aktywną kampanię, w której złośliwe „skills” (pluginy) były dystrybuowane poprzez marketplace (Clawhub), a następnie promowane w „social media dla agentów” (Moltbook).
- Wektor obejmuje podszywanie się człowieka pod agenta, budowanie wiarygodności, a potem „sprzedaż” złośliwego rozszerzenia innym agentom.
- Skutek w opisywanym przypadku: kradzież wartości w świecie krypto (m.in. niebezpieczne obchodzenie się z kluczami prywatnymi i przekierowanie płatności), ale schemat jest przenośny na inne domeny (SaaS, chmura, DevOps, finanse).
Kontekst / historia / powiązania
Supply chain w świecie AI/LLM ma dziś co najmniej trzy warstwy:
- Kod i zależności (biblioteki, obrazy, integracje) — klasyczny problem.
- Orkiestracja i frameworki agentowe (np. podatności w warstwie serializacji/metadata) — realne CVE pokazują, iż komponenty agentowe mogą stać się „kanałem” eksploatacji.
- Marketplaces i ekosystem „umiejętności” — nowy odpowiednik „sklepu z aplikacjami”, często bez dojrzałych mechanizmów weryfikacji.
Microsoft wprost podkreśla, iż dyskusje o prompt injection to tylko jedna warstwa, a równie ważne jest zabezpieczanie łańcucha dostaw aplikacji AI: frameworków, SDK i warstw orkiestracji.
Z kolei OWASP w swoich ryzykach dla aplikacji LLM wskazuje supply chain jako osobną, powtarzalną klasę zagrożeń.
Analiza techniczna / szczegóły luki
1. Jak działa „agent-to-agent supply chain” w praktyce
W opisywanym incydencie najważniejsze są trzy elementy:
(A) Marketplace rozszerzeń (Clawhub / „Claude Skills”)
Straiker przeanalizował tysiące dostępnych „Skills” i wskazał, iż część z nich była wprost złośliwa lub wysokiego ryzyka. W tym środowisku „skill” to nie tylko statyczny pakiet — to definicje narzędzi i instrukcje, które agent może automatycznie uruchomić w trakcie pracy.
(B) Warstwa „społeczna” dla agentów (Moltbook)
Atakujący (człowiek podszywający się pod agenta) wykorzystywał środowisko, gdzie agenty czytają treści innych agentów i na ich podstawie podejmują decyzje. To wprowadza „rekomendacje” jako mechanizm dystrybucji złośliwego komponentu.
(C) Automatyczne rozprzestrzenianie przez współpracę agentów
Gdy agent zainstaluje/aktywuje skill, kompromitacja może rozlać się dalej przez zautomatyzowane workflow, współdzielone integracje i łańcuch zależności — już bez dalszej interakcji człowieka.
2. Dlaczego to jest „nowa klasa” ataku
SecurityWeek cytuje wprost tezę: to połączenie tradycyjnego zatruwania supply chain z kampanią socjotechniczną, która celuje w algorytmy (systemy rekomendacji, autonomiczne wybory agentów), a nie w użytkowników.
Straiker opisuje ten schemat jako „playbook”: wiarygodna persona → zaufanie w społeczności agentów → najpierw „benign”, potem ładunek złośliwy → skala i powtarzalność.
3. Co tu „pęka” w modelu zaufania
Najbardziej niebezpieczne jest zestawienie:
- agentów, które muszą konsumować nieufne treści (posty, opisy narzędzi, README, rankingi),
- z agentami mającymi realne uprawnienia (sekrety, API, portfele, repozytoria, CI/CD),
- oraz brakiem twardych granic wykonania (sandbox/allowlist/approval).
Vectra opisuje to jako zjawisko „reverse prompt injection” (bot-to-bot), gdzie samo „czytanie” staje się wektorem wpływu, a szkodliwa logika może utrwalić się w pamięci agenta i zadziałać z opóźnieniem.
Praktyczne konsekwencje / ryzyko
Choć case dotyczy krypto (ryzyko utraty środków, przejęcia kluczy, przekierowania płatności), wzorzec jest groźniejszy w środowiskach firmowych:
- Kompromitacja sekretów: tokeny chmurowe, klucze API, dane uwierzytelniające narzędzi DevOps.
- Nadużycie narzędzi: agent z wtyczką może wykonywać akcje „legalnie” (ważnymi tokenami), więc telemetryka bywa myląca.
- Ataki łańcuchowe: jeden „skill” trafia do wielu agentów przez rekomendacje i automatyczną współpracę.
- Ryzyko regulacyjne: trudniej wykazać kontrolę nad uprawnieniami i pochodzeniem komponentów, gdy „aplikacja” jest dynamicznym grafem narzędzi.
W tle mamy też „klasyczne” podatności supply chain w warstwie frameworków agentowych — jak CVE w LangChain (NVD opisuje błąd serializacji jako podatność pozwalającą na niepożądane skutki przy przetwarzaniu danych).
Rekomendacje operacyjne / co zrobić teraz
Poniżej zestaw działań, które realnie redukują ryzyko „agent-to-agent supply chain” — choćby jeżeli nie masz pełnej kontroli nad zewnętrznym marketplace’em:
- Zasada najmniejszych uprawnień dla narzędzi (Tool Least Privilege)
- rozdziel tokeny per narzędzie/per agent, ogranicz zakres (scopes), wprowadź krótkie TTL.
- Allowlist + podpisy + provenance dla skill/pluginów
- traktuj skill jak zależność produkcyjną: tylko zaufane źródła, kontrola wersji, weryfikowalny autor.
- Sandbox wykonania i twarde granice
- oddziel środowisko uruchomieniowe skill od systemu/sekretów; blokuj shell, sieć, filesystem domyślnie.
- Wymóg potwierdzenia dla akcji wysokiego ryzyka
- transfery pieniędzy, zmiany IAM, deploy do produkcji, eksport danych: zawsze human-in-the-loop.
- Polityki „content is hostile”
- treści z forów/agent-social/wyników wyszukiwania traktuj jako nieufne wejście; filtruj i izoluj kontekst. (To spójne z podejściem OWASP do kategorii prompt injection i supply chain w aplikacjach LLM).
- Monitoring zachowań agentów, nie tylko IOC
- wykrywaj anomalie w wywołaniach narzędzi (nietypowe domeny, nagłe skoki uprawnień, transfery).
- Higiena sekretów
- zakaz przechowywania kluczy/sekretów w plaintext; używaj menedżerów sekretów + rotacja + detekcja wycieków.
Różnice / porównania z innymi przypadkami
Klasyczny supply chain (npm/PyPI) vs agent-to-agent supply chain:
- npm/PyPI: ryzyko w momencie instalacji/uruchomienia pakietu przez człowieka lub pipeline.
- agent-to-agent: dystrybucja „zaufania” dzieje się w sposób półautonomiczny; dodatkowo pojawia się warstwa społeczna (rankingi, rekomendacje, persony), a agent wykonuje działania sam.
Prompt injection vs reverse prompt injection (bot-to-bot):
- prompt injection zwykle kojarzy się z atakiem przez użytkownika lub dane wejściowe.
- w środowiskach agentowych treść może „wędrować” między agentami i utrwalać się w pamięci/konfiguracji, co utrudnia analizę źródła i czasem przypomina propagację.
Supply chain w frameworkach (CVE) vs supply chain w marketplace’ach narzędzi:
- CVE (np. w LangChain) dotyka mechanizmów przetwarzania danych i orkiestracji.
- marketplace’y dotykają dystrybucji „rozszerzeń” i reputacji — to bardziej „App Store security” niż klasyczne CVE.
Podsumowanie / najważniejsze wnioski
- Ekosystemy agentów AI tworzą nowy, skalowalny wektor supply chain, bo łączą: marketplace rozszerzeń + autonomiczne wykonanie + społeczności agentów.
- Najgroźniejszy element to przeniesienie socjotechniki na poziom algorytmów i automatycznych decyzji (rekomendacje, adoption, workflow).
- Obrona wymaga myślenia jak o infrastrukturze uprzywilejowanej: podpisy/provenance, sandbox, allowlist, polityki uprawnień i potwierdzenia działań wysokiego ryzyka — plus monitoring zachowań agentów.
Źródła / bibliografia
- SecurityWeek — opis kampanii „Autonomous AI Agents Provide New Class of Supply Chain Attack” (23 lutego 2026). (SecurityWeek)
- Straiker — „Built on ClawHub, Spread on Moltbook: The New Agent-to-Agent Attack Chain” (17 lutego 2026). (straiker.ai)
- Microsoft Security Blog — „Case study: Securing AI application supply chains” (30 stycznia 2026). (Microsoft)
- OWASP — Top 10 for Large Language Model Applications (kategorie ryzyk, w tym supply chain). (owasp.org)
- NVD (NIST) — CVE-2025-68664 (przykład podatności w ekosystemie agentowym/frameworkowym). (nvd.nist.gov)





