Sztuczna inteligencja, która jeszcze niedawno była używana głównie do usprawniania pracy deweloperów, teraz staje się czymś powszechnym, z czego korzystamy na co dzień. Niestety, jednocześnie taka szeroka dostępność sprawia, iż jest również skutecznym narzędziem w rękach cyberprzestępców. Firma Anthropic, twórca modelu Claude, w swoim najnowszym raporcie ostrzega przed zjawiskiem “vibe hackingu”. Według ekspertów, cyberprzestępcy coraz częściej wykorzystują zaawansowane modele AI do zautomatyzowania i skalowania swoich operacji, co obniża barierę wejścia w świat przestępczości.
“Vibe Hacking” – kiedy AI przestaje być narzędziem, a staje się partnerem?
Podobnie jak “vibe coding” pozwala AI przejąć większość pracy w tworzeniu kodu, “vibe hacking” opiera się na powierzeniu sztucznej inteligencji kluczowych działań w cyberataku. Agentowe systemy AI przejmują zadania które dotąd wymagały ludzkiej interwencji. Zamiast manualnego prowadzenia każdego etapu ataku, przestępcy mogą teraz zautomatyzować niemal cały proces.
Sztuczna inteligencja potrafi sama profilować potencjalne ofiary, analizować skradzione dane, generować fałszywe tożsamości, a choćby szacować wartość uzyskanych informacji. To obniża próg wejścia do świata zaawansowanej cyberprzestępczości – teraz wystarczy jedna osoba z dostępem do odpowiednich narzędzi. Najbardziej niebezpieczną cechą tej metody jest jej adaptacyjność. Systemy oparte na AI potrafią na bieżąco dostosowywać się do mechanizmów obronnych, co znacząco ogranicza skuteczność tradycyjnych rozwiązań bezpieczeństwa.
Czytaj też: Gmail z nowymi funkcjami. Czy niedługo zastąpi tradycyjne komunikatory?
Anthropic pochwaliło się niedawno udaremnieniem operacji, w której haker wykorzystywał Claude Code – narzędzie do generowania kodu – jako centralny element swojego ataku. AI nie tylko doradzało, ale aktywnie uczestniczyło w realizacji przestępczych zamierzeń. System samodzielnie oceniał wartość pozyskanych danych, decydował o metodach ich wydobycia i ustalał potencjalną cenę na czarnym rynku. Generował także realistycznie wyglądające profile i wiadomości kierowane do ofiar.
Ekspertów niepokoi fakt, iż do przeprowadzenia tak zaawansowanej operacji wystarczyła jedna osoba. Haker nie musiał być specjalistą we wszystkich dziedzinach – luki w wiedzy uzupełniała za niego sztuczna inteligencja. I właśnie w ten sposób może ją wykorzystywać bardzo wiele osób.
Vibe hacking stawia więc przed specjalistami od cyberbezpieczeństwa zupełnie nowe wymagania. Konwencjonalne systemy opierają się na rozpoznawaniu znanych wzorców, podczas gdy AI generuje metody ataków w czasie rzeczywistym, często nieprzewidywalne. Anthropic odpowiedziało na to zagrożenie budową systemu monitorującego nietypowe wzorce używania swoich narzędzi. To jednak tylko pierwszy krok, a walka z nowym typem cybeprzestępczości zapowiada się na długą i prawdopodobnie niemożliwą do wygrania. Przynajmniej nie całkowicie.
Czytaj też: Google Quick Share na iPhone’ach? To może być rewolucja w udostępnianiu plików między platformami
Niestety, wraz z upowszechnianiem się aplikacji wykorzystujących AI, problem będzie tylko narastał. Każde nowe narzędzie może potencjalnie zostać wykorzystane przez przestępców, co stawia twórców przed trudnym wyborem – jak chronić przed nadużyciami nie ograniczając legalnych zastosowań. To jak z nożem, który może być wykorzystany do pokrojenia marchewki na zupę albo do skrzywdzenia kogoś. Nie da się całkowicie zabronić posiadania noży, jeżeli chce się, by ludzie przez cały czas gotowali.
Jeśli giganci technologiczni chcą oddawać w ręce zwykłych użytkowników zaawansowane narzędzia, muszą liczyć się z tym, iż te zostaną wykorzystane nie tylko zgodnie z przeznaczeniem. Chociaż tempo rozwoju zabezpieczeń rośnie, cyberprzestępcy wciąż znajdują sposoby na ich obejście. Optymizmem napawa jednak fakt, iż firmy takie jak Anthropic już teraz aktywnie monitorują i przeciwdziałają nowym zagrożeniom. To wyścig, który dopiero się rozpoczął, ale świadomość problemu to pierwszy krok do jego rozwiązania.