Google Cloud Security w opublikowanym 4 listopada raporcie “Cybersecurity Forecast 2026” ostrzega, iż sztuczna inteligencja stanie się standardowym narzędziem w arsenale cyberprzestępców. Firma prognozuje, iż połączenie systemu ransomware i kradzieży danych będzie w 2026 roku najbardziej destrukcyjną finansowo kategorią cyberprzestępczości na świecie.
W najnowszym raporcie “Cybersecurity Forecast 2026” eksperci Google Cloud przewidują, iż w nadchodzącym roku narzędzia generatywnej AI, zdolne do manipulowania głosem, tekstem i wideo, napędzą nową falę zaawansowanych ataków typu Business Email Compromise (BEC) oraz hiperrealistycznego phishingu, zacierając granicę między oszustwem generowanym przez maszynę a działaniem człowieka. Jak stwierdził Jon Ramsey, wiceprezes i dyrektor generalny Google Cloud Security, “organizacje muszą być przygotowane na zagrożenia i przeciwników wykorzystujących sztuczną inteligencję”. Rosnącym zagrożeniem mają być również ataki typu prompt injection, czyli manipulowanie systemami AI dzięki ukrytych złośliwych poleceń w celu ominięcia kontroli wewnętrznych i doprowadzenia do kradzieży danych na dużą skalę.
Raport zwraca uwagę na dwa nowe, istotne wektory zagrożeń. Pierwszym jest “wyzwanie agentów cieni” (shadow agents), czyli nieautoryzowanych agentów AI wdrażanych samodzielnie przez pracowników do automatyzacji zadań. Tworzą one niewidoczne i niekontrolowane kanały przepływu danych, narażając organizacje na ryzyko związane z bezpieczeństwem, zgodnością i prywatnością. Drugim krytycznym obszarem jest infrastruktura wirtualizacyjna, która według Google staje się “krytycznym martwym punktem” – pojedynczy udany atak na tę warstwę może dać cyberprzestępcom kontrolę nad setkami systemów w ciągu kilku godzin.
Analitycy Google prognozują, iż w 2026 roku połączenie ataków ransomware, kradzieży danych i wieloaspektowych wymuszeń stanie się najbardziej kosztowną kategorią cyberprzestępczości na świecie. Wynika to nie tylko z utrzymującej się dużej liczby incydentów, ale przede wszystkim z kaskadowych skutków ekonomicznych, które dotykają dostawców, klientów i całe społeczności, daleko wykraczając poza pierwotną ofiarę ataku. W odpowiedzi na te wyzwania raport sugeruje, iż firmy muszą wdrożyć nowe dyscypliny zarządzania bezpieczeństwem AI, w tym monitoring i kontrolę routingu, traktując agentów AI jako zarządzane zasoby cyfrowe, ponieważ całkowity zakaz ich używania jest nierealistyczny i prowadzi jedynie do utraty widoczności.
















