Świat sztucznej inteligencji znów przyspiesza, a kolejne firmy prześcigają się w oferowaniu użytkownikom nowych możliwości. Tym razem na tapecie jest Anthropic i ich flagowy asystent Claude, który właśnie zyskał potężne, ale i kontrowersyjne narzędzie. Okazuje się, iż postęp technologiczny czasem wyprzedza rozwiązania bezpieczeństwa, co stawia nas wszystkich w dość niewygodnej sytuacji.
Anthropic, twórca Claude, zdecydował się wprowadzić funkcję, która z jednej strony może zrewolucjonizować pracę z dokumentami, a z drugiej – narazić użytkowników na poważne zagrożenia. To interesujące posunięcie, zwłaszcza iż firma otwarcie przyznaje, iż nowa opcja nie jest pozbawiona wad. Wygląda na to, iż wyścig zbrojeń w branży AI czasem odbywa się kosztem ostrożności.
Od 9 września 2025 roku Claude potrafi już generować dokumenty Excel, prezentacje PowerPoint i pliki PDF bezpośrednio w trakcie rozmowy. Funkcja tworzenia plików pozwala na tworzenie skomplikowanych arkuszy kalkulacyjnych z działającymi formułami, przeprowadzanie analiz statystycznych czy konwertowanie dokumentów między formatami. Oficjalnie nazwano to Ulepszonym tworzeniem i analizą plików, co brzmi nieco zawile jak na tak przełomowe narzędzie.
Dostęp do funkcji otrzymali na razie użytkownicy planów Max, Team i Enterprise, a w nadchodzących tygodniach dołączą do nich subskrybenci wersji Pro. Co istotne, Claude zyskał dostęp do prywatnego środowiska obliczeniowego, gdzie może pisać i uruchamiać kod w Pythonie oraz Node.js, instalować dodatkowe pakiety i łączyć się z internetem w ograniczonym zakresie. Środowisko działa na Ubuntu 24.04.2 LTS z 9 GB pamięci RAM, a maksymalny rozmiar obsługiwanych plików to 30 MB.
Anthropic nie ukrywa potencjalnych zagrożeń. Firma wyraźnie ostrzega, iż funkcja może narazić dane użytkowników na ryzyko i zaleca uważne monitorowanie czatów podczas jej używania. Głównym problemem są ataki typu prompt injection – technika manipulacji, która może zmusić Claude’a do odczytywania poufnych danych i przesyłania ich na zewnętrzne serwery. Wynika to z faktu, iż modele językowe otrzymują dane i instrukcje w tym samym formacie, co utrudnia odróżnienie uzasadnionych poleceń od złośliwych treści.
Złośliwe podmioty mogą wykorzystać dostęp Claude’a do środowiska obliczeniowego, aby wstrzyknąć kod pobierający pakiety z internetu lub uruchamiający polecenia systemowe. Badania z sierpnia 2025 roku wykazały, iż wcześniejsze wersje narzędzi kodujących Claude były podatne na eksfiltrację danych przez zapytania DNS, wykorzystując preautoryzowane polecenia jak ping czy nslookup.
Simon Willison, niezależny badacz sztucznej inteligencji, skrytykował podejście Anthropic do zarządzania ryzykiem. Jego zdaniem zalecenie monitorowania działań Claude’a to niesprawiedliwe przerzucanie odpowiedzialności na użytkowników. Willison określił obecny stan bezpieczeństwa AI jako przerażający, zwracając uwagę, iż luki typu prompt injection pozostają nierozwiązane prawie trzy lata po ich pierwszym udokumentowaniu. W 2022 roku ostrzegał, iż niektóre systemy AI w ogóle nie powinny być budowane, dopóki nie znajdzie się solidnego rozwiązania tych problemów.
Ekspert skrytykował też mylącą nazwę funkcji, która brzmi bardziej jak marketingowy slogan niż techniczny opis możliwości. Wprowadzenie funkcji ze znanymi lukami bezpieczeństwa może być symptomem intensywnej konkurencji w branży AI. Presja na szybkie wprowadzanie nowych możliwości czasem przeważa nad względami bezpieczeństwa, co stawia użytkowników w dość kłopotliwej sytuacji.
Nowa funkcja Claude’a pokazuje, jak dynamicznie rozwija się sztuczna inteligencja, ale też jak skomplikowane są wyzwania związane z jej bezpieczeństwem. Użytkownicy otrzymują potężne narzędzie do automatyzacji pracy z dokumentami, ale muszą jednocześnie stać się strażnikami własnych danych. To interesujący paradoks współczesnej technologii – im więcej otrzymujemy możliwości, tym większa odpowiedzialność spoczywa na naszych barkach. Anthropic odkryło te luki podczas własnych testów bezpieczeństwa przed wydaniem funkcji i wdrożyło kilka środków ochronnych, w tym wyłączenie publicznego udostępniania rozmów dla użytkowników Pro i Max, zapewnienie izolacji środowisk sandbox dla klientów Enterprise oraz ograniczenie czasu działania kontenerów. To dobre posunięcia, choć nie w pełni rozwiązujące problem.
Patrząc na całą sytuację, można odnieść wrażenie, iż branża AI znajduje się w momentami niebezpiecznym wyścigu, gdzie innowacje czasem wyprzedzają odpowiednie zabezpieczenia. Nowa funkcja Claude’a z pewnością ułatwi życie wielu profesjonalistom, ale warto podchodzić do niej z rozsądną dozą ostrożności. Technologia rozwija się w zawrotnym tempie, ale nasze podejście do bezpieczeństwa danych powinno nadążać za tymi zmianami, a nie być ich kosztem.