
Wprowadzenie do problemu / definicja
Incydent bezpieczeństwa dotyczący platformy MyLovely.AI pokazuje, jak poważne konsekwencje może mieć naruszenie danych w usługach generatywnej AI przetwarzających treści intymne, wrażliwe i silnie spersonalizowane. W tym przypadku ujawniono nie tylko adresy e-mail, ale również prompty użytkowników, odnośniki do wygenerowanych obrazów, metadane oraz elementy powiązane z profilami kont.
Tego typu wyciek jest szczególnie groźny, ponieważ łączy klasyczne naruszenie danych osobowych z ekspozycją bardzo wrażliwego kontekstu behawioralnego. W praktyce oznacza to wyższe ryzyko szantażu, deanonymizacji i precyzyjnych ataków socjotechnicznych.
W skrócie
MyLovely.AI, platforma oferująca interakcje z generowanymi przez AI „partnerkami” oraz treści NSFW, padła ofiarą wycieku danych obejmującego ponad 100 tys. użytkowników. Ujawnione informacje miały zawierać adresy e-mail, prompty, linki do wygenerowanych obrazów, identyfikatory profili oraz dane zapisane w plikach JSON opisujących zasoby aplikacji.
- Wyciek objął dane kont oraz treści tworzone przez użytkowników.
- Wśród ujawnionych informacji znalazły się prompty NSFW i metadane zasobów.
- Część danych można było powiązać z konkretnymi identyfikatorami użytkowników.
- Ryzyko obejmuje szantaż, phishing, doxing i wtórną redystrybucję treści.
Kontekst / historia
Usługi oparte na generatywnej AI coraz częściej przechowują dane o wysokiej wrażliwości: historię rozmów, preferencje użytkownika, dane subskrypcyjne, wygenerowane multimedia oraz artefakty moderacyjne. W odróżnieniu od tradycyjnych platform społecznościowych, takie serwisy często gromadzą treści o charakterze emocjonalnym, intymnym lub seksualnym.
To sprawia, iż skutki wycieku są znacznie poważniejsze niż w przypadku standardowej kompromitacji adresów e-mail czy choćby haseł. W analizowanym przypadku pojawiły się również przesłanki, iż zestaw danych był dystrybuowany lub omawiany na forum cyberprzestępczym, co zwiększa ryzyko dalszej redystrybucji oraz wzbogacania zbioru o dodatkowe informacje z innych źródeł.
Analiza techniczna
Z technicznego punktu widzenia incydent wygląda na kompromitację zaplecza aplikacyjnego albo błędnie zabezpieczonego repozytorium danych, z którego pozyskano zarówno informacje profilowe, jak i treści generowane przez użytkowników. Ujawnione zbiory miały obejmować między innymi struktury opisane jako Profiles, Gallery_Items, Community_Items oraz Collections.
Taka nomenklatura sugeruje eksport lub zrzut pochodzący z warstwy aplikacyjnej, backendowego API albo magazynu dokumentowego. najważniejsze jest to, iż incydent nie ograniczał się do prostych rekordów identyfikacyjnych, ale obejmował szeroki zestaw danych kontekstowych.
- prompty użytkowników, w tym treści NSFW,
- linki do wygenerowanych obrazów,
- metadane kolekcji i zasobów,
- informacje o subskrypcjach,
- adresy zasobów w pamięci obiektowej lub zewnętrznym storage,
- elementy związane z moderacją treści.
To wskazuje na naruszenie logiki biznesowej platformy, a nie wyłącznie warstwy uwierzytelniania. o ile odnośniki do materiałów multimedialnych pozostawały aktywne i dostępne bez dodatkowej autoryzacji albo korzystały z długowiecznych tokenów, rzeczywisty zasięg incydentu mógł być większy niż sam statyczny dump danych.
Najbardziej niepokojąca jest możliwość korelacji promptów z tożsamością użytkownika. Sam prompt może być kompromitujący, ale połączenie go z adresem e-mail, identyfikatorem konta, nazwą profilu czy informacją subskrypcyjną znacząco zwiększa wartość danych dla cyberprzestępców. W praktyce ułatwia to przygotowanie bardzo wiarygodnych wiadomości szantażowych i kampanii spear phishingowych.
Incydent uwidacznia także typowy problem w ekosystemie AI: nadmierną retencję danych. Długie przechowywanie promptów, wyników generowania, metadanych moderacyjnych i artefaktów kolekcji zwiększa skalę szkód po każdym naruszeniu, zwłaszcza gdy dane nie są odpowiednio segmentowane, szyfrowane lub pseudonimizowane.
Konsekwencje / ryzyko
Ryzyko dla użytkowników jest wyższe niż w przypadku klasycznych wycieków danych konsumenckich. Ujawnione treści mogą zostać wykorzystane nie tylko do ataków technicznych, ale również do nadużyć opartych na presji psychologicznej i reputacyjnej.
- szantaż seksualny i wymuszenia,
- kampanie phishingowe bazujące na intymnym kontekście,
- próby przejęcia kont przez inżynierię społeczną,
- deanonymizacja użytkowników działających pod pseudonimem,
- profilowanie psychologiczne i reputacyjne,
- wtórne wycieki obrazów i treści wygenerowanych przez platformę.
Dla organizacji rozwijających podobne usługi to sygnał ostrzegawczy, iż dane promptów i rozmów nie powinny być traktowane wyłącznie jako materiał operacyjny czy telemetryczny. Z perspektywy prywatności są to dane wysokiego ryzyka, których naruszenie może prowadzić do strat wizerunkowych, roszczeń użytkowników, konsekwencji regulacyjnych oraz presji ze strony partnerów infrastrukturalnych i płatniczych.
Rekomendacje
Operatorzy platform AI powinni wdrożyć podejście „privacy by design” oraz „security by default”, szczególnie jeżeli usługa przetwarza treści intymne. Ochrona takich danych musi obejmować zarówno architekturę aplikacji, jak i polityki retencji, dostępów oraz reagowania na incydenty.
- minimalizacja retencji promptów, rozmów i wygenerowanych materiałów,
- szyfrowanie danych w spoczynku oraz silne zarządzanie kluczami,
- pseudonimizacja lub separacja identyfikatorów użytkownika od treści,
- ograniczenie dostępu administracyjnego zgodnie z zasadą najmniejszych uprawnień,
- regularne audyty konfiguracji storage, bucketów i backendowych API,
- stosowanie krótkotrwałych, podpisywanych i rotowanych adresów URL do zasobów,
- monitorowanie anomalii oraz eksportów danych o dużym wolumenie,
- segmentacja środowisk i rozdzielenie danych produkcyjnych od analitycznych,
- bezpieczne usuwanie treści oraz polityka retencji oparta na ryzyku,
- przygotowanie procedur reakcji na incydenty i obowiązkowych powiadomień.
Użytkownicy, którzy mogli zostać objęci incydentem, również powinni podjąć działania ograniczające skutki wycieku.
- zmienić hasła do powiązanych usług,
- włączyć uwierzytelnianie wieloskładnikowe tam, gdzie to możliwe,
- zachować ostrożność wobec wiadomości odwołujących się do prywatnych treści,
- monitorować próby podszywania się i kampanie sextortion,
- rozważyć zmianę aliasów, nazw użytkownika i adresów e-mail używanych w podobnych serwisach,
- sprawdzić, czy ich dane nie pojawiły się w publicznych bazach powiadamiania o wyciekach.
Podsumowanie
Wyciek z MyLovely.AI pokazuje, iż w incydentach dotyczących usług generatywnej AI największym problemem nie jest wyłącznie liczba rekordów, ale charakter ujawnionych danych i możliwość ich powiązania z konkretnymi osobami. Prompty, obrazy, metadane i identyfikatory kont tworzą zestaw wyjątkowo atrakcyjny dla sprawców szantażu, profilowania i precyzyjnych ataków phishingowych.
Dla dostawców usług AI to kolejny dowód, iż dane konwersacyjne i generatywne muszą być chronione z takim samym rygorem jak klasyczne dane wrażliwe. Dla użytkowników to przypomnienie, iż każda platforma przechowująca intymne interakcje może stać się celem ataku o bardzo wysokiej wartości.
Źródła
- Help Net Security — https://www.helpnetsecurity.com/2026/04/09/mylovely-ai-data-breach-user-conversations/
- Have I Been Pwned — https://haveibeenpwned.com/










