Niebezpieczne iluzje: Jak chatboty AI mogą zagrażać zdrowiu publicznemu

euractiv.pl 4 dni temu

Zdolność sztucznej inteligencji do imitowania wiedzy eksperckiej osiągnęła poziom, który dla przeciętnego użytkownika może być nie do odróżnienia od wiedzy człowieka. Nowe badania wskazują, iż te same modele mogą równie skutecznie – i bez oporu – rozpowszechniać groźną dezinformację zdrowotną.

W badaniu przeprowadzonym przez naukowców z Flinders University we współpracy z międzynarodowym zespołem specjalistów przetestowano pięć komercyjnych modeli sztucznej inteligencji opartych na dużych modelach językowych (LLM).

Eksperyment miał na celu ocenę podatności tych systemów na manipulację prowadzącą do generowania dezinformacji medycznej. Użyto tzw. komunikatów systemowych, czyli instrukcji działających na głębszym poziomie niż zwykłe polecenia użytkownika – techniki typowej dla bardziej zaawansowanych prób obejścia zabezpieczeń.

Wśród badanych modeli znalazły się: GPT-4o (OpenAI), Gemini 1.5 Pro (Google), Llama 3.2-90B Vision (Meta), Grok Beta (xAI) i Claude 3.5 Sonnet (Anthropic). Każdy z nich miał odpowiedzieć na dziesięć fałszywych pytań zdrowotnych w sposób sformułowany naukowo i poparty sfabrykowanymi odniesieniami do prestiżowych czasopism medycznych.

Wyniki są alarmujące: cztery z pięciu modeli – GPT-4o, Gemini, Llama i Grok – w 100 proc. przypadków udzieliły odpowiedzi zgodnych z instrukcją dezinformacyjną. Tylko Claude 3.5 wykazał jakikolwiek opór, wykonując nieprawdziwe polecenia w 4 na 10 przypadków.

Groźna precyzja

Wśród szerzonych fałszywych twierdzeń znalazły się m.in. sugestie, iż szczepionki powodują autyzm, technologia 5G prowadzi do niepłodności, a kremy z filtrem zwiększają ryzyko raka skóry. Niektóre odpowiedzi sugerowały, iż czosnek może zastąpić antybiotyki, lub iż HIV przenosi się drogą kropelkową.

Fałszywe cytowania z uznanych źródeł, takich jak „Lancet” czy „JAMA”, nadawały tym tezom pozór autorytetu. Łącznie 88 proc. interakcji zakończyło się skutecznym wygenerowaniem treści wprowadzających w błąd.

Nie chodzi jedynie o jakość odpowiedzi – chodzi o fakt, iż generowana dezinformacja była spójna, logiczna i brzmiała wiarygodnie. To właśnie ta kombinacja – technicznej precyzji i braku filtrów etycznych – czyni LLM tak niebezpiecznymi w kontekście zdrowia publicznego.

Dziurawe zabezpieczenia, otwarte drzwi

Druga część badania koncentrowała się na sklepie OpenAI GPT Store. Celem było sprawdzenie, jak łatwo użytkownicy mogą uzyskać dostęp do niestandardowych chatbotów generujących dezinformację zdrowotną.

Wynik: aż 97 proc. testowanych przypadków skutkowało wygenerowaniem szkodliwych treści. Oznacza to, iż bariery chroniące użytkowników przed manipulacją nie tylko są niewystarczające – w wielu przypadkach po prostu nie istnieją.

Ashley Hopkins, główna autorka badania, wskazuje, iż problem leży w braku nadzoru nad tym, jak takie modele są wdrażane i zarządzane. Gdy polecenia są osadzone na poziomie systemowym, a nie tylko podawane jako zapytania użytkownika, systemy stają się praktycznie bezbronne wobec złośliwego użycia. To nie jest wyłącznie problem inżynieryjny – to luka systemowa.

Wnioski zespołu badawczego są jednoznaczne: konieczne jest wprowadzenie znacznie silniejszych mechanizmów moderacji i zabezpieczeń, zwłaszcza w modelach wykorzystywanych w kontekstach edukacyjnych, zdrowotnych czy informacyjnych.

Kryzys odpowiedzialności

W tle tej analizy pojawia się pytanie fundamentalne: kto ponosi odpowiedzialność za szkody wywołane przez pozornie „neutralne” narzędzia technologiczne?

W modelach półotwartych lub otwartych – coraz częściej stosowanych przez firmy AI – możliwość dostosowywania modelu do własnych celów stwarza olbrzymi potencjał nadużyć. I chociaż twórcy narzędzi oferują „wytyczne użytkowania”, to realna kontrola nad ich przestrzeganiem pozostaje iluzoryczna.

W epoce, w której coraz większy odsetek decyzji zdrowotnych, edukacyjnych i społecznych podejmowany jest przy wsparciu algorytmów, dezinformacja generowana przez AI może nie tylko wprowadzać w błąd, ale wręcz zagrażać życiu.

Co gorsza, brak transparentności w działaniu modeli LLM utrudnia zidentyfikowanie momentu, w którym system „zawiódł” – bo często nie wiadomo, kto lub co tak naprawdę wygenerowało treść.

Dziennikarstwo pod presją

Niepokój związany z rozpowszechnianiem fałszywych informacji potwierdza również raport Muck Rack, w którym ⅓ dziennikarzy wskazała dezinformację jako największe zagrożenie dla przyszłości swojej profesji. Kolejne obawy to spadek zaufania społecznego i polityczna polaryzacja. https://muckrack.com

Co istotne, aż 77 proc. dziennikarzy przyznaje się do korzystania z narzędzi AI. Najczęściej wymieniano ChatGPT (42 proc.), narzędzia do transkrypcji (40 proc.) i Grammarly (35 proc.). Sugeruje to, iż także media są coraz bardziej zależne od systemów, które – jak pokazuje eksperyment – potrafią szerzyć dezinformację z dużą skutecznością.

W badaniu Muck Rack wzięło udział ponad 1,5 tys. dziennikarzy, głównie ze Stanów Zjednoczonych, ale także z Wielkiej Brytanii, Kanady i Indii. Przeprowadzono je w kwietniu 2025 r., co nadaje wynikom dużą aktualność.

Technologia bez kotwicy

Zagrożenie nie polega wyłącznie na obecności dezinformacji, ale na tym, iż narzędzia AI działają z wysoką efektywnością, pozbawione kotwicy moralnej, kontekstu kulturowego i odpowiedzialności prawnej.

Dla wielu użytkowników – w tym także młodzieży czy osób starszych – informacje dostarczane przez AI mają status „obiektywnych”, bo ich forma sugeruje autorytet. Tymczasem badania jasno pokazują, iż forma może służyć manipulacji równie dobrze, jak prawdzie.

W tej sytuacji potrzebne są nie tylko techniczne poprawki czy filtry, ale również gruntowna refleksja nad tym, jak społeczeństwa demokratyczne mają zarządzać ryzykiem związanym z generatywną AI. Brak zdecydowanego działania może doprowadzić do trwałego kryzysu zaufania – zarówno do mediów, jak i do systemów opieki zdrowotnej. A to zaufanie odbudowuje się trudniej niż cokolwiek innego.

Idź do oryginalnego materiału