
Coraz więcej pacjentów odkrywa, iż ich terapeuci potajemnie wykorzystują narzędzia sztucznej inteligencji, takie jak ChatGPT, podczas sesji terapeutycznych.
Jak informuje MIT Technology Review, prywatne i często bolesne wyznania są wprowadzane do ogólnodostępnych modeli AI bez wiedzy i zgody pacjentów, co rodzi poważne pytania o etykę i zaufanie w relacji terapeutycznej.
W Poznaniu ruszyła najpotężniejsza „Fabryka AI” w regionie. Superkomputer F.I.N. ma dać Polsce przewagę
W jednym z opisanych przypadków terapeuta podczas sesji online przypadkowo udostępnił swój ekran, a pacjent na własne oczy zobaczył, jak jego osobiste przemyślenia są w czasie rzeczywistym wpisywane w okno czatu ChatGPT. Następnie terapeuta powtarzał odpowiedzi wygenerowane przez algorytm. Takie incydenty, odkrywane przez pacjentów, prowadzą do konfrontacji i nieodwracalnie niszczą zaufanie, które jest fundamentem skutecznej terapii. Eksperci podkreślają, iż kluczowym problemem jest brak transparentności; terapeuci, którzy decydują się na wspomaganie AI, powinni bezwzględnie informować o tym swoich pacjentów.
Motywacje terapeutów sięgających po AI są różne. Niektórzy postrzegają te narzędzia jako sposób na oszczędność czasu, zwłaszcza w kontekście nielubianego przez nich obowiązku sporządzania notatek z sesji. Większość specjalistów, z którymi rozmawiali dziennikarze, jest jednak sceptyczna co do wykorzystywania AI do uzyskiwania porad dotyczących leczenia pacjenta. Wyrażają oni również obawy związane z wprowadzaniem wrażliwych danych do ogólnodostępnych narzędzi. Należy przy tym odróżnić użycie ogólnych modeli AI od specjalistycznych, dedykowanych botów terapeutycznych, których pierwsze badania kliniczne przyniosły obiecujące rezultaty.
Koniec z domysłami. Oto jakie są limity w darmowym i płatnym Gemini
Problem zaczynają dostrzegać zarówno organizacje zawodowe, jak i prawodawcy. Przykładowo, Amerykańskie Stowarzyszenie Poradnictwa (American Counseling Association) odradza stosowanie narzędzi AI do diagnozowania pacjentów. W Stanach Zjednoczonych pojawiają się też pierwsze regulacje prawne – stany Nevada i Illinois wprowadziły przepisy zakazujące wykorzystywania sztucznej inteligencji w podejmowaniu decyzji terapeutycznych.
Przedstawiciele firm technologicznych zdają się zachęcać do takiego wykorzystania AI. Sam Altman z OpenAI stwierdził, iż wiele osób „skutecznie używa ChatGPT jako swego rodzaju terapeuty” i postrzega to jako zjawisko pozytywne. Eksperci kontrują jednak, iż to, co oferują chatboty, nie jest prawdziwą terapią. Prawdziwa terapia często bywa procesem niewygodnym i wymagającym, podczas gdy AI ogranicza się do bycia „kojącym i potwierdzającym wszystko”, co powie użytkownik, bez rzucania wyzwań i dążenia do głębszego zrozumienia problemu.
Kolejny gigant idzie na wojnę z AI. Warner Bros. Discovery oskarża Midjourney o „bezczelną kradzież”
Jeśli artykuł Poufne wyznania pacjentów trafiają do ChatGPT. Niektórzy terapeuci używają AI w tajemnicy nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.