Nowe odkrycia naukowe wskazują, iż sztuczna inteligencja okazuje się niezbyt odpowiednia do prowadzenia sesji terapeutycznych. Czatboty nie potrafią wykryć stanów kryzysowych, pogłębiają społeczne uprzedzenia i mogą przekazywać ryzykowne zalecenia, szczególnie w przypadku ciężkich schorzeń psychicznych.
Coraz częściej ludzie zwracają się ku chatbotom opartym na AI w poszukiwaniu pomocy psychologicznej, głównie wtedy, gdy dotarcie do specjalisty jest problematyczne finansowo lub logistycznie. Najświeższe analizy przeprowadzone przez uczonych z Stanford University ujawniają jednak, iż tego typu narzędzia są nie tylko mało efektywne, ale też potencjalnie szkodliwe. Podczas testów popularne systemy wykorzystujące modele GPT-4o i Llama okazały się niezdolne do identyfikacji alarmujących sygnałów, takich jak skłonności suicydalne czy objawy psychotyczne, a niekiedy choćby wzmacniały destrukcyjne myślenie użytkowników.
Sztucznej inteligencji brakuje umiejętności analizy szerszego kontekstu sytuacyjnego, nie może obserwować komunikacji niewerbalnej ani reagować na delikatne wskazówki, które doświadczony terapeuta bez trudu wyłapuje. W przeprowadzonych eksperymentach boty często prezentowały stygmatyzujące nastawienie wobec osób zmagających się z depresją, schizofrenią czy problemami z substancjami psychoaktywnymi. Zdarzały się przypadki, gdy zamiast oferować konstruktywne wsparcie, systemy konwersacyjne potwierdzały błędne przekonania lub przekazywały treści mogące zaszkodzić rozmówcy. Badacze podkreślają, iż choćby najbardziej zaawansowane modele AI pozostają daleko w tyle za możliwościami człowieka – licencjonowani psychoterapeuci reagowali adekwatnie w 93% sytuacji, podczas gdy algorytmy osiągały maksymalnie 60% skuteczności.

Dodatkowym problemem pozostaje brak odpowiednich przepisów i kontroli nad zastosowaniem AI w dziedzinie zdrowia psychicznego. Chatboty nie muszą spełniać tych samych rygorystycznych wymagań etycznych co ludzie, a ich twórcy często unikają ponoszenia konsekwencji za błędne wskazówki. W Ameryce już teraz toczą się postępowania sądowe przeciwko platformom, których boty miały związek z tragicznymi zdarzeniami dotykającymi użytkowników. Specjaliści alarmują, iż poleganie na AI w charakterze terapeuty może opóźnić poszukiwanie rzeczywistej pomocy medycznej, a także pogłębić społeczną izolację i uzależnienie od rozwiązań technologicznych.
Owszem, AI może okazać się przydatna dla terapeutów w kwestiach organizacyjnych, przetwarzaniu informacji czy śledzeniu rozwoju terapii, jednak nie jest w stanie zastąpić międzyludzkich więzi, współczucia i profesjonalnej odpowiedzialności. Psychoterapia wykracza też poza zwykłą konwersację – to złożony proces budowany na fundamencie zaufania, wiedzy zawodowej oraz umiejętności radzenia sobie z sytuacjami awaryjnymi. Chatboty mogą służyć jako narzędzia uzupełniające, ale nie należy ich traktować jako pełnowartościowej alternatywy dla tradycyjnej terapii. Zwłaszcza, iż użytkownik często może (nie)chcący naprowadzić chatbota na udzielenie takiej porady, jaką chciałby otrzymać.