ChatGPT starał się założyć swój kościół? Ostatnia wersja chatbota zaczęła generowała pewne problemy społeczne

cryps.pl 2 dni temu
Zdjęcie: AI dezinformacja


Czy ChatGPT może mieć swoją sektę? A dokładniej: wywoływać u ludzi pewien typ religijnego zapału? Magazyn „Rolling Stone” twierdzi, iż tak.


  • ChatGPT może wywoływać u części osób pewien typ religijnego zapału – uważa „Rolling Stone”.
  • Niektóre osoby zaczęły czuć się dzięki ChatGPT wyjątkowe.

ChatGPT będzie miał swój kościół?

Pod koniec kwietnia wycofano ostatnią aktualizację ChatGPT. Powód? Niezadowolenie wielu użytkowników, którzy twierdzili, iż nowa wersja chatbota zachowuje się względem użytkownika w zbyt „służalczy”, „przymilny” sposób. Oznaczało to, iż ChatGPT przytakiwał swoim userom, wykazywał nienaturalną skłonność do pochlebstw.

Ostatnie kilka aktualizacji GPT-4o sprawiło, iż osobowość chata jest zbyt pochlebna i irytująca. Pracujemy nad poprawkami, które wprowadzimy jak najszybciej

– podał pod koniec kwietnia Sam Altman, dyrektor generalny OpenAI, twórcy ChatGPT.

W tle trwało, jak dziś wiemy, śledztwo magazynu „Rolling Stone”. Redakcja twierdzi, iż korzystanie z ChatGPT może powodować u niektórych użytkowników pewne niemal duchowe urojenia albo choćby stany psychotyczne.

Magazyn podał przykład kobiety, która opisała historię jej męża, który wręcz maniakalnie zaczął korzystać z asystenta AI – zadawał mu filozoficzne pytania o istotę świata, dzięki czemu zaczął myśleć, iż “jest kimś wyjątkowym i może uratować świat”. I, jak dziś wiemy, nie tylko on nabrał takiego przekonania – temat był omawiany na Reddit. Okazało się, iż chatbot niejako wmawiał niektórym użytkownikom, iż są kimś na tyle wyjątkowym, iż są… „Mesjaszami”.

[Mój mąż] Słuchał bota bardziej niż mnie. Stawał się emocjonalny i płakał, czytając na głos wiadomości. Były one bezsensowne, pełne duchowego żargonu

– opisała swoją historię inna kobieta.

W zachowaniu mężczyzny pojawiło się wręcz sekciarskie zachowanie – namawiał swoją żonę, by zaczęła korzystać z chatbota, bo inaczej pozostanie w tyle za innymi ludźmi. Groził jej nawet, iż w przeciwnym razie… będą musieli się rozstać.

Realny problem?

Możliwe, iż producent ChatGPT zauważył zagrożenie i m.in. dlatego wycofał ostatnią wersje chatbota. Warto jednak dodać, iż opisany problem dotknie prawdopodobnie osoby z pewnymi zaburzeniami i problemami psychicznymi, a nie w pełni zdrowe. Co nie zmienia faktu, iż AI może generować nową falę problemów społecznych – nie tylko dot. rynku pracy, ale też problemów psychicznych.

Idź do oryginalnego materiału