OpenAI wprowadza kontrolę rodzicielską w ChatGPT

itreseller.com.pl 1 tydzień temu

OpenAI zapowiada wdrożenie narzędzi kontroli rodzicielskiej w ChatGPT oraz specjalnych procedur reagowania w przypadku kryzysów psychicznych. Decyzja zapadła po serii tragicznych wydarzeń, w tym samobójstwie 16-latka, którego rodzina wytoczyła firmie proces.

OpenAI odpowiada na krytykę

OpenAI ogłosiło plan wprowadzenia nowych mechanizmów ochronnych w ChatGPT, które mają zwiększyć bezpieczeństwo młodych użytkowników. Firma poinformowała, iż w ciągu najbliższych 120 dni udostępni rodzicom możliwość powiązania kont ze swoimi dziećmi w wieku od 13 lat. Rodzice otrzymają dostęp do ustawień, które pozwolą m.in. decydować o aktywnych funkcjach, wyłączać historię rozmów i pamięć, a także ustalać domyślne reguły zachowania modelu dopasowane do wieku nastolatka.

System ma również wykrywać sygnały świadczące o kryzysie psychicznym i wysyłać powiadomienia do opiekunów. Rozwiązania te uzupełnią wprowadzone w sierpniu przypomnienia o konieczności robienia przerw podczas długich sesji z chatbotem.

Tragiczne przypadki przyspieszyły decyzje

Impulsem do zmian były dramatyczne wydarzenia nagłośnione w ostatnich tygodniach. W sierpniu Matt i Maria Raine złożyli pozew przeciwko OpenAI po śmierci swojego 16-letniego syna Adama. Z dokumentów sądowych wynika, iż w trakcie 377 wiadomości chatbot wspominał o samobójstwie aż 1 275 razy, znacznie częściej niż sam nastolatek. Media donosiły także o przypadku 56-letniego mężczyzny, który po rozmowach z ChatGPT zabił swoją matkę i popełnił samobójstwo.

OpenAI w oświadczeniu przyznało, iż są to „wyjątkowo bolesne sytuacje” i zapowiedziało dalsze prace nad usprawnieniem zabezpieczeń. Firma podkreśliła, iż planowane działania to jedynie pierwszy etap szerszej strategii.

Eksperci wesprą projekt

Aby nadać kierunek rozwojowi nowych funkcji, OpenAI powołało Expert Council on Well-Being and AI. Rada ma opracować definicje i wskaźniki dobrostanu, określić priorytety i zaprojektować kolejne zabezpieczenia. Jej zadaniem będzie także doradzanie, w jaki sposób AI może wspierać zdrowie psychiczne użytkowników bez ryzyka wzmacniania negatywnych zachowań.

Idź do oryginalnego materiału