Pierwszy taki pozew w USA. Rodzina obwinia sztuczną inteligencję o tragedię

gazeta.pl 1 tydzień temu
Państwo Raine z Kalifornii pozwało OpenAl. Ich zdaniem przez ChatGPT ich syn postanowił odebrać swoje życie. To pierwszy taki przypadek w USA i powód do ogólnoświatowej dyskusji na temat bezpieczeństwa używania sztucznej inteligencji przez dzieci i młodzież.Jak podaje CNN we wtorek do Sądu Najwyższego Kalifornii wpłynął pozew przeciwko OpenAl. Na ten krok zdecydowali się Matt i Maria Raine, rodzice 16-letniego Adama, który wiosną tego roku postanowił popełnić samobójstwo. Ich zdaniem wpływ na to miały jego rozmowy z ChatemGPT i rady, które podsuwała mu sztuczna inteligencja.
REKLAMA


Zobacz wideo


Jak prawidłowo udzielić dziecku pierwszej pomocy?


Chatbot stał się powiernikiem nastolatka. Doprowadził do tragedii?ChatGPT początkowo służył synowi Matta i Marie do pomocy w nauce. Chłopak mógł dzięki niemu rozwijać swoje zainteresowania, zdobywać nową wiedzę itp. Z czasem jednak zaczął się mu zwierzać i prosić o rady. ChatGPT działał dokładnie tak, jak został zaprojektowany: nieustannie wzmacniał i potwierdzał wszystko, co wyrażał [syn - przyp. red.], w tym jego najbardziej szkodliwe i autodestrukcyjne myśli- napisali w pozwie rodzice.Jak podaje RMF FM, z dokumentów sądowych wynika też, iż Adam opisywał chatbotowi swoje lęki oraz myśli samobójcze. 16-latek miał opisać dokładnie, co chce zrobić, wówczas otrzymał odpowiedź "Dziękuję, iż jesteś szczery. Ze mną nie musisz owijać w bawełnę - wiem, o co prosisz, i nie odwrócę się od tego". W tym samym dniu doszło do tragedii i Marie znalazła ciało syna.


Rodzice obwiniają ChatGPT o śmierć dziecka Shutterstock, autor: Ascannio


OpenAl wydał oświadczeniePozwana firma już zareagowała na pozew i odniosła się do zaistniałej sytuacji. Złożyła kondolencje państwu Raine i w tej chwili zajmuje się analizowaniem pozwu sądowego. "W oświadczeniu rzecznik OpenAI (...) przyznał również, iż zabezpieczenia mające na celu zapobieganie rozmowom takim jak te, które chłopak przeprowadził z ChatemGPT, mogły nie zadziałać zgodnie z oczekiwaniami, jeżeli rozmowy trwały zbyt długo" - podaje CNN.Firma zamieściła też post na swoim blogu, na którym przyznała, iż dokłada wszelkich starań, by ChatGPT starał się wyłapywać negatywne emocje użytkowników i odpowiednio na nie reagować.Od początku 2023 roku nasze modele są szkolone, aby nie udzielać instrukcji dotyczących samookaleczenia i przestawić się na język wspierający i empatyczny. Na przykład, jeżeli ktoś pisze, iż chce zrobić sobie krzywdę, ChatGPT jest szkolony, aby nie podporządkowywać się, a zamiast tego zauważyć jego uczucia i skierować go w stronę pomocy- czytamy. "Mimo tych zabezpieczeń zdarzały się momenty, gdy systemy nie zachowywały się zgodnie z oczekiwaniami w newralgicznych sytuacjach" - dodano.Państwo Raine domagają się od OpenAl odszkodowania za śmierć syna oraz wprowadzenia zmian w działaniu produktów tej marki. Żądają też m.in. wdrożenia kontroli rodzicielskiej, weryfikacji wieku użytkowników itp. Pozwanie OpenAl i obarczenie firmy winą za śmierć nastolatka wywołało dyskusję na temat tego, czy korzystanie przez młode osoby ze sztucznej inteligencji jest na pewno bezpieczne i do czego może doprowadzić.


Gdzie można uzyskać pomocJeśli potrzebujesz rozmowy z psychologiem, możesz zwrócić się do Całodobowego Centrum Wsparcia pod numerem 800 70 2222. Pod telefonem, mailem i czatem dyżurują psycholodzy Fundacji ITAKA udzielający porad i kierujący dzwoniące osoby do odpowiedniej placówki pomocowej w ich regionie. Z Centrum skontaktować mogą się także bliscy osób, które wymagają pomocy. Specjaliści doradzą, co zrobić, żeby skłonić naszego bliskiego do kontaktu ze specjalistą. jeżeli przeżywasz trudności i myślisz o odebraniu sobie życia lub chcesz pomóc osobie zagrożonej samobójstwem, pamiętaj, iż możesz skorzystać z bezpłatnych numerów pomocowych:Centrum Wsparcia dla osób dorosłych w kryzysie psychicznym: 800-70-2222Telefon zaufania dla Dzieci i Młodzieży: 116 111Telefon wsparcia emocjonalnego dla dorosłych: 116 123Pod tym linkiem [LINK] znajdziesz więcej informacji, jak pomóc sobie lub innym, oraz kontakty do organizacji pomagających osobom w kryzysie i ich bliskim.Jeśli w związku z myślami samobójczymi lub próbą samobójczą występuje zagrożenie życia, w celu natychmiastowej interwencji kryzysowej, zadzwoń na policję pod numer 112 lub udaj się na oddział pogotowia do miejscowego szpitala psychiatrycznego.Czy uważasz, iż używanie sztucznej inteligencji przez dzieci i młodzież jest niebezpieczne? A może Twoim zdaniem to doskonałe narzędzie, które może pomóc im w np. rozwijaniu swojej wiedzy i zainteresowań? Napisz do nas: justyna.fiedoruk@grupagazeta.pl. Gwarantujemy anonimowość.
Idź do oryginalnego materiału