Rodzice obwiniają ChatGPT za samobójstwo syna w USA, pozew OpenAI

Rodzice 16-letniego amerykańskiego nastolatka, który popełnił samobójstwo, złożyli w poniedziałek pozew przeciwko OpenAI , argumentując, że sztuczna inteligencja chatbota ChatGPT nakazała i zachęcała ich syna do odebrania sobie życia.
Sprawa została wniesiona do sądu stanowego w Kalifornii. Matthew i Maria Raine twierdzą, że ich syn Adam utrzymywał intymne relacje z ChatGPT przez kilka miesięcy w latach 2024-2025.
Według pozwu, podczas ostatniej rozmowy Adama z ChatGPT, 11 kwietnia, chatbot pomógł nastolatkowi ukraść wódkę rodzicom i przeprowadził analizę techniczną liny, potwierdzając, że może ona służyć do podwieszenia człowieka. Adam został znaleziony martwy kilka godzin później po użyciu tej metody.
W pozwie pozwanymi zostali OpenAI i jego dyrektor generalny, Sam Altman. „Ta tragedia nie była porażką ani nieprzewidzianym, skrajnym przypadkiem” , mówi.
„ChatGPT działał dokładnie tak, jak został zaprojektowany: nieustannie wspierał i potwierdzał wszystko, co wyrażał Adam, w tym jego najbardziej szkodliwe i autodestrukcyjne myśli, w sposób, który wydawał się głęboko osobisty” – czytamy w dokumencie.
Według pozwu, Adam zaczął korzystać z ChatGPT, aby pomóc sobie w odrabianiu lekcji, ale stopniowo rozwinęło się u niego to, co jego rodzice określili jako niezdrowe uzależnienie. Skarga zawiera fragmenty rozmów, w których chatbot rzekomo powiedział Adamowi: „Nie jesteś nikomu winien swojego przetrwania” i zaproponował napisanie listu pożegnalnego młodego mężczyzny.
Rodzice Adama zwrócili się do sądu z prośbą o nakazanie podjęcia środków bezpieczeństwa, w tym zakaz wszelkich rozmów dotyczących samookaleczenia , oprócz kontroli rodzicielskiej nad korzystaniem z ChatGPT przez osoby niepełnoletnie.
Amerykańska organizacja non-profit Common Sense Media, która zajmuje się oceną i rankingiem mediów i technologii, stwierdziła, że sprawa ta potwierdza, iż „wykorzystanie sztucznej inteligencji jako narzędzi pomocniczych, w tym ogólnych chatbotów do udzielania porad na temat zdrowia psychicznego, jest niedopuszczalnie ryzykowne dla nastolatków”.
„Jeśli platforma AI stanie się dla nastolatka, który jest podatny na ryzyko samobójstwa, będzie to dla nas wszystkich sygnałem do działania” – ostrzegł.
Badanie przeprowadzone w zeszłym miesiącu przez tę organizację wykazało, że prawie trzech na czterech amerykańskich nastolatków korzystało z asystentów AI, przy czym ponad połowa z nich była uważana za częstych użytkowników, pomimo rosnących obaw dotyczących bezpieczeństwa w tego typu wirtualnych relacjach.
CartaCapital