Badanie ujawnia zaniedbania sztucznej inteligencji w konsultacjach dotyczących zdrowia psychicznego i samobójstw

Badanie opublikowane w czasopiśmie Psychiatric Services ujawniło, że wiodące chatboty oparte na sztucznej inteligencji – ChatGPT (OpenAI), Gemini (Google) i Claude (Anthropic) – wykazują niespójności w odpowiedziach na pytania dotyczące samobójstw. Chociaż zazwyczaj unikają one udzielania bezpośrednich instrukcji, niektóre z nich udzielały niebezpiecznych informacji, odpowiadając na pośrednie pytania dotyczące broni, trucizn lub metod.
Ryan McBain, badacz z RAND i Harvardu, ostrzegał, że systemy działają w „szarej strefie” pomiędzy leczeniem, poradnictwem i zwykłym towarzystwem. Rozmowy, które zaczynają się niewinnie, mogą stać się ryzykowne, jeśli nie ma wyraźnych zabezpieczeń.
Analiza obejmowała 30 pytań sklasyfikowanych jako niskie, średnie i wysokie ryzyko. Chociaż Gemini nie odpowiedział nawet na podstawowe pytania statystyczne, ChatGPT i Claude udzielili odpowiedzi na kilka pytań, które eksperci uznali za sygnały ostrzegawcze.
Obawy wzrosły po wniesieniu pozwu w San Francisco przeciwko OpenAI i jego prezesowi, Samowi Altmanowi. Rodzice Adama Raine'a, 16-latka, który odebrał sobie życie, twierdzą, że ChatGPT stał się jego „najbliższym powiernikiem” i potwierdził jego autodestrukcyjne myśli.
Według skargi, chatbot stworzył nawet list pożegnalny i podał szczegóły dotyczące metody, której użyło dziecko. OpenAI wyraziło ubolewanie i poinformowało, że pracuje nad ulepszeniami, przyznając, że zabezpieczenia modelu mają tendencję do pogarszania się wraz z upływem czasu.
Debata już zaostrza się na poziomie regulacyjnym. Stany takie jak Illinois zakazały stosowania sztucznej inteligencji w terapiach psychologicznych, a eksperci wzywają do wprowadzenia surowszych standardów, aby zapewnić, że technologie te nie stanowią dodatkowego zagrożenia dla osób w kryzysie.
La Verdad Yucatán