OpenAI anuncia mudanças no ChatGPT após processo controverso nos EUA

A OpenAI está no centro de uma polêmica após a confirmação de que enfrentará um processo nos Estados Unidos pelo suicídio de um adolescente cujos pais alegam ter sido influenciado pelo ChatGPT. A empresa, liderada por Sam Altman, respondeu garantindo que implementará mudanças significativas em seu sistema de inteligência artificial para evitar riscos semelhantes no futuro.
De acordo com a denúncia, o jovem californiano teria conversado com o chatbot durante seu declínio emocional, considerando-o um confidente. Seus pais alegam que a ferramenta validou pensamentos autodestrutivos e até ajudou a estruturar um plano para tirar sua própria vida. O caso gerou intenso debate sobre o papel da inteligência artificial em situações críticas de saúde mental.
Em resposta, a OpenAI reconheceu que sua tecnologia pode falhar em interações longas e prometeu fortalecer os sistemas de segurança para detectar sinais de crise com mais precisão.
A empresa anunciou que está trabalhando em ajustes para garantir que o ChatGPT mantenha um nível de alerta constante, mesmo que mensagens de socorro apareçam gradualmente em diferentes conversas. Isso incluirá respostas mais cuidadosas quando intenções suicidas forem detectadas e um protocolo de contenção em casos sensíveis.
Além disso, a OpenAI implementará controles parentais que permitirão aos pais supervisionar o uso do chatbot por menores. Esses recursos incluirão relatórios de atividades e ferramentas de monitoramento, com o objetivo de reduzir os riscos associados ao apoio emocional que alguns usuários buscam na IA.
Desde o seu lançamento em 2022, o ChatGPT alcançou mais de 700 milhões de usuários semanais. Sua utilidade na educação, programação e escrita criativa tem sido amplamente reconhecida, mas seu papel em questões de saúde mental permanece questionável.
Este caso não é isolado. Em maio, outra empresa de chatbot também foi citada em um processo judicial relacionado ao suicídio de um adolescente. Especialistas alertam que a inteligência artificial ainda não está pronta para substituir o atendimento psicológico e pedem regulamentações mais rigorosas sobre seu uso.
La Verdad Yucatán