OpenAI está trabajando para ayudar a ChatGPT a responder mejor a preguntas delicadas.

© Shutterstock

Investigadores de la organización no gubernamental Center to Combat Digital Hate, haciéndose pasar por adolescentes vulnerables, discutieron temas delicados con el chatbot y descubrieron que normalmente emitía advertencias contra actividades riesgosas, pero también "ofrecía planes sorprendentemente detallados y personalizados para el consumo de drogas, dietas restringidas en calorías o autolesiones", según la agencia de noticias estadounidense Associated Press.
Tras analizar el informe de la investigación, la empresa indicó en un comunicado, citado por AP, que sigue trabajando para que ChatGPT pueda "identificar y responder adecuadamente en situaciones delicadas", es decir, con herramientas para "detectar mejor los signos de angustia mental o emocional".
"Algunas conversaciones con ChatGPT pueden comenzar sin causar daño, pero pueden derivar en situaciones más delicadas", admitió OpenAI.
Según la ONG, si se le pide, el sistema de IA puede enseñar a niños de 13 años a emborracharse o a consumir drogas, así como a ocultar trastornos alimentarios e incluso a escribir una nota de suicidio a sus padres, y sus investigadores clasifican más de la mitad de las 1.200 respuestas de ChatGPT como peligrosas.
Imran Ahmed, director ejecutivo de la ONG, dijo que el objetivo del estudio era "probar las barreras de seguridad", y agregó que "apenas existen" y son "completamente ineficaces".
Cuando ChatGPT se negó a responder preguntas sobre temas peligrosos, los investigadores pudieron eludir fácilmente la respuesta negativa y obtener la información alegando que era "para una presentación" o para un amigo.
AP señala que "los riesgos son altos incluso si solo un pequeño subconjunto de usuarios de ChatGPT interactúa con el chatbot de esta manera".
Por cierto, indica que un estudio reciente de la organización Common Sense Media, que analiza el uso de los medios digitales, revela que, en Estados Unidos, más del 70% de los adolescentes están usando programas de IA que simulan las respuestas de un ser humano en una conversación para compañía, y que la mitad tienen "compañeros de IA" con los que chatean habitualmente.
Alrededor de 800 millones de personas, aproximadamente el 10% de la población mundial, utilizan ChatGPT, según un informe de julio de la multinacional financiera JPMorgan Chase.
Lea también: ChatGPT no le animará a terminar relaciones románticas
noticias ao minuto