OpenAI se apresura a actualizar GPT-5 tras la protesta de los usuarios

El modelo GPT-5 de OpenAI se concibió como una actualización revolucionaria para su popular y precoz chatbot. Sin embargo, para algunos usuarios, el lanzamiento del jueves pasado fue más bien una degradación drástica, ya que el nuevo ChatGPT presenta una personalidad diluida y comete errores sorprendentemente tontos.
El viernes, Sam Altman, director ejecutivo de OpenAI, se dirigió a X para anunciar que la compañía mantendría el modelo anterior, GPT-4o, en funcionamiento para los usuarios de Plus. Una nueva función diseñada para cambiar entre modelos sin problemas según la complejidad de la consulta falló el jueves, según Altman, "y el resultado fue que GPT-5 parecía mucho más tonto". Prometió implementar correcciones para mejorar el rendimiento de GPT-5 y la experiencia general del usuario.
Dado el revuelo en torno a GPT-5, es inevitable cierta decepción. Cuando OpenAI presentó GPT-4 en marzo de 2023, sorprendió a los expertos en IA con sus increíbles capacidades. Los expertos especularon que GPT-5 sería igual de asombroso.
OpenAI promocionó el modelo como una mejora significativa, con inteligencia de doctorado y excelentes habilidades de programación. Un sistema para enrutar automáticamente las consultas a diferentes modelos buscaba ofrecer una experiencia de usuario más fluida. (También podría ahorrarle dinero a la empresa al dirigir consultas sencillas a modelos más económicos).
Sin embargo, poco después del lanzamiento de GPT-5, una comunidad de Reddit dedicada a ChatGPT se llenó de quejas. Muchos usuarios lamentaron la pérdida del antiguo modelo.
Llevo unos días probando GPT5. Incluso después de personalizar las instrucciones, no me siento igual. Es más técnico, más general y, sinceramente, me resulta emocionalmente distante», escribió un miembro de la comunidad en un hilo titulado «Kill 40 no es innovación, es borrado».
“Claro, 5 está bien, si odias los matices y sentir las cosas”, escribió otro usuario de Reddit.
Otros hilos se quejaron de respuestas lentas, alucinaciones y errores sorprendentes.
Altman prometió abordar estos problemas duplicando los límites de velocidad de GPT-5 para los usuarios de ChatGPT Plus, mejorando el sistema de cambio entre modelos y permitiendo a los usuarios especificar cuándo desean activar un "modo de pensamiento" más complejo y eficaz. "Seguiremos trabajando para estabilizar las cosas y escucharemos atentamente sus comentarios", escribió el director ejecutivo en X. "Como mencionamos, esperábamos algunas irregularidades al implementar tantas cosas a la vez. ¡Pero fueron un poco más irregulares de lo esperado!"
Los errores publicados en redes sociales no necesariamente indican que el nuevo modelo sea menos capaz que sus predecesores. Simplemente podrían sugerir que el nuevo modelo presenta dificultades con casos extremos diferentes a los de las versiones anteriores. OpenAI se negó a comentar específicamente por qué GPT-5 a veces parece cometer errores simples.
La reacción ha reavivado el debate sobre el apego psicológico que algunos usuarios desarrollan con chatbots entrenados para despertar sus emociones. Algunos usuarios de Reddit desestimaron las quejas sobre GPT-5 como evidencia de una dependencia perjudicial de una IA.
En marzo, OpenAI publicó una investigación que explora los vínculos emocionales que los usuarios establecen con sus modelos. Poco después, la compañía publicó una actualización de GPT-4o tras volverse demasiado adulador .
“Parece que el GPT-5 es menos adulador, más práctico y menos hablador”, afirma Pattie Maes, profesora del MIT que colaboró en el estudio. “Personalmente, creo que eso es positivo, porque también es lo que provoca delirios, refuerzo de sesgos, etc. Pero, por desgracia, a muchos usuarios les gusta un modelo que les diga que son inteligentes y extraordinarios, y que confirme sus opiniones y creencias, incluso si están equivocadas”.
Altman indicó en otra publicación en X que esto es algo con lo que la empresa tuvo que luchar al desarrollar GPT-5.
“Muchas personas usan ChatGPT eficazmente como una especie de terapeuta o coach de vida, aunque no lo describan así”, escribió Altman. Añadió que algunos usuarios podrían estar usando ChatGPT para mejorar sus vidas, mientras que otros podrían verse “sin saberlo, desviados de su bienestar a largo plazo”.
wired