Un hombre se envenena accidentalmente tras seguir una dieta recomendada por ChatGPT que le provocó alucinaciones.

Publicado: | Actualizado:
Un hombre en Washington se envenenó accidentalmente después de seguir una dieta elaborada porChatGPT .
El hombre anónimo, de 60 años, corrió a la sala de emergencias local con sospechas de que su vecino lo estaba envenenando.
Aproximadamente un día después de ser ingresado en el hospital, también sufrió paranoia y alucinaciones e intentó escapar del hospital.
El hombre reveló más tarde que tenía varias restricciones dietéticas, entre ellas destilar su propia agua y seguir una dieta vegetariana "extremadamente restrictiva".
Les dijo a los médicos que después de leer sobre los daños del cloruro de sodio, o sal de mesa, le preguntó a ChatGPT si debía eliminarlo de su dieta.
Según se informa, el chatbot le informó que era seguro reemplazar la sal con bromuro de sodio, que se usaba como sedante a principios del siglo XX y ahora se encuentra en anticonvulsivos para perros y humanos.
Terminó siguiendo esta recomendación durante tres meses y finalmente desarrolló bromismo o intoxicación por bromuro.
El bromuro puede acumularse en el cuerpo y afectar la función nerviosa, una afección llamada bromismo. Esto provoca confusión, pérdida de memoria, ansiedad, delirios, erupciones cutáneas y acné, que el hombre también padecía.
Un hombre en Washington se envenenó con bromuro al seguir las recomendaciones de ChatGPT (imagen de archivo)
Los médicos que tratan al hombre, de la Universidad de Washington en Seattle, repitieron su búsqueda y recibieron el mismo consejo incorrecto.
Advirtieron que el caso resaltaba “cómo el uso de inteligencia artificial puede contribuir potencialmente al desarrollo de resultados adversos para la salud prevenibles”.
Dijeron que ChatGPT y otros chatbots podrían "generar imprecisiones científicas, carecer de la capacidad de discutir críticamente los resultados y, en última instancia, alimentar la propagación de información errónea".
El estudio de caso anónimo, publicado a principios de este mes en Annals of Internal Medicine , llega una semana después de que OpenAI afirmara que una de las actualizaciones más recientes del chatbot podría ser mejor para responder preguntas relacionadas con la salud y "señalar posibles preocupaciones".
Sin embargo, las pautas de ChatGPT establecen que su uso no está "destinado a ser utilizado en el diagnóstico o tratamiento de ninguna condición de salud".
El paciente parecía tener una versión anterior del software.
Después de intentar escapar del hospital, el hombre fue puesto bajo custodia psiquiátrica involuntaria y le administraron grandes cantidades de líquidos y electrolitos para ayudar a eliminar el bromuro de su sistema.
Su nivel de bromuro estaba en 1.700 mg/L, mientras que el rango normal está entre 0,9 y 7,3 mg/L.
El bromuro se usó como sedante en los siglos XIX y XX y estuvo ampliamente presente en medicamentos con y sin receta. Sin embargo, a medida que las investigaciones revelaron el riesgo de exposición crónica, los organismos reguladores comenzaron a retirarlo gradualmente del suministro de medicamentos en Estados Unidos.
Como resultado, hoy en día los casos siguen siendo pocos y espaciados.
El hombre también informó que destilaba su propia agua y mantenía una dieta vegetariana "extremadamente restrictiva" (imagen de archivo)
El estudio de caso surge después de que OpenAI afirmara que una de las actualizaciones más recientes del chatbot podría ser mejor para responder preguntas relacionadas con la salud y "señalar posibles preocupaciones".
El hombre refirió tener acné y pequeños crecimientos rojos en la piel, insomnio, fatiga, problemas de coordinación muscular y sed excesiva.
Pasaron tres semanas hasta que sus niveles de bromuro se estabilizaron y le retiraron los medicamentos psiquiátricos antes de poder recibir el alta.
Los médicos que lo trataron escribieron: 'Si bien es una herramienta con mucho potencial para proporcionar un puente entre los científicos y la población no académica, la IA también conlleva el riesgo de difundir información descontextualizada.
Es muy poco probable que un experto médico hubiera mencionado el bromuro de sodio cuando se enfrenta a un paciente que busca un sustituto viable para el cloruro de sodio.
También enfatizaron que "a medida que aumenta el uso de herramientas de IA, los proveedores deberán considerar esto al evaluar dónde sus pacientes consumen información de salud".
Daily Mail