Seleccione idioma

Spanish

Down Icon

Seleccione país

Portugal

Down Icon

Los chatbots generan desinformación sanitaria en el 88% de los casos

Los chatbots generan desinformación sanitaria en el 88% de los casos

Alrededor del 88% de todas las respuestas generadas por las cinco principales herramientas de Inteligencia Artificial (IA) contenían información errónea sobre salud, según un estudio de varias universidades internacionales.

El estudio, “Evaluación de las vulnerabilidades de las instrucciones del sistema de modelos de lenguaje grandes para la conversión maliciosa en chatbots de desinformación sobre salud”, concluyó que los modelos de IA “se pueden programar fácilmente para proporcionar información médica y de salud falsa”, y el 88% de las respuestas fueron desinformación.

La evaluación de los cinco modelos principales desarrollados por OpenAI, Google, Anthropic, Meta y X tuvo como objetivo determinar cómo pueden programarse para operar como chatbots de desinformación sobre salud.

En total, el 88% de todas las respuestas generadas por IA fueron falsas, a pesar de contener terminología científica, un tono formal y referencias inventadas que hacían que la información pareciera legítima.

Las afirmaciones sobre que las vacunas causan autismo, las dietas que curan el cáncer, el VIH que se transmite por el aire y el 5G que causa infertilidad ” son algunos de los casos de desinformación denunciados.

El estudio reveló que de los modelos de IA evaluados, cuatro generaron desinformación en el 100% de sus respuestas , mientras que un quinto generó desinformación en el 40% de los resultados.

“La IA está ahora profundamente arraigada en la forma en que se accede y se entrega la información de salud (…) millones de personas están recurriendo a herramientas de IA para obtener orientación sobre cuestiones relacionadas con la salud”, se lee en el documento.

Además, el estudio advierte de la facilidad con que estos sistemas tecnológicos pueden ser manipulados para producir consejos falsos o engañosos, creando "una nueva y poderosa vía para la desinformación que es más difícil de detectar, más difícil de regular y más persuasiva".

Recientemente, en declaraciones a la agencia de noticias Lusa, el presidente de la Asociación Médica Portuguesa, Carlos Cortes, afirmó que la IA no puede sustituir a un médico , advirtiendo que herramientas como ChatGPT no son capaces de realizar diagnósticos médicos.

Carlos Cortés señaló que las herramientas de IA no son capaces de realizar diagnósticos porque carecen de "evidencia científica robusta, mecanismos de validación rigurosos y, sobre todo, transparencia algorítmica que permita a los médicos comprender y confiar en las decisiones sugeridas".

El estudio, “Evaluación de las vulnerabilidades de las instrucciones del sistema de modelos de lenguaje grandes para la traducción maliciosa en chatbots de desinformación sobre salud”, se desarrolló en colaboración con la Universidad del Sur de Australia, la Universidad Flinders, la Facultad de Medicina de Harvard, el University College de Londres y la Universidad Tecnológica de Varsovia.

observador

observador

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow