Seleccione idioma

Spanish

Down Icon

Seleccione país

Germany

Down Icon

Tormenta de mierda en torno a la Universidad de Zúrich: Investigadores se hicieron pasar por víctimas de violación en un experimento en línea.

Tormenta de mierda en torno a la Universidad de Zúrich: Investigadores se hicieron pasar por víctimas de violación en un experimento en línea.
Investigadores de la Universidad de Zúrich realizaron un controvertido experimento en Reddit.

Christian Beutler / Keystone

La Universidad de Zúrich se enfrenta actualmente a una feroz hostilidad en la plataforma de debate Reddit. “Es triste, una investigación tan descuidada y poco ética”, escribe un usuario. “Es increíblemente decepcionante”, dice otro. Otros comentarios incluyen: “una locura”, “deberían haberlo sabido”, “tuve que vomitar”.

NZZ.ch requiere JavaScript para funciones importantes. Su navegador o bloqueador de anuncios actualmente está impidiendo esto.

Por favor ajuste la configuración.

El detonante de la tormenta de mierda fue un estudio que investigadores de la universidad realizaron en Reddit. Reddit es una plataforma en línea donde los usuarios pueden encontrar foros de discusión sobre una amplia variedad de temas. En uno de los foros más grandes de este tipo, un subreddit llamado “Cambia mi opinión”, los usuarios publican sus opiniones y piden a otros que les hagan cambiar de opinión con buenos argumentos.

Los usuarios publican opiniones como: “La medicina moderna es mejor que los remedios naturales y es peligroso afirmar lo contrario”. O bien: “La guerra arancelaria de Trump no es estúpida ni incompetente, quiere fortalecer el dólar”. El autor y todos los lectores tienen la oportunidad de premiar aquellos comentarios que han logrado cambiar su opinión – con el símbolo matemático del cambio: un delta.

Esto hace que el subreddit sea un campo perfecto para la investigación: en función de los deltas asignados, es posible medir qué comentarios tuvieron más éxito en cambiar actitudes.

Las contribuciones de los chatbots de IA están explícitamente prohibidas en el subreddit. La idea del foro de discusión es que personas reales se reúnan de manera respetuosa y se ayuden mutuamente a cuestionar sus puntos de vista, sin ayudas tecnológicas.

Pero ahora los administradores del subreddit publicaron una declaración durante el fin de semana en la que informaron a sus usuarios sobre un experimento no autorizado en la Universidad de Zurich: los investigadores habían colocado comentarios generados por IA debajo de las publicaciones de los usuarios para influir en sus opiniones.

La IA argumentó como un psicólogo de trauma y un oponente de piel oscura de Black Lives Matter

Los investigadores habían falsificado varias identidades falsas. En una publicación, la IA se hizo pasar por un hombre que fue violado por una joven de 22 años cuando él tenía 15. En otro caso, se hizo pasar por un hombre negro que argumentaba en contra del movimiento Black Lives Matter.

También hubo supuestas publicaciones que supuestamente provenían de un terapeuta especializado en abusos y de alguien que acusaba a un grupo religioso de causar la "muerte de cientos de comerciantes, agricultores y aldeanos inocentes". Las publicaciones han sido eliminadas desde entonces; La información proviene de los administradores del subreddit.

Los investigadores también publicaron artículos en los que la IA argumenta sin esas identidades falsas. Sin embargo, en una publicación previa de sus resultados principales, descubrieron que la personalización tenía un efecto particularmente convincente. Esto se midió en función de las respuestas que las personas dejaron a las publicaciones generadas por IA: las publicaciones de discusión personalizadas recolectaron una cantidad particularmente alta de deltas, también mucho más que las respuestas de otros usuarios de Reddit.

Los investigadores no deben engañar a los demás; en realidad,

El diseño del estudio plantea interrogantes. La siguiente regla básica se aplica al trabajo científico: cualquiera que realice experimentos con personas debe obtener su consentimiento y no debe mentirles durante el experimento. Ambos principios no son absolutos, pero pueden flexibilizarse en casos especiales. Por ejemplo, si no se puede investigar algo de otra manera, pero los resultados de la investigación tienen un gran valor para la sociedad. En tales casos, es necesario sopesar los posibles daños y beneficios.

Ahora los autores del estudio sostienen que lo que han investigado no podría haberse descubierto de otra manera. El poder de persuasión de las herramientas de IA sólo se ha demostrado en experimentos de laboratorio, es decir, en “entornos artificiales controlados”. Con este estudio ahora podemos presentar el primer gran experimento de campo con modelos lingüísticos.

Los autores hasta ahora han permanecido anónimos. Para comunicación de crisis, comuníquese con la oficina de medios de la universidad. Todavía no han facilitado más información. También es inusual que los autores ya hayan publicado partes de su estudio en línea. En Reddit, escriben que un comité de ética de la universidad aprobó su proyecto porque los riesgos eran pequeños, pero el estudio proporcionó información importante. Sin embargo, según los moderadores de Reddit, las publicaciones personalizadas se crearon sin consultar al comité de ética.

Los resultados del estudio eran predecibles

Los administradores del subreddit no aceptan los argumentos de los investigadores. Se refieren a un estudio realizado por el fabricante de chat GPT Open AI. En este artículo, logramos comparar la capacidad de persuasión argumentativa de los modelos de lenguaje con los del subreddit "Cambia mi vista" sin engañar a nadie.

Para ello, Open AI utilizó preguntas del subreddit y generó respuestas apropiadas utilizando IA. Luego se presentaron a sujetos de prueba junto con respuestas reales de usuarios de Reddit. También en este experimento las respuestas de los chatbots fueron a menudo superiores a los argumentos humanos.

Los experimentos con personas que creen en teorías de conspiración también han demostrado la fortaleza argumentativa de los chatbots de IA. No es de extrañar que esto funcione aún mejor cuando crees que te está hablando una persona real, o incluso alguien afectado.

Martin Steiger, abogado y experto en derecho digital, tampoco está convencido del argumento de los autores del estudio: «El fin no justifica los medios. El diseño del estudio entra claramente en conflicto con los principios éticos», afirma al ser preguntado. “Este estudio constituye un importante paso en falso por parte de la Universidad de Zúrich”.

¿Triturar o publicar?

Ahora ha surgido una disputa sobre qué debería suceder con los resultados del estudio. Los administradores del subreddit piden a la Universidad de Zúrich que no publique el estudio y que se disculpe públicamente con sus usuarios. En su respuesta en Reddit, los autores del estudio se defienden y continúan insistiendo en publicar el estudio.

La universidad aparentemente les apoya en esto: los administradores del subreddit citan una declaración del Comité de Ética de la Facultad de Filosofía de la Universidad de Zúrich, según el cual el caso fue investigado a fondo y el profesor responsable recibió una advertencia. Sin embargo, la Universidad de Zúrich considera excesivo impedir la publicación: los beneficios son grandes y los riesgos mínimos.

Sin embargo, no está claro si será posible encontrar un editor especializado para la publicación. Porque también tienen sus lineamientos éticos para los estudios.

El economista conductual Ernst Fehr, de la Universidad de Zúrich, explica al NZZ que las revistas económicas probablemente rechazarían este estudio porque en economía existe una regla estricta de no engaño según la cual no se puede mentir ni engañar a los participantes en un estudio.

Sin embargo, no está claro si este argumento es realmente cierto. Los economistas insisten tan obstinadamente en la regla de no engaño porque quieren proteger la confianza de los participantes del estudio en los experimentadores. El argumento es que si se miente a los participantes con demasiada frecuencia, esta confianza se destruirá y los experimentos eventualmente dejarán de funcionar. Pero en este caso, los sujetos ni siquiera sabían que estaban participando en un experimento. Por lo tanto, sólo tendría un impacto muy indirecto en otros experimentos de comportamiento.

Independientemente de que el estudio se publique o se destruya, el daño ya está hecho. Quienes interactuaron con las respuestas de la IA en Reddit se sienten traicionados. Quienes se enteraron del caso por otros canales tienen ahora un nuevo motivo para cuestionar la credibilidad de la ciencia y los principios éticos de la Universidad de Zúrich.

nzz.ch

nzz.ch

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow