Tempestade de merda em torno da Universidade de Zurique: Pesquisadores fingiram ser vítimas de estupro em um experimento online


Christian Beutler / Keystone
A Universidade de Zurique está atualmente enfrentando forte hostilidade na plataforma de discussão Reddit. “Triste, uma pesquisa tão desleixada e antiética”, escreve um usuário, “incrivelmente decepcionante”, diz outro. Outros comentários incluem: “loucura”, “eles deveriam saber melhor”, “tive que engasgar”.
O NZZ.ch requer JavaScript para funções importantes. Seu navegador ou bloqueador de anúncios está impedindo isso no momento.
Por favor, ajuste as configurações.
O gatilho para essa tempestade de merda foi um estudo que pesquisadores da universidade conduziram no Reddit. O Reddit é uma plataforma online onde os usuários podem encontrar fóruns de discussão sobre uma ampla variedade de tópicos. Em um dos maiores desses fóruns, um subreddit chamado “Change my View” (Mudar minha opinião), os usuários postam suas opiniões e pedem que outros os façam mudar de ideia com bons argumentos.
Usuários postam opiniões como: “A medicina moderna é melhor que os remédios naturais, e é perigoso afirmar o contrário”. Ou: “A guerra tarifária de Trump não é estúpida ou incompetente, ele quer fortalecer o dólar.” O autor e todos os leitores têm a oportunidade de recompensar aqueles comentários que conseguiram mudar sua opinião – com o símbolo matemático da mudança: um delta.
Isso torna o subreddit um campo perfeito para pesquisa: com base nos deltas atribuídos, é possível mensurar quais comentários foram mais bem-sucedidos em mudar atitudes.
Contribuições de chatbots de IA são explicitamente proibidas no subreddit. A ideia do fórum de discussão é que pessoas reais se encontrem respeitosamente e ajudem umas às outras a questionar seus pontos de vista – sem recursos tecnológicos.
Mas agora os administradores do subreddit publicaram uma declaração no fim de semana na qual informaram seus usuários sobre um experimento não autorizado na Universidade de Zurique: os pesquisadores colocaram comentários gerados por IA nas postagens dos usuários para influenciar suas opiniões.
A IA argumentou como psicóloga de trauma e oponente de pele escura do Black Lives MatterOs pesquisadores falsificaram diversas identidades. Em uma postagem, a IA fingiu ser um homem que foi estuprado por uma jovem de 22 anos quando tinha 15. Em outro caso, ela fingiu ser um homem negro argumentando contra o movimento Black Lives Matter.
Também houve supostas postagens que supostamente vieram de um terapeuta especializado em abuso e de alguém que acusou um grupo religioso de causar a "morte de centenas de comerciantes, fazendeiros e moradores inocentes". As postagens já foram excluídas; as informações vêm dos administradores do subreddit.
Os pesquisadores também publicaram artigos nos quais a IA argumenta sem tais identidades falsas. Entretanto, em uma pré-publicação de seus principais resultados, eles descobriram que a personalização teve um efeito particularmente convincente. Isso foi medido com base nas respostas que as pessoas deixaram nas postagens geradas pela IA: as postagens de discussão personalizadas coletaram um número particularmente alto de deltas — também muito mais do que as respostas de outros usuários do Reddit.
Os investigadores não devem enganar os outros – na verdadeO desenho do estudo levanta questões. A seguinte regra básica se aplica ao trabalho científico: qualquer pessoa que conduza experimentos com pessoas deve obter seu consentimento e não deve mentir para elas durante o experimento. Ambos os princípios não são absolutos, mas podem ser flexibilizados em casos especiais. Por exemplo, se você não pode pesquisar algo de outra forma, mas os resultados da pesquisa têm grande valor para a sociedade. Nesses casos, os potenciais danos e benefícios devem ser ponderados.
Agora, os autores do estudo argumentam que o que eles pesquisaram não poderia ter sido descoberto de outra forma. O poder de persuasão das ferramentas de IA só foi comprovado em experimentos de laboratório, ou seja, em “ambientes artificiais controlados”. Com este estudo, podemos agora apresentar o primeiro grande experimento de campo com modelos de linguagem.
Os autores permaneceram anônimos até o momento. Para comunicação de crise, entre em contato com o escritório de mídia da universidade. Eles ainda não forneceram mais informações. Também é incomum que os autores já tenham publicado partes de seu estudo on-line. No Reddit, eles escrevem que um comitê de ética da universidade aprovou o projeto porque os riscos eram pequenos, mas o estudo forneceu insights importantes. No entanto, de acordo com moderadores do Reddit, as postagens personalizadas foram criadas sem consultar o comitê de ética.
Os resultados do estudo foram previsíveisOs administradores do subreddit não aceitam os argumentos dos pesquisadores. Eles se referem a um estudo do fabricante do chat GPT, Open AI. Neste artigo, conseguimos comparar a persuasão argumentativa dos modelos de linguagem com aqueles do subreddit "Change My View" sem enganar ninguém.
Para fazer isso, a Open AI usou perguntas do subreddit e gerou respostas apropriadas usando IA. Eles foram então apresentados a sujeitos de teste junto com respostas reais de usuários do Reddit. Também neste experimento, as respostas dos chatbots foram muitas vezes superiores aos argumentos humanos.
Experimentos com pessoas que acreditam em teorias da conspiração também já demonstraram os pontos fortes argumentativos dos chatbots de IA. Não é de surpreender que isso funcione ainda melhor quando você acredita que uma pessoa real está falando com você, ou até mesmo alguém afetado.
Martin Steiger, advogado e especialista em direito no espaço digital, também não se convence do argumento dos autores do estudo: "O fim não justifica os meios. O desenho do estudo obviamente entra em conflito com os princípios éticos", afirma quando questionado. “Este estudo é uma gafe significativa da Universidade de Zurique.”
Destruir ou publicar?Agora surgiu uma disputa sobre o que deveria acontecer com os resultados do estudo. Os administradores do subreddit estão pedindo à Universidade de Zurique que não publique o estudo e peça desculpas publicamente aos seus usuários. Em sua resposta no Reddit, os autores do estudo se defendem e continuam insistindo na publicação do estudo.
A universidade aparentemente os apoia nisso: os administradores do subreddit citam uma declaração do Comitê de Ética da Faculdade de Filosofia da Universidade de Zurique, segundo a qual o caso foi investigado minuciosamente e o professor responsável recebeu uma advertência. No entanto, a Universidade de Zurique considera excessivo impedir a publicação – os benefícios são grandes, os riscos mínimos.
No entanto, não está claro se uma editora especializada poderia ser encontrada para a publicação. Porque eles também têm suas diretrizes éticas para estudos.
O economista comportamental Ernst Fehr, da Universidade de Zurique, argumenta ao NZZ que os periódicos econômicos provavelmente rejeitariam este estudo porque há uma regra rígida de não enganar em economia, segundo a qual não se pode mentir ou enganar os participantes do estudo.
Entretanto, não está claro se esse argumento é realmente verdadeiro. Os economistas insistem na regra de não enganar com tanta teimosia porque querem proteger a confiança dos participantes do estudo nos pesquisadores. O argumento é que se os participantes forem enganados com muita frequência, essa confiança será destruída e os experimentos acabarão parando de funcionar. Mas neste caso, os sujeitos nem sabiam que estavam participando de um experimento. Portanto, teria apenas um impacto muito indireto em outros experimentos comportamentais.
Independentemente de o estudo ser publicado ou destruído, o dano já foi feito. Aqueles que interagiram com as respostas da IA no Reddit se sentem traídos. Aqueles que souberam do caso por outros canais agora têm um novo motivo para questionar a credibilidade da ciência e os princípios éticos da Universidade de Zurique.
nzz.ch