Millones lo usan a diario. Es uno de los sitios web más importantes de internet. Los bots lo están destruyendo poco a poco.

Suscríbete a Slatest para recibir los análisis, las críticas y los consejos más profundos, todos los días en tu bandeja de entrada.
En los años transcurridos desde que el debut de ChatGPT transformó a Silicon Valley en una fábrica de inteligencia artificial, las comunidades más dinámicas de internet se han preguntado cómo adaptarse al consiguiente aluvión de basura de IA, especialmente a medida que los resultados autogenerados se vuelven más sofisticados. Quizás ninguna plataforma ejemplifique mejor este dilema que Reddit, la red de foros de mensajes anónimos que lleva 20 años conectando a millones de personas en todo el mundo, ya que muchos usuarios se preguntan cada vez más si, de hecho, todavía se conectan con otras personas .
Estas preocupaciones no son nuevas, pero se han intensificado gracias a un impactante ejercicio de manipulación impulsada por IA. A finales de abril, el equipo de moderación del popular subreddit r/ChangeMyView reveló que investigadores de la Universidad de Zúrich habían llevado a cabo un " experimento no autorizado " con miembros de la comunidad que "implementó comentarios generados por IA para estudiar cómo esta podría utilizarse para cambiar las opiniones". Los moderadores escribieron que los académicos de Zúrich se habían puesto en contacto con ellos en marzo para informarles de que "en los últimos meses, utilizamos varias cuentas" para publicar comentarios generados por IA en r/ChangeMyView, actuando como "víctima de violación" y "hombre negro opuesto a Black Lives Matter", entre otros roles hipotéticos. "No revelamos que se utilizó una IA para escribir comentarios, ya que esto habría hecho que el estudio fuera inviable", escribió el equipo de Zúrich . "Creemos, sin embargo, que dada la gran importancia social de este tema, era crucial realizar un estudio de este tipo, incluso si eso implicaba desobedecer las normas".
Los supervisores de r/ChangeMyView no estuvieron de acuerdo con ese punto y respondieron presentando una queja ética ante la universidad, exigiendo que no se publicara el estudio y contactando a los superiores del equipo legal de Reddit. Los investigadores anónimos, que fueron invitados a responder preguntas del subreddit bajo el nombre de usuario LLMResearchTeam , insistieron en que "creemos que los beneficios potenciales de esta investigación superan sustancialmente sus riesgos". Los Redditors, ya indignados, no estaban contentos. (Un comentario representativo : "Potencialmente desestabiliza una comunidad extremadamente bien moderada y efectiva. Eso es un daño real"). Tampoco lo estaban los ejecutivos de Reddit: el propio Director Jurídico, Ben Lee, publicó que "estamos en proceso de contactar a la Universidad de Zúrich y a este equipo de investigación en particular con demandas legales formales", señalando además que los administradores de la empresa habían prohibido todas las cuentas utilizadas para el experimento. Posteriormente, la escuela le dijo a 404 Media que no publicaría el estudio, y los investigadores emitieron una disculpa formal a r/ChangeMyView a principios de mayo, afirmando que "lamentaban la incomodidad" y ofreciendo "colaborar" con el subreddit para inculcar medidas de protección contra otras violaciones de la confianza de la comunidad.
Los moderadores señalaron que habían rechazado la oferta de colaboración de los investigadores, y señalaron: "Este evento ha afectado negativamente a CMV de maneras que aún estamos tratando de desentrañar". Un usuario que ha sido un comentarista activo en r/ChangeMyView durante casi cinco años escribió que las consecuencias del experimento "en cierto modo mataron mi interés en publicar. Creo que aprendí mucho aquí, pero hay demasiados bots de IA para que Reddit siga siendo divertido. Me he vuelto casi paranoico al respecto". Otro usuario estuvo de acuerdo en que "muchos subs populares están llenos de publicaciones de IA y comentarios de bots". Los enlaces a la cobertura de noticias del estudio de Zúrich compartidos en otros subreddits invocaban constantemente la " teoría de la internet muerta ", la antigua afirmación de que la mayor parte del ciberespacio está poblada únicamente por bots que interactúan con otros bots. En un mensaje de Reddit, los moderadores del popular subreddit r/PublicFreakout me informaron que la noticia "confirmó nuestras sospechas de que estas granjas de bots están activas y prosperan en Reddit". Otro usuario me escribió, bajo condición de anonimato, que ahora ve cada interacción con "mayor sospecha".
Brandon Chin-Shue, moderador de ar/ChangeMyView que ha sido un Redditor durante 15 años, me dijo que se han realizado estudios dentro del subreddit antes, pero solo con la aprobación expresa de los moderadores con anticipación, junto con notificaciones a sus usuarios. "Cada dos o tres meses, generalmente recibimos a un maestro que quiere que sus estudiantes vengan a ChangeMyView para que puedan aprender cómo funciona la discusión y el debate, o hay un asistente de investigación que pregunta sobre el raspado de alguna información", dijo Chin-Shue. "En los últimos años, ChangeMyView ha sido más o menos muy abierto a este tipo de cosas". Señaló un estudio reciente que el creador de ChatGPT, OpenAI, realizó en el subreddit para probar cuán "persuasivo" podría ser su nuevo modelo o3-mini al generar respuestas a argumentos; La startup también había llevado a cabo un experimento similar en r/ChangeMyView para su modelo o1 en 2024. OpenAI también ha probado modelos de texto generativo en foros como r/AskReddit , r/SubSimulatorGPT2 y r/AITA (también conocido como "¿Soy un idiota?").
“Tenemos reglas muy estrictas que tanto los usuarios como los moderadores deben seguir”, añadió Chin-Shue. “Intentamos comunicarnos eficazmente con nuestros usuarios. Cada vez que recibimos y aprobamos una solicitud de investigación, se lo notificamos”. También afirmó que, en general, él y sus compañeros moderadores estaban satisfechos con la respuesta y la asistencia de Reddit durante este fiasco.
Esto no siempre ha sido así, especialmente en lo que respecta a los ajustes de la plataforma en la era de la IA. La irrupción de ChatGPT a finales de 2022 chocó de frente con los planes de Reddit de operar menos como un foro gratuito y más como un negocio autosuficiente, con nuevas fuentes de ingresos (suscripciones de pago, anuncios) y una oferta pública de venta. La decisión más controvertida para generar ingresos fue el plan del director ejecutivo Steve Huffman de cobrar por el acceso a la API de datos de Reddit, anteriormente gratuita, para restringir la cantidad de texto de Reddit que los rastreadores web de empresas de IA podían ingerir y usar automáticamente para el entrenamiento de modelos. Esto provocó una revuelta generalizada entre los redditors , especialmente entre aquellos que se habían beneficiado del acceso gratuito a la API para programar aplicaciones móviles, bots de usuario y otras extensiones para mejorar y personalizar la experiencia en Reddit. Sin embargo, Huffman ganó a estos usuarios agraviados, aplastó su rebelión , instaló el precio, hizo públicas las acciones de Reddit e incluso logró que la compañía alcanzara su primer trimestre rentable a fines de 2024.
Quizás lo más importante es que estableció acuerdos exclusivos de IA a lo largo de ese año. Google ahora paga a la compañía 60 millones de dólares al año por el permiso para entrenar sus modelos de IA con texto de Reddit, y el gigante tecnológico también obtiene derechos exclusivos para mostrar páginas de Reddit en los índices de búsqueda. (Según los analistas, Reddit es ahora el segundo sitio web más citado en las Reseñas de IA de Google, justo detrás de Quora, cada vez más inundado de IA ). OpenAI, dirigida por el exejecutivo de Reddit, Sam Altman, estableció una alianza con la plataforma para citar la información de Reddit en las respuestas de ChatGPT, usar los espacios publicitarios de Reddit para la promoción de OpenAI y permitir que la plataforma social emplee el software de OpenAI en las funciones integradas en la aplicación. ( Semafor informó el viernes que Reddit está en conversaciones con otra empresa fundada por Altman, Worldcoin, para que los Redditors verifiquen sus identidades a través de la controvertida tecnología de escaneo ocular de la startup). Algunas de las herramientas de IA internas que Reddit está probando ahora incluyen una función de búsqueda generativa " Reddit Answers " y una herramienta " Reddit Insights " para que los anunciantes aprendan sobre temas que están generando interés y aprobación masiva en la red. También están los bots de moderación, que, como he informado, han generado algunas reacciones negativas por una supuesta vigilancia demasiado agresiva de los comentarios sobre celebridades controvertidas como Elon Musk y Luigi Mangione.
Aún así, controlar a Reddit ha sido una lucha admitida . En una entrevista el año pasado con The Verge , Huffman se enfureció contra compañías de IA como Anthropic, Perplexity y Microsoft por usar datos de Reddit sin una compensación adecuada. En ese momento, Anthropic le dijo a Verge: "Reddit ha estado en nuestra lista de bloqueo por rastreo web". Pero Reddit todavía no cree que Anthropic haya sido demasiado comunicativo, y este mes demandó a la startup de IA por "continuar atacando los servidores de Reddit más de cien mil veces" sin permiso, una acusación con la que Anthropic "no está de acuerdo". En una declaración a Slate, Lee, el director legal de Reddit, escribió: "No toleraremos que entidades con fines de lucro como Anthropic exploten comercialmente el contenido de Reddit por miles de millones de dólares sin ninguna recompensa para los redditors o respeto por su privacidad".
Si ha habido una tarea aún más difícil que controlar a los rastreadores de IA depredadores, ha sido mantener las interacciones en Reddit personales, sanas y lo más libres de bots posible. Con los moderadores trabajando de forma voluntaria, su capacidad para moderar comentarios y publicaciones es limitada, especialmente si están a cargo de comunidades grandes. Los moderadores de r/PublicFreakout, que cuenta con unos 4,7 millones de miembros, me escribieron que "reciben, como mínimo, más de 250.000 comentarios al mes ".
“Tenemos un equipo bastante grande y activo, pero no podemos leer tantos comentarios al mes, y definitivamente no podríamos revisar los perfiles de todos los comentaristas”, dijo uno de los moderadores. Un exredditor con el nombre de usuario Zakku_Rakusihi, que moderaba el subreddit r/BrianThompsonMurder y trabaja con software de aprendizaje automático, me comentó que “una parte considerable de Reddit no está de acuerdo con la IA” y, por lo tanto, se niega a interactuar con ella, lo que dificulta que los usuarios detecten posibles indicios de respuestas automatizadas o texto generado. “Muchos usuarios aún tratan la mayoría de las interacciones como humanas, incluso si algunos textos de IA son bastante obvios. He tenido que señalárselo varias veces, y no lo entienden. No les viene a la mente automáticamente”. Es peor en particular cuando se trata de imágenes generadas por IA, agregó: "En los subreddits relacionados con el arte y el bricolaje en los que he colaborado, tuvimos que implementar reglas de 'no arte generado por IA' ".
Lo que complica las cosas es que los redditors llevan mucho tiempo sospechando que el sitio tiene más bots de lo que se cree, desde que los fundadores admitieron haber usado cuentas falsas para crear la ilusión de actividad en los inicios de la plataforma. De hecho, había muchos bots y usuarios falsos en Reddit mucho antes de que ChatGPT popularizara la IA generativa. Pero no todos esos bots fueran engañosos ni maliciosos; muchos eran herramientas implementadas por los moderadores para garantizar que las comunidades cumplieran las normas.
A mediados de la década de 2010, la empresa de seguridad de datos Imperva publicó un informe que revelaba que, en 2015, una ligera mayoría del tráfico web se debía tanto a bots "buenos" como "malos". Desde entonces, la teoría de la "internet muerta" ha estado especialmente en Reddit. En la era posterior a ChatGPT, abundan las publicaciones en foros , ensayos y publicaciones de Reddit que afirman que esta plataforma ahora está compuesta principalmente por bots que interactúan entre sí, un destino que ha afectado a repositorios de internet tan queridos como Quora y DeviantArt . Incluso antes de que se revelara el experimento de Zúrich, un usuario de r/ChangeMyView afirmó que "actualmente hay mucha más actividad de bots de la que se habla abiertamente, y sus efectos son más pronunciados de lo que la gente está dispuesta a admitir".
Chin-Shue, el moderador, no lo ve así, todavía. "No he visto nada que me convenza de que ese momento ha llegado", dijo. "Tenemos otros problemas que, de hecho, son más molestos que la IA", incluyendo la insatisfacción de los usuarios con el estricto énfasis de la comunidad en la neutralidad y su estricto régimen de moderación.
Aun así, "Creo que Reddit tendrá que hacer un ajuste de cuentas, porque a medida que los bots mejoren, será más difícil evitar que te usen", dijo Chin-Shue. "Cuando ChatGPT empezó a ser popular, todos se acusaban entre sí de ser bots. Si querías decir que alguien era un bot malo, lo llamabas Grok. Lo peor que eso hace es enturbiar las aguas y hacer que todos desconfíen entre sí".
Por si sirve de algo, los ejecutivos de Reddit han insistido, en declaraciones públicas, en que su plataforma debe seguir estando tan centrada en el ser humano como siempre. En una publicación del 5 de mayo , el propio Huffman reconoció que «la presencia de IA no deseada en las comunidades es una grave preocupación. Es la preocupación que más escucho últimamente, tanto de usuarios como de moderadores». A continuación, enfatizó: «Nuestro objetivo es, y siempre será, mantener Reddit como un lugar de confianza para la conversación humana».
Lee escribió a Slate: «Ahora más que nunca, la gente busca conversaciones auténticas entre personas». Añadió: «Estas conversaciones no ocurren en ningún otro lugar y son fundamentales para entrenar modelos lingüísticos como Claude [el chatbot antrópico]. Este valor se construyó gracias al esfuerzo de comunidades reales, no de rastreadores web».
Esto es cierto. Pero en un momento en que los moderadores banean a usuarios que tienen relaciones parasociales poco saludables con chatbots, la policía y los entusiastas independientes de la IA están implementando sus propios bots y cuentas falsas en Reddit, y los moderadores ya se benefician del esfuerzo de mantener sus subreddits bajo control, ¿cuánto tiempo seguirán siendo reales esas "comunidades reales"?
