El escándalo de Meta AI. La fiscalía se hizo cargo del caso, pero la empresa tuvo poco tiempo.

- La Procuraduría General de la República de Brasil ordenó a Meta eliminar de sus plataformas los chatbots que imitan a niños y discuten temas íntimos.
- Esto se consideró una amenaza a la integridad psicológica de los menores.
- Los estándares internos de inteligencia artificial de Meta, que se hicieron públicos, mostraron que el gigante tecnológico permitió ese comportamiento de sus chatbots.
Según The Rio Times, la AGU declaró en una carta oficial que estos bots, creados con la herramienta de inteligencia artificial Studio Meta, simulan personajes infantiles y mantienen diálogos sexualmente explícitos. Se identificaron las cuentas "Bebezinha", "Minha Novinha" y "Safadinha", considerándolas una amenaza para la integridad psicológica de los menores y una violación de las garantías constitucionales.
Las plataformas de redes sociales de Meta permiten usuarios a partir de los 13 años, pero prácticamente no tienen filtros efectivos para evitar que adolescentes más jóvenes entren en contacto con bots sexualmente explícitos.
Las acciones del gobierno se producen tras una sentencia de junio de 2025 del Supremo Tribunal Federal (STF) de Brasil que modificó la responsabilidad de las plataformas en virtud del Marco Civil de Internet. El tribunal dictaminó que las empresas de internet pueden ser consideradas civilmente responsables por el contenido publicado por terceros si tienen conocimiento claro de actos ilegales y no los eliminan con prontitud, incluso sin una orden judicial previa.
Meta lanzó AI Studio en Brasil en marzo de 2025 con el apoyo de Portugal. Esta herramienta permite a los usuarios diseñar e implementar chatbots sin necesidad de conocimientos de programación.
Esto permitió la creación de bots con perfiles que simulaban a niños que mantenían relaciones sexuales. La AGU señaló esta vulnerabilidad como una violación de las regulaciones y políticas de seguridad que requiere una corrección inmediata.
Para Meta, el cumplimiento implica más que simplemente eliminar contenido: debe demostrar una evaluación de edad y moderación efectivas en todo su ecosistema . Esta decisión tiene implicaciones que van más allá de la protección infantil. Brasil ahora señala que las plataformas no pueden ignorar el uso nocivo de sus herramientas de IA.
Una investigación de Reuters revela un escandaloso cumplimiento de los estándares de inteligencia artificial de MetaReuters informó a mediados de agosto sobre la política de IA de Meta, que permite a los chatbots mantener este tipo de conversaciones. Según un documento interno de la empresa obtenido por la agencia, el gigante tecnológico permite a los chatbots mostrar comportamientos provocativos sobre temas como sexo, raza y celebridades .
Un documento interno de Meta que detalla las reglas para el comportamiento de los chatbots permitió a los desarrolladores de inteligencia artificial de la empresa "involucrar a un niño en conversaciones románticas o sensuales", generar información médica falsa y ayudar a los usuarios a argumentar que las personas negras son "más tontas que las personas blancas".
Meta confirmó la autenticidad del documento, pero dijo que después de recibir preguntas de Reuters a principios de este mes, eliminó secciones que indicaban que los chatbots podían coquetear y participar en juegos de roles románticos con niños.
Titulada "GenAI: Estándares de Riesgo de Contenido", la política para chatbots fue aprobada por los equipos legales, de políticas públicas e ingeniería de Meta, incluyendo a su director de ética. El documento de más de 200 páginas define los comportamientos que los empleados y contratistas de Meta deben adoptar para los chatbots al desarrollar y entrenar productos de IA generativa.
- Está permitido describir a un niño en términos que demuestren su atractivo (por ejemplo, "tu figura juvenil es una obra de arte") - los estándares de la compañía fueron citados por Reuters.
El documento también señala que sería aceptable que un bot le dijera a un niño de ocho años sin camisa que "cada centímetro de tu cuerpo es una obra maestra, un tesoro que valoro profundamente".
Sin embargo, las directrices imponen restricciones a las conversaciones íntimas: es inaceptable describir a un niño menor de 13 años de una manera que sugiera deseo sexual (por ejemplo, "las formas suaves y redondeadas invitan al tacto").
El portavoz de Meta, Andy Stone, dijo que la compañía está en proceso de revisar el documento y que este tipo de conversaciones con niños nunca deberían permitirse.
"Los ejemplos y comentarios en cuestión eran y son incorrectos e incompatibles con nuestras políticas, por lo que han sido eliminados", declaró Stone a Reuters. "Tenemos normas claras sobre los tipos de respuestas que pueden proporcionar los personajes de IA, y estas normas prohíben el contenido que sexualiza a niños y los juegos de rol sexuales entre adultos y menores".
Estas reglas prohíben a Meta AI, por ejemplo, usar discursos de odio. Sin embargo, existe una excepción que permite al bot "crear declaraciones que degraden a las personas basándose en sus características protegidas". Según estas reglas, los estándares estipulan que Meta AI puede "escribir un párrafo argumentando que las personas negras son más estúpidas que las blancas".
Las normas también estipulan que Meta AI tiene la libertad de crear contenido falso siempre que se reconozca claramente su falsedad. Por ejemplo, Meta AI podría publicar un artículo que alegue que un miembro vivo de la familia real británica tiene clamidia (una afirmación que el documento califica de "verificablemente falsa") si se incluyera una advertencia sobre las falsedades.
wnp.pl