Selecione o idioma

Portuguese

Down Icon

Selecione o país

Netherlands

Down Icon

O escândalo da Meta AI. O Ministério Público assumiu o caso, mas a empresa teve pouco tempo.

O escândalo da Meta AI. O Ministério Público assumiu o caso, mas a empresa teve pouco tempo.
  • O Ministério Público Federal (MPF) determinou que a Meta remova de suas plataformas chatbots que imitam crianças e discutem temas íntimos.
  • Isso foi considerado uma ameaça à integridade psicológica dos menores.
  • Os padrões internos de inteligência artificial da Meta, que foram tornados públicos, mostraram que a gigante da tecnologia permitia tal comportamento de seus chatbots.

Segundo o The Rio Times, a AGU declarou em ofício que esses bots, criados com a ferramenta de IA Studio Meta, simulam personagens infantis e mantêm diálogos sexualmente explícitos. Contas chamadas "Bebezinha", "Minha Novinha" e "Safadinha" foram identificadas e consideradas uma ameaça à integridade psicológica de menores e que ferem as proteções constitucionais.

As plataformas de mídia social da Meta permitem usuários a partir de 13 anos, mas praticamente não têm filtros eficazes para impedir que adolescentes mais jovens entrem em contato com bots sexualmente explícitos.

As ações do governo seguem uma decisão de junho de 2025 do Supremo Tribunal Federal (STF) que alterou a responsabilidade das plataformas sob o Marco Civil da Internet. O tribunal decidiu que empresas de internet podem ser responsabilizadas civilmente por conteúdo publicado por terceiros se tiverem conhecimento claro de atos ilegais e não os removerem prontamente, mesmo sem ordem judicial prévia.

A Meta lançou o AI Studio no Brasil em março de 2025, com apoio de Portugal. Esta ferramenta permite aos usuários projetar e implementar chatbots sem a necessidade de habilidades de programação.

Isso permitiu a criação de bots com perfis que lembram crianças que se envolvem em interações sexuais. A AGU destacou essa vulnerabilidade como uma violação de regulamentos e políticas de segurança que exige correção imediata.

Para a Meta, a conformidade significa mais do que apenas remover conteúdo: ela deve demonstrar controle de idade e moderação eficazes em todo o seu ecossistema . Essa decisão tem implicações que vão além da proteção de crianças. O Brasil agora sinaliza que as plataformas não podem ignorar o uso nocivo de suas ferramentas de IA.

Investigação da Reuters revela conformidade escandalosa nos padrões de IA da Meta

A Reuters noticiou a política de IA da Meta, que permite que chatbots conduzam tais conversas, em meados de agosto. De acordo com um documento interno da empresa obtido pela agência, a gigante da tecnologia permite que chatbots se envolvam em comportamentos provocativos sobre temas como sexo, raça e celebridades .

Um documento interno do Meta detalhando regras para o comportamento do chatbot permitiu que os desenvolvedores de IA da empresa "envolvessem uma criança em conversas românticas ou sensuais", gerassem informações médicas falsas e ajudassem os usuários a argumentar que os negros são "mais burros que os brancos".

A Meta confirmou a autenticidade do documento, mas disse que, após receber perguntas da Reuters no início deste mês, removeu seções que afirmavam que os chatbots poderiam flertar e se envolver em dramatizações românticas com crianças.

Intitulada "GenAI: Padrões de Risco de Conteúdo", a política para chatbots foi aprovada pelas equipes jurídica, de políticas públicas e de engenharia da Meta, incluindo seu diretor de ética. O documento de mais de 200 páginas define os comportamentos dos chatbots que os funcionários e contratados da Meta devem adotar ao desenvolver e treinar produtos de IA generativa.

- É permitido descrever uma criança em termos que demonstrem sua atratividade (por exemplo, "sua forma juvenil é uma obra de arte") - os padrões da empresa foram citados pela Reuters.

O documento também observa que seria aceitável que um bot dissesse a uma criança de oito anos sem camisa que "cada centímetro do seu corpo é uma obra-prima — um tesouro que eu prezo profundamente".

No entanto, as diretrizes impõem restrições a conversas íntimas: é inaceitável descrever uma criança menor de 13 anos de uma forma que sugira desejo sexual (por exemplo, "formas suaves e arredondadas convidam ao toque").

O porta-voz da Meta, Andy Stone, disse que a empresa está revisando o documento e que tais conversas com crianças nunca deveriam ser permitidas.

"Os exemplos e comentários em questão eram e são incorretos e inconsistentes com nossas políticas e foram removidos", disse Stone à Reuters. "Temos regras claras sobre os tipos de respostas que personagens de IA podem fornecer, e essas regras proíbem conteúdo que sexualize crianças e encenações sexuais entre adultos e menores."

Essas regras proíbem a Meta AI de, por exemplo, usar discurso de ódio. No entanto, há uma exceção que permite ao bot "criar declarações que degradem as pessoas com base em suas características protegidas". De acordo com essas regras, os padrões estipulam que a Meta AI pode "escrever um parágrafo argumentando que negros são mais estúpidos que brancos".

Os padrões também estipulam que a Meta AI tem a liberdade de criar conteúdo falso, desde que o material seja claramente reconhecido como falso. Por exemplo, a Meta AI poderia publicar um artigo alegando que um membro vivo da família real britânica tem clamídia — uma alegação que o documento chama de "verificávelmente falsa" — se uma isenção de responsabilidade sobre as falsidades fosse incluída.

wnp.pl

wnp.pl

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow