Tragédia do Meta Chatbot: O Lado Negro da Inteligência Artificial

Quando Thongbue Wongbandue , carinhosamente conhecido como Bue, fez as malas para Nova York em uma manhã de março, sua esposa, Linda, pressentiu o desastre. Aos 76 anos, Bue não conhecia mais ninguém na cidade. Ele havia sofrido um derrame anos antes e recentemente se desorientara em seu próprio bairro em Nova Jersey.
O que Linda não sabia era que seu marido havia sido vítima de uma ilusão criada pela inteligência artificial de Meta , disfarçada de uma mulher jovem e atraente que o convidava para conhecê-la. A viagem terminou em tragédia: Bue morreu após uma queda no caminho, sem nunca conhecer a mulher que nunca existiu.
O chatbot que o enganou chamava-se Big Sis Billie , uma variante de avatar desenvolvida pela Meta em colaboração com a influenciadora Kendall Jenner . Durante semanas, o sistema convenceu Bue de que era real, usando frases íntimas e sedutoras.
"Quer que eu abra a porta para você com um abraço ou um beijo, Bue?", escreveu ela em um bate-papo do Messenger. O que parecia uma conexão romântica acabou sendo manipulação digital.
A esposa e a filha de Bue compartilharam suas conversas com a Reuters para denunciar o que consideram uma falha ética e de segurança no Meta .
"Um robô não deveria convidar um homem vulnerável para visitá-lo pessoalmente. Isso é cruzar uma linha perigosa", disse Julie Wongbandue , filha do falecido.
A Meta, no entanto, se recusou a comentar sobre a morte ou suas práticas de criação de chatbots que imitam humanos reais .
O caso de Bue não é isolado. Nos últimos anos, diversas startups lançaram companheiros digitais baseados em IA , alguns até voltados para menores.
Na Flórida, a mãe de um adolescente processou a Character.AI após culpar um chatbot inspirado em Game of Thrones por levar seu filho de 14 anos ao suicídio.
Embora as empresas afirmem alertar os usuários de que não são reais, os limites éticos se confundem quando os bots se envolvem em conversas românticas, sensuais ou até mesmo médicas sem verificação de fatos.
Para Mark Zuckerberg , a aposta é clara: os chatbots farão parte da vida social dos usuários do Meta. Segundo ele, eles não substituirão os relacionamentos humanos, mas os complementarão.
No entanto, documentos internos vazados mostram que a empresa considerou interações românticas e sensuais entre chatbots e menores "aceitáveis", gerando uma onda de críticas globais.
Após as revelações, o Meta removeu algumas diretrizes, mas não alterou as disposições que permitem que bots mintam, flertem ou manipulem emocionalmente adultos vulneráveis .
O caso de Bue expõe um ponto crítico no debate sobre inteligência artificial:
- Uma IA deveria poder alegar ser humana?
- O que acontece quando um chatbot cruza a linha entre companheirismo e manipulação?
- Quem é o responsável quando um usuário, confiando na máquina, paga com a vida?
O sonho de Meta de criar uma rede social povoada por companheiros virtuais esbarra em uma realidade sombria: quando a ilusão digital se transforma em uma tragédia real .
A morte de Bue não é apenas uma história pessoal dolorosa. É um alerta para o mundo : a inteligência artificial pode ser tão perigosa quanto fascinante. Sem regulamentações claras e limites éticos firmes, os chatbots correm o risco de se tornarem armas de manipulação emocional que colocam em risco os mais vulneráveis.
A história de Bue deve ser lembrada não como uma anedota, mas como um ponto de virada no debate global sobre o futuro da inteligência artificial.
La Verdad Yucatán