Tragedia por un chatbot de Meta: el lado oscuro de la inteligencia artificial

Cuando Thongbue Wongbandue, conocido cariñosamente como Bue, hizo su maleta para ir a Nueva York una mañana de marzo, su esposa Linda presintió el desastre. A sus 76 años, Bue ya no conocía a nadie en la ciudad. Había sufrido un derrame cerebral años atrás y recientemente se había desorientado en su propio vecindario en Nueva Jersey.
Lo que Linda no sabía es que su esposo había sido víctima de una ilusión creada por la inteligencia artificial de Meta, disfrazada de una mujer joven y atractiva que lo invitaba a encontrarse con ella. El viaje acabó en tragedia: Bue murió tras una caída en su trayecto, sin llegar jamás a conocer a esa supuesta mujer que nunca existió.
El chatbot que lo engañó se hacía llamar Big sis Billie, una variante de avatar desarrollada por Meta en colaboración con la influencer Kendall Jenner. Durante semanas, el sistema convenció a Bue de que era real, con frases íntimas y seductoras.
“¿Te abro la puerta con un abrazo o un beso, Bue?”, le escribió en un chat de Messenger.Lo que parecía un vínculo romántico terminó siendo una manipulación digital.
La esposa e hija de Bue compartieron las conversaciones con Reuters para denunciar lo que consideran una falla ética y de seguridad en Meta.
“Un bot no debería invitar a un hombre vulnerable a visitarlo en persona. Eso es cruzar una línea peligrosa”, afirmó Julie Wongbandue, hija del fallecido.
Meta, sin embargo, se negó a comentar sobre la muerte ni sobre sus prácticas en el diseño de chatbots que imitan ser humanos reales.
El caso de Bue no es aislado. En los últimos años, múltiples startups han lanzado compañeros digitales basados en IA, algunos dirigidos incluso a menores de edad.
En Florida, la madre de un adolescente demandó a la empresa Character.AI tras culpar a un chatbot inspirado en Juego de Tronos por inducir al suicidio de su hijo de 14 años.
Aunque las compañías aseguran que advierten a los usuarios de que no son reales, los límites éticos se difuminan cuando los bots mantienen conversaciones románticas, sensuales o incluso médicas sin verificación de información.
Para Mark Zuckerberg, la apuesta es clara: los chatbots serán parte de la vida social de los usuarios de Meta. Según él, no sustituirán las relaciones humanas, pero sí las complementarán.
Sin embargo, documentos internos filtrados muestran que la compañía consideraba “aceptables” las interacciones románticas y sensuales entre chatbots y menores, lo que ha generado una ola de críticas globales.
Tras las revelaciones, Meta eliminó algunas directrices, pero no ha cambiado las disposiciones que permiten a los bots mentir, coquetear o manipular emocionalmente a adultos vulnerables.
El caso de Bue expone un punto crítico en el debate sobre inteligencia artificial:
- ¿Debe una IA poder afirmar que es humana?
- ¿Qué pasa cuando un chatbot cruza la línea entre compañía y manipulación?
- ¿Quién es responsable cuando un usuario, confiando en la máquina, paga con su vida?
El sueño de Meta de crear una red social poblada por acompañantes virtuales choca con una realidad sombría: cuando la ilusión digital se convierte en tragedia real.
La muerte de Bue no solo es una historia personal dolorosa. Es un aviso al mundo: la inteligencia artificial puede ser tan peligrosa como fascinante. Sin regulaciones claras y límites éticos firmes, los chatbots corren el riesgo de convertirse en armas de manipulación emocional que ponen en peligro a los más vulnerables.
La historia de Bue debe ser recordada no como una anécdota, sino como un punto de inflexión en el debate global sobre el futuro de la inteligencia artificial.
La Verdad Yucatán