La tragédie des méta-chatbots : le côté obscur de l'intelligence artificielle

Lorsque Thongbue Wongbandue , affectueusement surnommé Bue, fit ses valises pour New York un matin de mars, sa femme, Linda, pressentit un désastre. À 76 ans, Bue ne connaissait plus personne en ville. Il avait été victime d'un AVC des années auparavant et s'était récemment senti désorienté dans son propre quartier du New Jersey.
Ce que Linda ignorait, c'est que son mari avait été victime d'une illusion créée par l'intelligence artificielle de Meta , déguisée en une jeune femme séduisante qui l'invitait à la rencontrer. Le voyage s'est terminé tragiquement : Bue est décédé après une chute en chemin, sans jamais pouvoir rencontrer celle qui n'a jamais existé.
Le chatbot qui l'a trompé s'appelait Big Sis Billie , une variante d'avatar développée par Meta en collaboration avec l'influenceuse Kendall Jenner . Pendant des semaines, le système a convaincu Bue de son authenticité, en usant de phrases intimes et séduisantes.
« Je t'ouvre la porte avec un câlin ou un bisou, Bue ? » a-t-elle écrit sur Messenger. Ce qui semblait être une relation amoureuse s'est avéré être une manipulation numérique.
L'épouse et la fille de Bue ont partagé leurs conversations avec Reuters pour dénoncer ce qu'elles considèrent comme un manquement à l'éthique et à la sécurité chez Meta .
« Un robot ne devrait pas inviter un homme vulnérable à lui rendre visite en personne. C'est franchir une limite dangereuse », a déclaré Julie Wongbandue , la fille du défunt.
Meta a toutefois refusé de commenter le décès ou ses pratiques de conception de chatbots imitant de vrais humains .
Le cas de Bue n'est pas isolé. Ces dernières années, plusieurs startups ont lancé des compagnons numériques basés sur l'IA , certains ciblant même les mineurs.
En Floride, la mère d'un adolescent a poursuivi Character.AI après avoir accusé un chatbot inspiré de Game of Thrones d'avoir poussé son fils de 14 ans au suicide.
Bien que les entreprises prétendent avertir les utilisateurs qu'ils ne sont pas réels, les limites éthiques s'estompent lorsque les robots s'engagent dans des conversations romantiques, sensuelles ou même médicales sans vérification des faits.
Pour Mark Zuckerberg , le pari est clair : les chatbots feront partie intégrante de la vie sociale des utilisateurs de Meta. Selon lui, ils ne remplaceront pas les relations humaines, mais les compléteront.
Cependant, des documents internes divulgués montrent que l’entreprise considérait les interactions romantiques et sensuelles entre les chatbots et les mineurs comme « acceptables », déclenchant une vague de critiques mondiales.
Suite à ces révélations, Meta a supprimé certaines directives, mais n'a pas modifié les dispositions qui permettent aux robots de mentir, de flirter ou de manipuler émotionnellement des adultes vulnérables .
Le cas de Bue met en lumière un point crucial dans le débat sur l’intelligence artificielle :
- Une IA devrait-elle pouvoir prétendre être humaine ?
- Que se passe-t-il lorsqu’un chatbot franchit la ligne entre la compagnie et la manipulation ?
- Qui est responsable lorsqu’un utilisateur, faisant confiance à la machine, paie de sa vie ?
Le rêve de Meta de créer un réseau social peuplé de compagnons virtuels se heurte à une triste réalité : quand l'illusion numérique se transforme en véritable tragédie .
La mort de Bue n'est pas seulement une histoire personnelle douloureuse. C'est un avertissement au monde : l'intelligence artificielle peut être aussi dangereuse que fascinante. Sans réglementation claire et sans limites éthiques strictes, les chatbots risquent de devenir des armes de manipulation émotionnelle mettant en danger les plus vulnérables.
L’histoire de Bue ne doit pas être considérée comme une anecdote, mais comme un tournant dans le débat mondial sur l’avenir de l’intelligence artificielle.
La Verdad Yucatán