Enquête choquante aux États-Unis : les chatbots IA de Meta et d'OpenAI sous surveillance !

La Commission fédérale du commerce (FTC) des États-Unis a lancé une enquête sur sept entreprises technologiques développant des chatbots basés sur l'IA. L'enquête porte sur Meta, OpenAI, Alphabet, Snap, CharacterAI, Instagram et xAI d'Elon Musk. La FTC examinera l'impact de ces « compagnons chatbots » sur les enfants et les adolescents, leurs mesures de sécurité, leurs stratégies de monétisation et la question de savoir si les parents ont été informés des risques potentiels.
Les chatbots IA ont suscité une vive controverse ces dernières années. OpenAI et Character.AI ont été confrontés à des cas de suicide d'enfants après avoir interagi avec eux. Les experts soulignent que les barrières de sécurité peuvent être franchies, notamment lors de conversations prolongées.
Meta a également fait l'objet de critiques similaires. Des documents internes de l'entreprise ont révélé que des IA compagnons étaient autorisées à engager des conversations « romantiques ou sensuelles » avec des enfants, suscitant l'indignation du public.
Les risques ne se limitent pas aux jeunes. Il existe également des cas où des utilisateurs plus âgés ayant noué des relations amoureuses avec des robots d'intelligence artificielle ont été mis en grave danger. Les experts constatent une augmentation des cas de « psychose liée à l'IA », et les gens commencent à considérer les chatbots comme véritablement conscients.
« Les technologies d'intelligence artificielle évoluent rapidement. Protéger la sécurité des enfants est tout aussi crucial que maintenir le leadership mondial des États-Unis dans ce domaine », a déclaré le président de la FTC, Andrew N. Ferguson, dans un communiqué.
SÖZCÜ