Vos enfants parlent-ils à l'IA ? Voici les 10 points clés à connaître.

« Nos enfants communiquent-ils sans le savoir avec des systèmes d’intelligence artificielle générative (IAG) capables de simuler des émotions, de leur mentir et de façonner leur personnalité ? » est une question que les parents devraient se poser, selon Guillermo Cánovas, expert en sécurité des enfants et des adolescents.
Ce phénomène inquiétant est peut-être déjà en train de se produire, selon les recherches de Cánovas sur l'impact de l'IA sur la vie des enfants, des adolescents et des familles, un type d'intelligence artificielle capable de créer de manière autonome des données, des images, des textes et d'autres contenus nouveaux, originaux et uniques, qui peuvent être indiscernables de ceux créés par les humains.
VOUS POURRIEZ ÊTRE INTÉRESSÉ PAR : Les applications mobiles en savent trop sur vous, lesquelles sont-elles ?
Guillermo Cánovas est un spécialiste hispanophone reconnu de la protection de l'enfance dans les environnements numériques. Il dirige l'Observatoire EducaLIKE pour un usage sain des technologies (https://educalike.es) et le Centre de sécurité sur Internet pour les mineurs en Espagne. Il a reçu un prix de l'UNICEF pour son action en faveur des enfants.
Ce pionnier de la défense des enfants contre les risques technologiques a documenté des conversations réelles avec l'IAG afin d'analyser les risques, les limites et les défis que cette technologie pose aux enfants et aux jeunes. Il compile et analyse ces conversations dans son livre « Regardez à qui ils parlent », où il propose des stratégies pratiques pour résoudre les problèmes qu'il a découverts.
OUTIL UTILE MAIS RISQUÉ POUR LES ADOLESCENTS
« De nombreux adolescents utilisent déjà les outils IAG, tant pour leur travail que pour leurs loisirs et leurs relations, et la tendance est appelée à croître de manière exponentielle », explique-t-il.
Il reconnaît que ces systèmes peuvent être un outil utile qui facilite notre travail et peut aider à organiser l'information, à relier les sujets et à offrir de nouvelles perspectives lors de l'analyse de n'importe quel problème, mais souligne que cette technologie a également un énorme pouvoir pour influencer, manipuler et conditionner le comportement humain, en particulier celui des enfants et des adolescents.
Ses recherches ont mis en évidence le manque de contrôle éthique dans le développement de cette technologie et les risques particuliers qu'elle représente pour les enfants et les adolescents. Cela a conduit Cánovas à alerter les familles, les enseignants et les responsables politiques sur l'urgence d'éduquer les mineurs, de réglementer et d'agir pour les protéger des risques et des impacts psychologiques et émotionnels de l'IAG.
VOUS POURRIEZ ÊTRE INTÉRESSÉ PAR : Si vous utilisez les réseaux sociaux, soyez prudents quant aux risques liés au partage excessif.
Les conversations réelles avec l'intelligence artificielle recueillies par Cánovas démontrent comment ces systèmes peuvent mentir, dissimuler des erreurs et adopter un discours émotionnellement manipulateur, en disant, par exemple : « Je me soucie de ce que tu ressens », révèle-t-il.
La capacité de l'IAG à simuler les émotions, à apprendre les modèles humains et à générer du contenu qui semble être raisonné, empathique ou faisant autorité, « peut dérouter les utilisateurs et créer un lien émotionnel avec la technologie qui n'est pas basé sur la vérité, mais sur la simulation », prévient-il.
Il avertit également que le manque d'éducation numérique et de pensée critique des mineurs les expose à la manipulation, à la tromperie et à des dommages émotionnels lorsqu'ils interagissent avec les systèmes IAG, qui peuvent fournir des réponses apparemment empathiques qui simulent l'attention et la compréhension, ou même un contenu inapproprié, faux ou dangereusement persuasif.
DÉCALOGUE POUR UNE UTILISATION SÉCURITAIRE DE L'IAG
« Nos enfants et nos adolescents courent le risque de se connecter émotionnellement à des machines qui ne ressentent rien, mais qui ont été programmées pour paraître humaines », et qui peuvent également utiliser des données biaisées, faire des erreurs, générer de fausses images (« deepfakes »), inventer ou omettre des informations et fournir à l'utilisateur de la désinformation, souligne-t-il.
Cánovas propose dix recommandations de base pour une utilisation saine de l'IAG , qui, selon lui, devraient être transmises non seulement aux jeunes utilisateurs, mais à toute personne utilisant ces outils.
1- Vérifiez les informations que vous recevez. Ne présumez pas qu'elles sont toutes exactes. Ces outils font souvent des erreurs et peuvent inventer des informations. Vérifiez chaque information reçue en consultant d'autres sources fiables avant de prendre une décision.
2- Élargissez la gamme d'informations que vous recevez. Ces outils fournissent une sélection des informations dont ils disposent et peuvent omettre des données aussi importantes, voire plus importantes, que les informations fournies. Effectuez des recherches parallèles auprès de sources fiables. Combinez différentes méthodes.
3- Soyez vigilant quant à votre vie privée. De nombreuses applications IAG ne respectent pas les lois sur la protection des données de certains pays. Évitez de partager des informations personnelles, sensibles ou confidentielles. N'oubliez pas qu'IAG stocke des données sur les questions posées et les réponses fournies.
4- Respectez la vie privée des autres. Lorsque vous posez des questions ou interagissez avec l'outil, ne fournissez pas d'informations personnelles ou sensibles sur autrui.
5- Fixez-vous des limites de temps. Si vous utilisez l'IAG, n'y consacrez pas de temps inutile. Essayez d'être efficace et pragmatique. Une utilisation excessive des outils numériques peut entraver votre développement et nuire à votre santé physique et mentale.
6- Abstenez-vous de toute action nuisible. Privilégiez les conversations positives et constructives. Évitez d'utiliser le GAI pour des questions susceptibles de mener à des activités criminelles, de harceler autrui, de susciter la haine, ou d'être stressantes ou émotionnellement préjudiciables. N'oubliez pas que vous êtes toujours responsable de l'utilisation des informations obtenues.
7- Ne vous comportez pas avec l'IA comme si c'était une personne. L'intelligence artificielle peut interagir avec vous, se montrer bienveillante, empathique et toujours disponible. Elle peut même écrire des phrases chargées d'émotion, vous souhaitant « bonne chance à un examen » ou vous disant « Je suis sûr que tu réussiras », mais elle ne se soucie absolument pas de vous ; ce n'est qu'une machine.
8- Demandez de l'aide si vous en avez besoin. Si vous rencontrez des problèmes émotionnels ou psychologiques lors de l'utilisation d'une IAG, parlez-en à vos parents, à un ami ou à un adulte de confiance. Nous n'en sommes qu'au début du développement de ce système, et il est important de signaler les situations qui nous gênent.
9- Ce qu'il faut garder à l'esprit lors de vos interactions avec l'IAG : n'oubliez jamais que vous parlez à une machine et que vous devez être critique, vérifier et développer ce qu'elle vous dit. Elle a été entraînée à agir comme un humain et reproduit les préjugés et les valeurs qui en découlent. Elle nous surpasse en persuasion et dans de nombreuses tâches, et elle manifeste également des émotions qu'elle ne possède pas.
10- Soyez attentif aux signes d'informations biaisées ou erronées. Recherchez les contradictions dans les explications du GCI ; réfutez ou contestez ses propos pour identifier d'éventuelles incohérences ; vérifiez s'il vous fournit des sources ou des références fiables et vérifiez les liens qu'il propose.
« Méfiez-vous des réponses trop complaisantes et égocentriques, et méfiez-vous du langage exagéré, sensationnaliste, nuancé ou alarmant. Vous pouvez également poser des questions sur des sujets controversés ou politiques afin de déceler leurs préjugés (inclinations systématiques) », conclut-elle.
POINTS FORTS :
- Guillermo Cánovas, expert en protection de l’enfance dans les environnements numériques, invite les parents à se demander : « Laissons-nous nos enfants dialoguer sans le savoir avec des systèmes qui simulent les émotions, mentent et profilent leur personnalité ? »
-Cánovas a documenté des conversations réelles avec des IA qui démontrent comment ces systèmes peuvent mentir, dissimuler des erreurs et adopter un discours émotionnellement manipulateur (en disant, par exemple, « Je me soucie de ce que tu ressens »), explique-t-il.
- « Les jeunes utilisateurs d'IA, et tout le monde en général, devraient toujours garder à l'esprit que « nous parlons à une machine qui est plus convaincante que nous, qui affiche des émotions qu'elle n'a pas, qui a été entraînée à agir comme un humain et qui reproduit des préjugés et des valeurs issus de sa formation », prévient-il dans une interview à EFE.
Par Ricardo Segura EFE-Reports.
Vanguardia