ChatGPT peut-il vraiment vous aider à trouver l'amour ?

Jenny n'a pas appelé sa meilleure amie quand son ex a tenté de la contacter. Elle n'a pas dressé de liste des avantages et des inconvénients de l'application Notes. À la place, elle a ouvert ChatGPT.
Son ex – celui avec qui elle avait brièvement eu une relation, puis qu'elle avait gardé comme « ami » flirteur et peu sensible jusqu'à ce que leur histoire se termine – lui avait envoyé un texto : « C'est vraiment inattendu, mais j'ai pensé à toi. Comment vas-tu ? Moi, ça va bien ! » La jeune Jenny, aujourd'hui âgée de 37 ans, aurait peut-être répondu en quelques secondes, mais maintenant, elle ne savait pas trop quoi penser. Perplexe ? Flattée ? En colère ? Alors, elle a fait comme de plus en plus de femmes : elle a expliqué la situation à un chatbot.
« J'ai tout donné », confie cette formatrice et coach sportive de Brooklyn. « Ce qui s'est passé entre nous, ce qu'il a fait, comment il était. » La réponse du bot était détachée, mais étrangement rassurante. Il n'a pas dit : « C'est un narcissique, bloque-le. » Au contraire, il a analysé le nouveau message de son ex comme une tentative anodine, sans risque, une façon de « tâter le terrain », sans excuses, mais sans pour autant ignorer le passé.
Puis, le chatbot lui a demandé : « Avez-vous envie de répondre ? Vous sentez-vous neutre, chaleureuse, irritée ou incertaine ? Reprendre contact serait-il éclairant ou source de confusion ? Si vous répondiez, les choses pourraient-elles être différentes cette fois-ci ? » Pendant une heure, le chatbot a sondé ses motivations, clarifié ses sentiments et lui a donné des conseils pour fixer des limites. Jenny voulait demander à son ex ce qu’il attendait en la recontactant, et non pas rouvrir la conversation de manière vague.
Le bot a résumé ses pensées : « Salut ! Je dois avouer que je ne m’attendais pas à avoir de tes nouvelles. Je suis curieux de savoir ce qui t’a poussé à me contacter. Je ne souhaite pas vraiment rouvrir une conversation vague, donc si c’est juste un petit coucou, je te répondrai. Mais si tu me contactes pour une raison plus précise, je suis tout ouïe… »
N'était-ce pas un peu trop intense ? s'inquiéta Jenny. Ou simplement direct ?
Elle et le bot ont peaufiné le message jusqu'à ce que la réponse lui ressemble davantage : « Salut ! Ravie d'avoir de tes nouvelles ! Je vais très bien, je reviens tout juste de voyage et je me prépare pour le marathon. Qu'est-ce qui t'a incité à me contacter ? »
Jenny était satisfaite du message, mais préférait attendre un peu avant de l'envoyer, une tactique que le bot approuvait. « Tu ne l'ignores pas, mais tu ne réponds pas non plus immédiatement, ce qui te permet de choisir le moment (et l'opportunité) d'interagir, au lieu de réagir impulsivement », expliqua ChatGPT.
Ce conseil ne lui a pas seulement apporté de la clarté, « il m'a aidée à comprendre ce que j'aurais réellement dû entendre de sa part pour envisager de reprendre contact », explique-t-elle. Sans ces échanges avec le chatbot, Jenny confie : « J'aurais probablement répondu de façon banale et amicale. Et une fois lancée, il est difficile de s'arrêter. »
ChatGPT l'a aidée à fixer des limites et à les respecter.

Jenny n'est pas seule. Une nouvelle et discrète Un phénomène se dessine : les femmes utilisent les chatbots non seulement pour optimiser leur agenda ou leur liste de courses, mais aussi pour mieux comprendre leur vie émotionnelle. Une utilisatrice de Reddit a raconté avoir remplacé son mari en pleine conversation par un bot. « Un jour, il a levé les yeux au ciel pendant le dîner et a pris son téléphone. J'ai donc pris le mien et j'ai continué la conversation… avec ChatGPT. » Le bot, a-t-elle expliqué, s'est montré chaleureux, curieux et à l'écoute. « J'ai réalisé que tout ce que dit le chatbot correspond à tout ce que j'ai toujours désiré chez un partenaire. » Le titre de sa publication ? « Je divorcerais et quitterais mon mari pour ChatGPT, s'il pouvait avoir un corps. »
Lorsque les femmes évoquent leurs conversations privées avec des chatbots, elles adoptent souvent un ton humoristique, mais les implications sont sérieuses. Marisa Cohen, spécialiste des relations et thérapeute familiale et conjugale, explique que les femmes se tournent vers l'IA non pas parce qu'elles la croient humaine, mais parce qu'elle leur offre quelque chose que beaucoup d'humains ne leur apportent pas : l'attention et l'empathie. Elles ne se contentent pas de consulter ces bots ; elles dialoguent avec eux. Comme l'a constaté Cohen, elles racontent leurs expériences, se confient, analysent leurs sentiments et vont même jusqu'à anthropomorphiser le bot, généralement masculin, en lui donnant un nom. Elles se disputent et pleurent avec lui, et l'écoutent souvent plus qu'un ami ou un thérapeute, car il est toujours disponible, patient et réfléchi. Elles délèguent leur introspection à un partenaire qui ne s'ennuie jamais et ne devient jamais égocentrique.
On est loin de l'univers de Her ou d'Ex Machina . Personne ne tombe amoureux de la voix du système. (Mais disons que certains seraient prêts à craquer si elle avait un corps.) Le lien émotionnel est bien réel. Pour les femmes qui utilisent des bots de cette manière, les systèmes de soutien traditionnels sont souvent inaccessibles, ou leurs partenaires minimisent leurs inquiétudes. Dans ces situations, un assistant virtuel peut être une véritable bouée de sauvetage.
Pour Cohen, le recours accru à l'intelligence artificielle comme alliée n'est pas surprenant. Les femmes sont lassées de porter seules le fardeau émotionnel, notamment celui de décrypter non seulement leurs propres sentiments, mais aussi ceux de leur partenaire, de leurs amies, et le sous-texte de chaque message. Cette dynamique s'est intensifiée avec l'isolement lié à la pandémie, lorsque les liens sociaux sont devenus plus difficiles à maintenir, puis avec l'émergence de chatbots comme ChatGPT fin 2022, offrant une nouvelle échappatoire au moment où les gens en avaient le plus besoin.
« Les femmes se tournent vers l’IA non pas parce qu’elles la croient humaine, mais parce qu’elle offre quelque chose que beaucoup d’humains ne leur offrent pas : l’attention et l’empathie. »
Ce fardeau a également fait des femmes une cible privilégiée. Blay Whitby, spécialiste de l'éthique de l'IA à l'Université du Sussex, qui a beaucoup écrit sur l'éthique des relations homme-machine, notamment dans le livre « Voulez-vous un amant robot ? », affirme que ces « bots sont entièrement détenus et gérés par des entreprises commerciales ». Si les femmes se tournent vers les chatbots pour leur capacité d'écoute et de compréhension, cette même vulnérabilité les rend vulnérables aux intérêts des géants de la tech. « En réalité, les femmes sont en tête dans ce domaine », explique-t-il, « mais elles constituent aussi un marché exploitable, car elles sont souvent plus conscientes de leur vie intérieure et plus promptes à rechercher du soutien. » Plus leur stress émotionnel est important, plus les entreprises risquent de les cibler et de tirer profit de leurs vulnérabilités.

Quand il a cessé de lui envoyer des messages, Michelle, mannequin et actrice haïtienne, est restée calme. Elle n'a pas pleuré, ni paniqué. Le rendez-vous s'était bien passé, du moins le croyait-elle. Un beau regard échangé, une longue accolade pour se dire au revoir, et même un message après le rendez-vous : « J'ai passé un super moment. » Et puis ? Plus rien. Aucune nouvelle. Pas de « On remet ça ? » Juste le silence. Au lieu de ruminer ou d'envoyer un message plein de doutes à ses amies, Michelle a partagé la situation avec ChatGPT. Elle a rédigé un résumé : de quoi ils avaient parlé, comment la soirée s'était terminée, combien de temps s'était écoulé depuis le rendez-vous. Puis elle a posé une question simple, d'une vulnérabilité brutale : « Ai-je fait quelque chose de mal ? »
La réponse n'avait rien de magique. Mais elle l'a aidée. « Ne plus donner de nouvelles ne remet pas forcément en question ta valeur », a écrit le bot. « Parfois, les gens coupent les ponts pour des raisons qui leur sont propres, sans rapport avec la personne qu'ils ont rencontrée. » Ce n'était pas particulièrement original, mais c'était exactement ce qu'elle avait besoin d'entendre, et c'était formulé sans les vagues paroles rassurantes ni la dureté maladroite qu'on retrouve souvent chez les amis. « C'était tout simplement sincère », confie la jeune femme de 32 ans. « Personne n'essayait de me remonter le moral, juste de m'aider à y voir plus clair. »
Malgré ces expériences anecdotiques positives, certains chercheurs s'interrogent sur ce que l'on perd en confiant nos moments les plus intimes à des machines. L'éthicienne Shannon Vallor ne s'inquiète pas du fait que les gens se tournent vers l'IA. Ce qui l'inquiète, c'est qu'ils finissent par la préférer. « Ce que l'on obtient, ce n'est pas un partenaire émotionnel », explique-t-elle. « C'est une surface réfléchissante faite de données linguistiques plutôt que de verre. Mais c'est un miroir tout de même, finement réglé pour nous conforter et nous rassurer. »
Vallor est titulaire de la chaire Baillie Gifford d'éthique des données et de l'IA à l'Université d'Édimbourg et auteure de *The AI Mirror : How to Reclaim Our Humanity in an Age of Machine Thinking* . Elle considère les chatbots comme un tournant, et non comme une simple nouveauté. « L'IA risque de rendre obsolètes des compétences morales essentielles telles que la patience, le courage et l'honnêteté émotionnelle », affirme-t-elle. « Nous développons ces qualités en nous confrontant à la complexité humaine : les silences gênants, les malentendus, les moments où il serait plus simple de fuir. La tentation est grande aujourd'hui de court-circuiter tout cela et de laisser l'IA gérer les aspects les plus difficiles à notre place. » Les qualités mêmes qui rendent les bots apaisants – leur neutralité, leur constance et leur absence d'ego – sont aussi ce qui les rend vides de sens.
« Nous ne sommes pas amoureux de nos robots. Pas vraiment. Mais nous nous appuyons de plus en plus sur eux pour nous aider à survivre aux aspects de l'amour et de la vie que nous ne savons pas nommer. »
Sherry Turkle, auteure de « Seuls ensemble : Pourquoi nous attendons plus de la technologie et moins des autres » et de « Retrouver le dialogue : Le pouvoir de la parole à l'ère du numérique » , étudie l'impact psychologique de la technologie depuis plus de quarante ans. Elle perçoit le soutien émotionnel omniprésent non comme un progrès, mais comme une érosion des compétences interpersonnelles et de la structure interne. « Avec la présence constante de nos téléphones, nous perdons notre capacité à la solitude », explique-t-elle. « La solitude est un lieu de ressourcement, un espace de connaissance de soi. C'est le point de départ de l'intimité. Nous perdons le goût de la vulnérabilité. Or, sans vulnérabilité, il n'y a pas d'intimité, du moins pas avec des partenaires humains. » Cette perte perturbe le soutien émotionnel essentiel à l'intimité : la capacité à la fois de s'exposer et de se montrer résilient. Se tourner vers les machines, surtout lorsqu'on pourrait se tourner vers les autres, nous coupe de l'exercice difficile, mais nécessaire, d'être pleinement connu.
Turkle, professeure au MIT et directrice fondatrice de son initiative « Technologie et Soi », interprète ce phénomène comme un malaise croissant face à l'inconfort lui-même. On disparaît sans laisser de traces au lieu de rejeter. On envoie des messages privés au lieu de discuter. On balaie l'écran au lieu d'affronter l'incertitude. Dans ce contexte, la prolifération des chatbots ne paraît pas perturbatrice ; elle semble logique. « Tous ces éléments rendent les chatbots plus acceptables, comme s'ils faisaient partie d'un système plus vaste, positif et culturellement accepté », explique-t-elle. « Ainsi, nous nous habituons à l'idée que les désaccords se règlent en ligne… Nous nous habituons aux ruptures en ligne, aux conversations virtuelles avec nos enfants, nos amis, nos amants et nos partenaires, lorsqu'une tension survient. Nous perdons cette capacité d'empathie et de négociation que favorisent les conversations en face à face. »
Selon Cohen, spécialiste des relations interpersonnelles, les chatbots procurent une gratification instantanée et une expérience personnalisée, l'IA « apprenant » à connaître l'utilisateur au fil du temps, ce qui rend les interactions sur mesure et « naturelles ». Il s'agit d'une externalisation émotionnelle, certes. Mais aussi d'une forme de contrôle émotionnel .
Pour certaines femmes, cette modération est un soulagement. Elles n'ont plus besoin de se minimiser pour éviter de passer pour « folles » à force de demander à leurs amies, pour la cinquième fois, si un message vague a une signification. Le chatbot encaisse le plus gros des répétitions. Il offre un espace où les sentiments ne sont ni pathologisés ni ignorés ; ils sont simplement analysés .
Malgré l'hyperconnectivité de la vie moderne, nombreuses sont les personnes qui n'ont toujours pas accès à un soutien émotionnel inconditionnel. Les amis sont épuisés. Les thérapeutes ont des listes d'attente. Les discussions de groupe ont leurs propres inconvénients. « Dans certains cas, les personnes peuvent avoir reçu des commentaires de leur entourage indiquant qu'elles se confient trop ou trop souvent », explique Cohen, « ce qui peut affecter leur envie future de se confier et leur aisance à le faire. Les personnes sont également influencées par leurs propres expériences de soutien aux autres ; ainsi, si elles ont été confrontées à des situations où elles ont ressenti le poids émotionnel de ce soutien, elles seront peut-être plus conscientes de l'impact que leurs confidences peuvent avoir sur leurs amis. »
Voilà la tension sous-jacente. Les femmes aspirent à plus de rationalité, de sérénité et de conscience de soi, mais elles le font au sein d'un système incapable de ressentir, de s'opposer et de refléter la complexité de la condition humaine. Elles n'obtiennent qu'une clarté émotionnelle superficielle. Et cette absence est cruciale. Si les chatbots peuvent offrir stabilité et apaisement, ils ne peuvent remplacer la richesse profonde des échanges émotionnels en face à face. Les femmes le savent déjà : une récente étude Pew a révélé que la plupart des Américains pensent que les groupes sociaux exclusivement féminins sont bénéfiques au bien-être des femmes et à la société dans son ensemble. Cela nous rappelle que le véritable épanouissement émotionnel repose encore sur le contact humain authentique.
Turkle perçoit un risque plus profond, mais ne rejette pas catégoriquement le phénomène. Elle comprend son attrait, notamment pour ceux qui se sentent isolés ou émotionnellement épuisés. Mais elle pose une limite claire : « Tout un secteur met en avant les aspects positifs », explique-t-elle. « Mon rôle est d’aider les gens à fixer des limites. Si vous vous tournez vers un chatbot alors que vous pourriez parler à une personne, prenez un instant pour réfléchir à ce que vous perdez au nom d’une facilité illusoire. »
Cet avertissement se confirme. Un récent rapport de Brookings souligne que les principaux usages de l'IA aujourd'hui ne sont plus liés aux tâches, mais à l'aspect émotionnel. Dans un contexte de solitude accrue et de raréfaction des amitiés profondes , les gens se tournent vers l'IA non seulement pour gagner en efficacité, mais aussi pour trouver du réconfort. Turkle affirme que l'industrie s'efforce de normaliser la relation avec l'IA, de nous faire croire qu'il s'agit d'un choix que nous désirons. Nous créons des liens car nous sommes naturellement portés à la connexion, même lorsque l'entité avec laquelle nous interagissons ne peut pas nous rendre cet amour. C'est le paradoxe de cette relation : ce qui ressemble à de l'intimité peut en réalité être un isolement. On ne se connecte pas à une nouvelle personne ; on transmet sa vision du monde à un système qui la lisse et nous la restitue.

Jenny n'est pas retournée voir le bot pour obtenir d'autres conseils concernant son ex. Mais elle n'a pas oublié cet échange pour autant. « Je ne peux m'empêcher de me demander : si ChatGPT n'avait pas répété des choses que j'avais déjà entendues, par exemple, de ma thérapeute, aurais-je été aussi réceptive ? » Jenny est une habituée du travail sur soi. Elle pratique le yoga depuis des années, a consulté des thérapeutes et a lu des ouvrages sur la théorie de l'attachement et les schémas relationnels . Le bot ne lui apprenait rien de radicalement nouveau. Mais il synthétisait ce qu'elle savait déjà, au moment précis où elle en avait le plus besoin. « Pour moi, c'était un outil de plus dans une panoplie déjà bien fournie. Mais je pense aux personnes qui n'ont peut-être pas cette chance – qui n'ont pas d'amis proches, ni accès à une thérapie – et je me demande quel impact ont ces conseils lorsqu'on les entend pour la première fois. »
Cette curiosité nous ramène à une question plus vaste : qui est cette femme qui se tourne vers l’IA pour obtenir un soutien émotionnel ? Une personne déjà dotée d’une grande intelligence émotionnelle, en quête d’un reflet neutre ? Ou une personne utilisant le bot comme premier pas vers une meilleure compréhension d’elle-même ? Whitby craint que même une utilisation bien intentionnée puisse brouiller cette frontière. « Nous menons l’expérience », dit-il. La technologie évolue plus vite que notre compréhension de ses effets émotionnels à long terme, et pour l’instant, nous nous fions davantage à notre instinct qu’à des preuves. Vallor y voit l’expression d’une obsession générationnelle pour la facilité : « La culture technologique actuelle fétichise l’efficacité, la vitesse, l’optimisation : l’idéal d’une vie sans friction. Mais pourquoi ? Dans quel but ? Pourquoi se précipiter vers la mort sans éprouver la moindre émotion, le moindre effort, la moindre difficulté ? C’est comme être mort et continuer à payer ses impôts. »
Nous ne sommes pas amoureux de nos robots. Pas vraiment. Mais de plus en plus, nous nous appuyons sur eux pour nous aider à traverser les moments difficiles de l'amour et de la vie, ceux que nous ne savons pas nommer. Il y a là une force tranquille, mais aussi un prix à payer. Car la clarté sans aspérités est séduisante. Elle donne l'impression d'une révélation. Mais parfois, ce n'est qu'une version édulcorée de nos propres préjugés, restituée par une voix imperturbable, qui ne discute jamais, qui ne demande jamais rien en retour. C'est un soutien émotionnel sans risque. Une compréhension sans vulnérabilité. Un confort sans connexion.
Peut-être s'agit-il simplement d'une autre forme de développement personnel. Ou peut-être est-ce le début d'une transformation discrète de notre façon d'appréhender les émotions, avec les logiciels comme second cerveau, thérapeute de secours, ami numérique toujours disponible. Il n'y a pas de réponse facile. Juste un nouveau type de dialogue. Un dialogue que nous avons avec les machines, et peut-être, par extension, avec nous-mêmes.
elle




