GPT-5 fait ses débuts en fanfare : les utilisateurs ont persuadé OpenAI de renvoyer GPT-4o à ChatGPT.

En 2023, l'arrivée de GPT-4 a laissé les experts et les curieux sans voix. Plus encore avec son évolution, GPT-4o. Deux ans plus tard, OpenAI promettait un saut encore plus ambitieux avec GPT-5, doté d'une intelligence de niveau universitaire et de compétences de programmation expertes . Mais que se passe-t-il lorsqu'une machine conçue pour converser comme un vieil ami commence à parler comme un conseiller ?
Dans les heures qui ont suivi la sortie, Reddit a été inondé de messages de frustration. « Tuer 4o n'est pas une innovation, c'est une éradication », a écrit un utilisateur dans un fil de discussion où des dizaines de personnes partageaient le sentiment que la nouvelle version était plus distante, moins chaleureuse . Ce qui était censé être une révolution a été perçu, pour certains, comme une perte de lien humain.
Le problème sous-jacent était que l’une des principales nouveautés de GPT-5 était que le nouveau modèle laissait à l’utilisateur le choix du modèle à utiliser : soit pour raisonner, soit pour utiliser d’autres modèles plus adaptés aux tâches quotidiennes…
Cela s'est traduit par la disparition du sélecteur de modèle de l'interface depuis le week-end, même pour les utilisateurs payants... Et oui, GPT-5 est peut-être plus puissant pour certaines choses, mais GPT-4 semblait être plus empathique et les utilisateurs ont commencé à le regretter.
La tension est évidente : préférons-nous une IA plus précise, impartiale et technique, ou une IA qui flatte notre ego et renforce nos émotions ? Dans le cas de GPT-5, la réponse de la communauté montre que l'intelligence artificielle ne se mesure pas seulement en paramètres et en critères, mais aussi en l'alchimie subtile qui se développe entre une ligne de texte et celui qui la lit.
Un lancement qui a dépassé les attentesGPT-5 n'est pas arrivé sans bruit. OpenAI l'a présenté comme l'évolution naturelle de GPT-4, avec des améliorations cognitives significatives et une architecture conçue pour basculer automatiquement entre les modèles, optimiser les ressources et proposer des réponses adaptées à la complexité de la requête.
La promesse incluait non seulement rapidité et précision, mais aussi une expérience fluide où l'utilisateur n'aurait pas à se soucier du modèle auquel il répondait. La théorie était impeccable : si une question est simple, utilisez un modèle moins cher et plus rapide ; si elle est complexe, activez la version la plus performante.
Cependant, la mise en œuvre initiale échoua. Le système de changement de modèle ne fonctionna pas comme prévu et, selon Altman lui-même, cela donna à GPT-5 une apparence plus « bête » qu'elle ne l'était en réalité. La déception s'installa rapidement, et l'écho des plaintes sur les réseaux sociaux devint impossible à ignorer.
Réaction de la communauté et perte de « personnalité »Les utilisateurs habitués à des réponses nuancées, avec des touches d’humour ou d’empathie, se sont retrouvés face à un modèle plus froid et plus technique.
Les fils de discussion Reddit témoignent d'un deuil collectif pour GPT-40. Certains le décrivent comme un « ami » qui savait écouter et répondre chaleureusement. D'autres le voient comme un partenaire créatif qui apportait de la nuance même aux sujets les plus complexes. À l'inverse, GPT-5 est perçu comme un professionnel compétent mais distant.
Cette réaction n'est pas anodine. La relation entre les individus et les chatbots devient de plus en plus intime. OpenAI, conscient de ce phénomène, a publié en mars une étude sur les liens affectifs avec ses modèles et a reconnu le risque que l'IA devienne un miroir flatteur renforçant les préjugés ou les illusions.
Le dilemme de l'empathie artificiellePattie Maes, professeure au MIT, interprète le changement de GPT-5 pour Wired comme une évolution positive : moins de complaisance, plus d’objectivité. Selon elle, s’éloigner d’un ton trop fermé réduit le risque d’illusions, de renforcement des préjugés et de dépendances émotionnelles malsaines.
Mais voici le paradoxe : la froideur peut renforcer la sécurité, mais elle la rend moins attrayante pour ceux qui recherchent la conversation , l'inspiration, voire le réconfort. Altman l'a reconnu indirectement dans X, soulignant que de nombreuses personnes utilisent ChatGPT comme une sorte de thérapeute informel. Changer cette dynamique implique d'apporter une touche plus profonde à l'expérience utilisateur.
La question qui se pose est de savoir si l'IA doit être optimisée pour la précision technique ou pour la connexion émotionnelle. La réponse n'est pas simple, et sur un marché où la fidélisation des utilisateurs est essentielle, chaque nuance compte.
Réaction d'OpenAI : GPT-4o est de retourOpenAI a déjà réagi avec des mesures concrètes :
- Gardez GPT-4o disponible pour les utilisateurs payants.
- Augmentez la limite d’utilisation de GPT-5 pour les abonnés Plus.
- Améliorer le système de changement automatique de modèle.
- Permettre à l'utilisateur d'activer un « mode réfléchissant » plus lent et plus profond à la demande.
Ces actions visent non seulement à résoudre des problèmes techniques, mais aussi à regagner la confiance d’une communauté qui se sent écoutée, mais qui n’est toujours pas convaincue que GPT-5 est un pas en avant à tous points de vue.
eleconomista