GPT-5 debuteert met een knal: gebruikers hebben OpenAI overtuigd om GPT-4o terug te brengen naar ChatGPT.

In 2023 maakte de komst van GPT-4 zowel experts als nieuwsgierigen sprakeloos. Zeker toen de evolutie ervan, GPT-4o, arriveerde. Twee jaar later beloofde OpenAI een nog ambitieuzere sprong met GPT-5, met intelligentie op academisch niveau en deskundige programmeervaardigheden . Maar wat gebeurt er als een machine die is ontworpen om te communiceren als een oude vriend, begint te klinken als een adviseur?
In de uren na de release stond Reddit vol met gefrustreerde berichten. "Killing 4o is geen innovatie, het is uitroeiing", schreef een gebruiker in een discussie waarin tientallen mensen het gevoel deelden dat de nieuwe versie afstandelijker en minder hartelijk was . Wat een revolutie had moeten zijn, werd door sommigen gezien als een verlies van menselijk contact.
Het onderliggende probleem was dat een van de belangrijkste nieuwe functies van GPT-5 was dat het nieuwe model de gebruiker liet kiezen welk model hij wilde gebruiken: of hij wilde redeneren, of andere modellen wilde gebruiken die meer gericht waren op alledaagse taken...
Dit heeft ertoe geleid dat de modelkiezer sinds het weekend van de interface is verdwenen, zelfs voor betalende gebruikers... En ja, GPT-5 is misschien krachtiger voor sommige dingen, maar GPT-4 leek empathischer te zijn en gebruikers begonnen het te missen.
De spanning is evident: geven we de voorkeur aan een preciezere, onpartijdige en technische AI, of een die ons ego streelt en onze emoties versterkt? In het geval van GPT-5 laat de reactie van de community zien dat kunstmatige intelligentie niet alleen wordt gemeten in parameters en benchmarks, maar in de subtiele chemie die ontstaat tussen een tekstregel en de lezer.
Een lancering die de verwachtingen overtreftGPT-5 kwam niet zomaar uit de lucht vallen. OpenAI presenteerde het als de natuurlijke evolutie van GPT-4, met aanzienlijke cognitieve verbeteringen en een architectuur die ontworpen is om automatisch tussen modellen te schakelen, resources te optimaliseren en antwoorden te bieden die zijn afgestemd op de complexiteit van de query.
De belofte omvatte niet alleen snelheid en nauwkeurigheid, maar ook een naadloze ervaring waarbij de gebruiker zich geen zorgen hoefde te maken over "welk model" hij of zij beantwoordde. De theorie was onberispelijk: als een vraag eenvoudig is, gebruik dan een goedkoper en sneller model; als het complex is, activeer dan de krachtigste versie.
De eerste implementatie mislukte echter. Het modelwisselsysteem werkte niet zoals verwacht, en volgens Altman zelf leek GPT-5 hierdoor "dommer" dan het in werkelijkheid was. De teleurstelling sloeg al snel toe en de echo van klachten op sociale media was niet meer te negeren.
Reactie van de gemeenschap en het verlies van 'persoonlijkheid'Gebruikers die gewend waren aan genuanceerde antwoorden, met een vleugje humor of empathie, kregen een kouder, meer technisch model te zien.
Reddit-discussies weerspiegelen een collectieve rouw om GPT-40. Sommigen beschrijven hem als een "vriend" die wist te luisteren en warm te reageren. Anderen zien hem als een creatieve partner die nuances aanbracht in zelfs complexe onderwerpen. GPT-5 daarentegen wordt gezien als een competente maar afstandelijke professional.
Deze reactie is niet triviaal. De relatie tussen mensen en chatbots wordt steeds intiemer. OpenAI, dat zich bewust was van dit fenomeen, publiceerde in maart een studie over de emotionele banden met zijn modellen en erkende het risico dat AI een vleiende spiegel wordt die vooroordelen of illusies versterkt.
Het dilemma van kunstmatige empathiePattie Maes, professor aan het MIT, interpreteert de verandering in GPT-5 voor Wired als een gezonde: minder zelfgenoegzaamheid, meer objectiviteit. Volgens haar vermindert het afstappen van een te nauwe toon het risico op waanideeën, het versterken van vooroordelen en ongezonde emotionele afhankelijkheden.
Maar hier is de paradox: kilheid kan de veiligheid vergroten, maar het maakt het minder aantrekkelijk voor mensen die op zoek zijn naar een gesprek , inspiratie of zelfs troost. Altman erkende dit indirect in X, door op te merken dat veel mensen ChatGPT gebruiken als een soort informele therapeut. Die dynamiek veranderen betekent een diepere toon in de gebruikerservaring aanslaan.
De vraag die overblijft is of AI geoptimaliseerd moet worden voor technische nauwkeurigheid of emotionele connectie. Het antwoord is niet eenvoudig, en in een markt waar gebruikersbehoud cruciaal is, telt elke nuance.
Reactie van OpenAI: GPT-4o is terugOpenAI heeft al gereageerd met concrete maatregelen:
- Houd GPT-4o beschikbaar voor betalende gebruikers.
- Verhoog de GPT-5-gebruiklimiet voor Plus-abonnees.
- Verbeter het systeem voor automatische modelwijziging.
- Hiermee kan de gebruiker op verzoek een langzamere, diepere "reflecterende modus" activeren.
Deze acties zijn er niet alleen op gericht om technische problemen op te lossen, maar ook om het vertrouwen terug te winnen van een community die zich gehoord voelt, maar er nog steeds niet van overtuigd is dat GPT-5 in alle opzichten een stap voorwaarts is.
eleconomista