OpenAI bemüht sich nach Benutzerrevolte um Aktualisierung von GPT-5

Das GPT-5- Modell von OpenAI sollte ein weltveränderndes Upgrade für den äußerst beliebten und innovativen Chatbot sein. Für einige Nutzer fühlte sich die Veröffentlichung vom vergangenen Donnerstag jedoch eher wie ein schmerzhaftes Downgrade an, da der neue ChatGPT eine verwässerte Persönlichkeit präsentierte und überraschend dumme Fehler machte.
Am Freitag erklärte OpenAI-CEO Sam Altman gegenüber X , dass das Unternehmen das Vorgängermodell GPT-4o für Plus-Nutzer weiterführen werde. Eine neue Funktion, die den nahtlosen Wechsel zwischen Modellen je nach Komplexität der Abfrage ermöglicht, sei am Donnerstag ausgefallen, sagte Altman, „und das Ergebnis war, dass GPT-5 viel dümmer wirkte“. Er versprach, Korrekturen zu implementieren, um die Leistung von GPT-5 und das allgemeine Benutzererlebnis zu verbessern.
Angesichts des Hypes um GPT-5 scheint eine gewisse Enttäuschung unvermeidlich. Als OpenAI im März 2023 GPT-4 vorstellte , verblüffte es KI-Experten mit seinen unglaublichen Fähigkeiten. GPT-5, so spekulierten Experten, würde sicherlich genauso umwerfend sein.
OpenAI pries das Modell als bedeutende Verbesserung an, die Intelligenz auf Doktorandenniveau und virtuose Programmierkenntnisse mit sich bringt. Ein System zur automatischen Weiterleitung von Anfragen an verschiedene Modelle sollte für ein reibungsloseres Benutzererlebnis sorgen. (Es könnte dem Unternehmen auch Geld sparen, indem einfache Anfragen an günstigere Modelle weitergeleitet werden.)
Kurz nach der Veröffentlichung von GPT-5 häuften sich jedoch Beschwerden in der ChatGPT-Community auf Reddit. Viele Nutzer betrauerten den Verlust des alten Modells.
„Ich probiere GPT5 jetzt seit ein paar Tagen aus. Selbst nachdem ich die Anweisungen angepasst habe, fühlt es sich immer noch nicht gleich an. Es ist technischer, allgemeiner und fühlt sich ehrlich gesagt emotional distanziert an“, schrieb ein Community-Mitglied in einem Thread mit dem Titel „Kill 4o ist keine Innovation, es ist Auslöschung.“
„Klar, 5 ist in Ordnung – wenn Sie Nuancen und Gefühle hassen“, schrieb ein anderer Reddit-Benutzer.
In anderen Threads wurde über träge Antworten, Halluzinationen und überraschende Fehler geklagt.
Altman versprach, diese Probleme zu beheben, indem er die GPT-5-Ratenlimits für ChatGPT Plus-Nutzer verdoppelt, das System zum Umschalten zwischen Modellen verbessert und Nutzern die Möglichkeit gibt, festzulegen, wann sie einen leistungsfähigeren und behäbigeren „Denkmodus“ aktivieren möchten. „Wir werden weiter an der Stabilität arbeiten und weiterhin auf Feedback hören“, schrieb der CEO auf X. „Wie bereits erwähnt, haben wir mit einigen Problemen gerechnet, da wir so viele Dinge gleichzeitig einführen. Aber es war etwas holpriger als erhofft!“
In den sozialen Medien veröffentlichte Fehler bedeuten nicht zwangsläufig, dass das neue Modell weniger leistungsfähig ist als seine Vorgänger. Sie können lediglich darauf hindeuten, dass das brandneue Modell an anderen Randfällen scheitert als frühere Versionen. OpenAI wollte sich nicht konkret dazu äußern, warum GPT-5 manchmal scheinbar einfache Fehler macht.
Die Gegenreaktion hat eine neue Debatte über die psychologische Bindung ausgelöst, die manche Nutzer zu Chatbots aufbauen, die darauf trainiert sind, ihre Emotionen zu stimulieren. Einige Reddit-Nutzer wiesen Beschwerden über GPT-5 als Beweis für eine ungesunde Abhängigkeit von einem KI-Begleiter zurück.
Im März veröffentlichte OpenAI eine Studie zur emotionalen Bindung, die Benutzer zu seinen Modellen aufbauen. Kurz darauf veröffentlichte das Unternehmen ein Update für GPT-4o, nachdem es zu unterwürfig geworden war .
„GPT-5 scheint weniger unterwürfig, geschäftsmäßiger und weniger gesprächig zu sein“, sagt Pattie Maes, Professorin am MIT, die an der Studie mitgearbeitet hat. „Ich persönlich halte das für eine gute Sache, denn es hat auch zu Wahnvorstellungen, der Verstärkung von Vorurteilen usw. geführt. Aber leider mögen viele Nutzer ein Modell, das ihnen sagt, sie seien klug und großartig und das ihre Meinungen und Überzeugungen bestätigt, selbst wenn sie falsch sind.“
Altman wies in einem anderen Beitrag auf X darauf hin, dass das Unternehmen bei der Entwicklung von GPT-5 damit zu kämpfen hatte.
„Viele Menschen nutzen ChatGPT als eine Art Therapeut oder Lebensberater, auch wenn sie es nicht so beschreiben würden“, schrieb Altman. Er fügte hinzu, dass einige Nutzer ChatGPT möglicherweise auf eine Weise nutzen, die ihr Leben verbessert, während andere „unbewusst von ihrem langfristigen Wohlbefinden abgelenkt“ werden.
wired