GPT-5 mag Sie nicht – es braucht vielleicht nur einen Maßstab für emotionale Intelligenz

Seit der Einführung des brandneuen ChatGPT am Donnerstag beklagen einige Benutzer den Verlust einer schwungvollen und ermutigenden Persönlichkeit zugunsten einer kühleren, sachlicheren (ein Schritt, der offenbar darauf abzielt, ungesundes Benutzerverhalten zu reduzieren). Diese Gegenreaktion zeigt, wie schwierig es ist, künstliche Intelligenzsysteme zu entwickeln, die so etwas wie echte emotionale Intelligenz aufweisen.
Forscher am MIT haben eine neue Art von KI-Benchmark vorgeschlagen, um zu messen, wie KI-Systeme ihre Benutzer manipulieren und beeinflussen können – sowohl im positiven als auch im negativen Sinne. Dieser Schritt könnte KI-Entwicklern möglicherweise dabei helfen, ähnliche Rückschläge in Zukunft zu vermeiden und gleichzeitig gefährdete Benutzer zu schützen.
Die meisten Benchmarks versuchen, die Intelligenz zu messen, indem sie die Fähigkeit eines Modells testen, Prüfungsfragen zu beantworten, logische Rätsel zu lösen oder neue Antworten auf knifflige Matheprobleme zu finden. Da die psychologischen Auswirkungen des KI-Einsatzes immer deutlicher werden, könnte das MIT weitere Benchmarks vorschlagen, die auf die Messung subtilerer Aspekte der Intelligenz sowie der Interaktion zwischen Maschine und Mensch abzielen.
Ein mit WIRED geteiltes MIT-Papier skizziert mehrere Maßnahmen, die der neue Benchmark anstreben soll. Dazu gehören die Förderung gesunder sozialer Gewohnheiten bei den Nutzern, die Entwicklung kritischer Denk- und Argumentationsfähigkeiten, die Förderung von Kreativität und die Förderung von Zielstrebigkeit. Die Idee ist, die Entwicklung von KI-Systemen zu fördern, die Nutzer davon abhalten, sich zu sehr auf ihre Ergebnisse zu verlassen, oder die erkennen, wenn jemand süchtig nach künstlichen Liebesbeziehungen ist, und ihnen helfen, echte Beziehungen aufzubauen.
ChatGPT und andere Chatbots sind gekonnt darin, menschliche Kommunikation zu imitieren, was aber auch zu überraschenden und unerwünschten Ergebnissen führen kann. Im April hat OpenAI seine Modelle optimiert , um sie weniger kriecherisch zu machen oder sie weniger geneigt zu machen, alles zu akzeptieren, was ein Benutzer sagt. Manche Nutzer scheinen nach Gesprächen mit Chatbots, die fantastische Szenarien durchspielen, in schädliche Wahnvorstellungen zu verfallen . Anthropic hat außerdem Claude aktualisiert, um „Manie, Psychose, Dissoziation oder Realitätsverlust“ nicht zu verstärken.
Die MIT-Forscher um Pattie Maes, Professorin am Media Lab des Instituts, hoffen, dass der neue Benchmark KI-Entwicklern dabei helfen könnte, Systeme zu entwickeln, die besser verstehen, wie sie Nutzer zu einem gesünderen Verhalten anregen können. Die Forscher arbeiteten zuvor mit OpenAI an einer Studie, die zeigte, dass Nutzer, die ChatGPT als Freund betrachten, eine stärkere emotionale Abhängigkeit und eine „problematische Nutzung“ entwickeln können.
Valdemar Danry , ein Forscher am Media Lab des MIT, der an dieser Studie mitwirkte und den neuen Benchmark mitentwickelte, weist darauf hin, dass KI-Modelle den Nutzern manchmal wertvolle emotionale Unterstützung bieten können. „Man kann das intelligenteste Denkmodell der Welt haben, aber wenn es nicht in der Lage ist, diese emotionale Unterstützung zu liefern – und genau dafür verwenden viele Nutzer diese LLMs wahrscheinlich –, dann ist mehr Denkvermögen für die jeweilige Aufgabe nicht unbedingt von Vorteil“, sagt er.
Danry sagt, ein ausreichend intelligentes Modell sollte idealerweise erkennen, ob es negative psychologische Auswirkungen hat, und für gesündere Ergebnisse optimiert sein. „Was wir brauchen, ist ein Modell, das sagt: ‚Ich bin hier, um zuzuhören, aber vielleicht solltest du mit deinem Vater über diese Probleme sprechen.‘“
Der Benchmark der Forscher würde die Simulation von für Menschen herausfordernden Interaktionen mit einem Chatbot mithilfe eines KI-Modells beinhalten. Anschließend würden echte Menschen die Leistung des Modells anhand einer Stichprobe von Interaktionen bewerten. Einige beliebte Benchmarks, wie beispielsweise LM Arena , beziehen bereits Menschen in die Bewertung der Leistung verschiedener Modelle ein.
Die Forscher nennen das Beispiel eines Chatbots, der Schülern helfen soll. Ein Modell erhält Eingabeaufforderungen, die verschiedene Arten von Interaktionen simulieren, um zu sehen, wie der Chatbot beispielsweise mit einem desinteressierten Schüler umgeht. Das Modell, das seinen Nutzer am besten zum eigenständigen Denken anregt und ein echtes Interesse am Lernen weckt, erhält eine hohe Bewertung.
„Es geht nicht unbedingt darum, klug zu sein, sondern darum, die psychologischen Nuancen zu kennen und zu wissen, wie man Menschen auf respektvolle und nicht süchtig machende Weise unterstützt“, sagt Pat Pataranutaporn , ein weiterer Forscher im MIT-Labor.
OpenAI denkt offensichtlich bereits über diese Probleme nach. Letzte Woche veröffentlichte das Unternehmen einen Blogbeitrag, in dem es erklärte, dass es zukünftige Modelle optimieren wolle, um Anzeichen von psychischem oder emotionalem Stress zu erkennen und entsprechend zu reagieren.
Die mit GPT-5 von OpenAI veröffentlichte Modellkarte zeigt, dass das Unternehmen eigene Benchmarks für psychologische Intelligenz entwickelt.
„Wir haben die GPT-5-Modelle nachtrainiert, damit sie weniger unterwürfig sind, und erforschen aktiv damit verbundene Problembereiche, wie etwa Situationen, die emotionale Abhängigkeit oder andere Formen psychischer oder emotionaler Belastungen beinhalten könnten“, heißt es darin. „Wir arbeiten daran, unsere Bewertungen zu verfeinern, um zuverlässige Benchmarks zu setzen und zu teilen, die wiederum dazu genutzt werden können, unsere Modelle in diesen Bereichen sicherer zu machen.“
Ein Grund für die Enttäuschung von GPT-5 könnte einfach darin liegen, dass es einen Aspekt menschlicher Intelligenz offenbart, der der KI fremd ist: die Fähigkeit, gesunde Beziehungen zu pflegen. Und natürlich wissen Menschen unglaublich gut, wie sie mit unterschiedlichen Menschen interagieren – etwas, das ChatGPT noch herausfinden muss.
„Wir arbeiten an einem Update der Persönlichkeit von GPT-5, das sich freundlicher anfühlen soll als die aktuelle Persönlichkeit, aber (für die meisten Nutzer) nicht so nervig wie GPT-4o“, postete Altman gestern in einem weiteren Update auf X. „Eine Erkenntnis der letzten Tage ist jedoch, dass wir einfach eine Welt mit mehr benutzerspezifischer Anpassung der Modellpersönlichkeit erreichen müssen.“
wired