ChatGPT birgt das Risiko einer Psychose

Einem neuen Bericht zufolge treiben ChatGPT und andere beliebte KI-Chatbots Menschen in die Psychose.
Die von Ärzten des britischen National Health Service (NHS) mitverfasste Studie warnt vor zunehmenden Beweisen dafür, dass große Sprachmodelle (LLMs) bei gefährdeten Benutzern „die Grenzen der Realität verwischen“ und „zum Auftreten oder zur Verschlimmerung psychotischer Symptome beitragen“.
Die von Independent Turkish veröffentlichte Untersuchung folgt auf Dutzende von Berichten über Menschen, die in eine sogenannte „Chatbot-Psychose“ verfallen sind.
Hamilton Morrin, ein Neuropsychiater am King's College London, der an der Studie teilnahm, beschrieb die Chatbot-Psychose als ein „reales Phänomen“, das man gerade erst zu verstehen beginne.
„Während einige öffentliche Kommentare in moralische Panik umgeschlagen sind, sind wir der Meinung, dass eine interessantere und wichtigere Diskussion darüber geführt werden muss, wie KI-Systeme, die speziell zur Bestätigung, Interaktion und Nachahmung entwickelt wurden, mit den kognitiven Schwachstellen interagieren könnten, die bekanntermaßen Psychosen kennzeichnen“, schrieb er in einem LinkedIn-Beitrag.
Wir haben wahrscheinlich den Punkt überschritten, an dem Wahnvorstellungen über Maschinen aufkommen, und wir treten in eine Ära ein, in der diese Wahnvorstellungen zusammen mit Maschinen aufkommen.
Co-Autor Tom Pollack, der am King's College in London lehrt, sagte, dass psychiatrische Störungen „selten plötzlich auftreten“, der Einsatz von KI-Chatbots jedoch ein „auslösender Faktor“ sein könnte.
Er forderte KI-Unternehmen dazu auf, ihre Tools mit mehr Sicherheitsmaßnahmen auszustatten und Psychiater in ihre KI-Sicherheitsteams aufzunehmen.
The Independent hat OpenAI um eine Stellungnahme zu diesem Phänomen gebeten. Das Unternehmen hatte zuvor erklärt, es müsse „die Messlatte in Bezug auf Sicherheit, Compliance und Sensibilität im Hinblick auf die tatsächliche Nutzung von KI in seinem Leben weiter höher legen“.
OpenAI-CEO Sam Altman sagte im Mai in einem Podcast, dass sein Unternehmen Schwierigkeiten habe, wirksame Sicherheitsmaßnahmen für gefährdete ChatGPT-Benutzer zu implementieren.
Wir haben noch nicht herausgefunden, wie wir die Warnung an Benutzer übermitteln können, die psychisch so labil sind, dass sie kurz vor einem psychotischen Zusammenbruch stehen.
Eine Vorabversion des Artikels „Delusions by design? How everyday AIs might be fuelling psychosis (and what can be done about it)“ wurde auf PsyArXiv veröffentlicht.
Cumhuriyet