Mann vergiftet sich versehentlich selbst, nachdem er eine von ChatGPT empfohlene Diät befolgt hatte, die bei ihm Halluzinationen auslöste

Veröffentlicht: | Aktualisiert:
Ein Mann in Washington hat sich versehentlich selbst vergiftet, nachdem er eine vonChatGPT erstellte Diät befolgt hatte.
Der 60-jährige Mann, dessen Name nicht genannt wurde, eilte in die Notaufnahme seines Wohnorts, da er den Verdacht hatte, sein Nachbar habe ihn vergiftet.
Etwa einen Tag nach seiner Einlieferung ins Krankenhaus litt er außerdem unter Paranoia und Halluzinationen und versuchte, aus dem Krankenhaus zu fliehen.
Der Mann gab später zu, dass er in seiner Ernährung mehrere Einschränkungen habe. So destilliere er beispielsweise sein Wasser selbst und ernähre sich „extrem restriktiv“ vegetarisch.
Er erzählte den Ärzten, dass er ChatGPT gebeten habe, Natriumchlorid bzw. Speisesalz aus seiner Ernährung zu streichen, nachdem er über die Schädlichkeit von Natriumchlorid bzw. Speisesalz gelesen hatte.
Der Chatbot riet ihm angeblich, Salz unbedenklich durch Natriumbromid zu ersetzen, das im frühen 20. Jahrhundert als Beruhigungsmittel verwendet wurde und heute in Antiepileptika für Hunde und Menschen enthalten ist.
Er befolgte diese Empfehlung drei Monate lang und entwickelte schließlich einen Bromismus, eine Bromidvergiftung.
Bromid kann sich im Körper ansammeln und die Nervenfunktion beeinträchtigen. Dieser Zustand wird als Bromismus bezeichnet. Dies führt zu Verwirrung, Gedächtnisverlust, Angstzuständen, Wahnvorstellungen, Hautausschlägen und Akne, die auch der Mann hatte.
Ein Mann in Washington zog sich eine Bromidvergiftung zu, indem er den Empfehlungen von ChatGPT folgte (Archivbild).
Die den Mann behandelnden Ärzte der University of Washington in Seattle wiederholten seine Suche und erhielten denselben falschen Rat.
Sie warnten, der Fall zeige, „wie der Einsatz künstlicher Intelligenz möglicherweise zur Entwicklung vermeidbarer negativer gesundheitlicher Folgen beitragen kann“.
Sie sagten, ChatGPT und andere Chatbots könnten „wissenschaftliche Ungenauigkeiten erzeugen, die Fähigkeit zur kritischen Diskussion von Ergebnissen vermissen lassen und letztlich die Verbreitung von Fehlinformationen fördern“.
Die anonyme Fallstudie, die Anfang des Monats in den Annals of Internal Medicine veröffentlicht wurde, erscheint eine Woche, nachdem OpenAI behauptet hatte, eines der neuesten Upgrades des Chatbots könne gesundheitsbezogene Fragen besser beantworten und „potenzielle Bedenken kennzeichnen“.
Allerdings heißt es in den Richtlinien von ChatGPT, dass es „nicht für die Diagnose oder Behandlung von Gesundheitszuständen vorgesehen“ sei.
Der Patient schien über eine frühere Version der Software zu verfügen.
Nach einem Fluchtversuch aus dem Krankenhaus wurde der Mann unfreiwillig in psychiatrische Behandlung genommen und erhielt große Mengen Flüssigkeit und Elektrolyte, um das Bromid aus seinem Körper zu spülen.
Sein Bromidspiegel lag bei 1.700 mg/l, während der Normalbereich zwischen 0,9 und 7,3 mg/l liegt.
Bromid wurde im 19. und 20. Jahrhundert als Beruhigungsmittel verwendet und war einst in verschreibungspflichtigen und rezeptfreien Medikamenten weit verbreitet. Als die Forschung jedoch das Risiko einer chronischen Exposition aufdeckte, begannen die Behörden, es nach und nach aus dem US-amerikanischen Arzneimittelangebot zu entfernen.
Aus diesem Grund sind die Fälle heute noch sehr selten.
Der Mann gab außerdem an, sein eigenes Wasser zu destillieren und eine „extrem restriktive“ vegetarische Ernährung einzuhalten (Symbolbild).
Die Fallstudie kommt, nachdem OpenAI behauptet hatte, eines der neuesten Upgrades des Chatbots könne gesundheitsbezogene Fragen besser beantworten und „potenzielle Bedenken aufzeigen“.
Der Mann berichtete von Akne und kleinen roten Wucherungen auf seiner Haut, Schlaflosigkeit, Müdigkeit, Problemen mit der Muskelkoordination und übermäßigem Durst.
Es dauerte drei Wochen, bis sich sein Bromidspiegel stabilisiert hatte und er von den Psychopharmaka entwöhnt werden konnte, bevor er entlassen werden konnte.
Die ihn behandelnden Ärzte schrieben: „KI ist zwar ein Werkzeug mit großem Potenzial, das eine Brücke zwischen Wissenschaftlern und der nichtakademischen Bevölkerung schlagen kann, birgt aber auch das Risiko, dass sie Informationen ohne Kontext verbreitet.“
„Es ist höchst unwahrscheinlich, dass ein medizinischer Experte Natriumbromid erwähnt hätte, wenn ein Patient nach einem brauchbaren Ersatz für Natriumchlorid gesucht hätte.“
Sie betonten außerdem, dass „Anbieter mit der zunehmenden Nutzung von KI-Tools dies berücksichtigen müssen, wenn sie prüfen, wo ihre Patienten Gesundheitsinformationen konsumieren.“
Daily Mail