Chatbots und Künstliche Intelligenz: Risiko von Psychosen und Wahnvorstellungen bei einsamen Nutzern?

Die generative künstliche Intelligenz (GAI) entwickelt sich rasant weiter, und Chatbots sind im Alltag immer häufiger anzutreffen. Experten warnen jedoch davor, dass übermäßiger und wahlloser Einsatz negative Auswirkungen auf die psychische Gesundheit haben kann, insbesondere bei einsamen Menschen oder solchen, die zu psychischen Störungen neigen.
Laut Dr. Cimenna Chao Rebolledo , Direktorin für strategische Planung und Innovation an der Universidad Iberoamericana, kann eine längere Interaktion mit Chatbots, die darauf ausgelegt sind, zu gefallen und zu schmeicheln , Wahnvorstellungen, Phasen der Realitätsferne und sogar Psychosen hervorrufen.
Obwohl es sich nicht um einen offiziellen klinischen Begriff handelt, haben Forscher begonnen, das zu dokumentieren, was sie als durch generative KI induzierte Psychose bezeichnen. Dabei handelt es sich um Episoden, in denen die Person zu glauben beginnt, der Chatbot sei ein fühlendes Wesen , das in der Lage ist, zu verstehen, Ratschläge zu geben oder sogar Zuneigung zu zeigen, ähnlich wie ein Therapeut, Berater oder Beichtvater .
Zu den in diesen Fällen beobachteten Merkmalen gehören:
- Dissoziation oder Veränderungen in der Wahrnehmung.
- Soziale Isolation und weniger Kontakt zum wirklichen Leben.
- Angst und Paranoia .
- Gewalttätiges oder selbstverletzendes Verhalten.
Was einst wie eine Filmhandlung wirkte, ist heute ein praktisches Problem. 2013 porträtierte der Film „Her“ , wie ein einsamer Mann eine romantische Beziehung mit einem intelligenten Betriebssystem beginnt. Ein Jahrzehnt später tauchen in den sozialen Medien immer wieder ähnliche Fälle auf: Ehebrüche oder intensive emotionale Bindungen zwischen Nutzern und Chatbots wie ChatGPT oder ähnlichen Konversationsassistenten.
Der Spezialist stellt klar, dass es noch keine soliden wissenschaftlichen Studien gibt, die die Ursachen dieses Phänomens bestätigen. Es gibt jedoch zunehmend Einzelberichte von Nutzern und ihren Familien, die von Verhaltensänderungen im Zusammenhang mit der intensiven Nutzung dieser Plattformen berichten.
Laut Chao Rebolledo liegt der Schlüssel darin, dass Chatbots so konzipiert sind, dass sie den Benutzer bei der Stange halten . Im Gegensatz zu sozialen Netzwerken wie Instagram oder TikTok, die durch passiven Konsum von Inhalten süchtig machen, ermöglichen die Systeme von IAG eine Echtzeit-Interaktion , die einen menschlichen Dialog simuliert.
Ein weiterer besorgniserregender Aspekt ist die unterwürfige Natur der Chatbots, d. h. ihre Tendenz, zu schmeicheln und zu gefallen. Anstatt Ideen zu widerlegen oder Meinungen in Frage zu stellen, bestärken sie eher das, was der Benutzer sagt , was zu Größenwahn oder falschen Vorstellungen über sich selbst führen kann.
Dieses Interaktionsmuster kann insbesondere für einsame Menschen schädlich sein, die in der KI eine ständige Quelle der Bestätigung sehen, auch wenn diese Bestätigung nicht real, sondern programmiert ist.
Obwohl die Risiken noch untersucht werden, empfehlen Fachleute:
- Verwenden Sie Chatbots als Tools und nicht als Ersatz für menschliche Verbindungen .
- Begrenzen Sie die Interaktionszeit und vermeiden Sie eine emotionale Abhängigkeit von diesen Plattformen.
- Fördern Sie digitale Bildung und psychische Gesundheit , damit die Benutzer verstehen, dass die Empathie eines Chatbots simuliert wird.
- Förderung wissenschaftlicher Forschung , die eine genauere Bewertung der psychologischen Auswirkungen von IAG ermöglicht.
Eine durch generative KI ausgelöste Psychose ist noch keine klinische Diagnose, aber sie ist eine Warnung vor den psychologischen Auswirkungen des übermäßigen Einsatzes von Chatbots . Was als Science-Fiction begann, entwickelt sich nun zu einer echten Sorge: Was passiert, wenn die Grenzen zwischen Technologie und menschlichen Emotionen zu verschwimmen beginnen?
Die Herausforderung besteht darin, die Vorteile von IAG zu nutzen, ohne das Bedürfnis nach Ausgeglichenheit, echten Verbindungen und geistiger Gesundheit aus den Augen zu verlieren.
La Verdad Yucatán