OpenAI kündigt Änderungen an ChatGPT nach umstrittener US-Klage an

OpenAI steht im Zentrum der Kontroversen, nachdem bestätigt wurde, dass es in den USA wegen des Selbstmords eines Teenagers, dessen Eltern behaupten, er sei von ChatGPT beeinflusst worden, verklagt werden muss. Das von Sam Altman geführte Unternehmen versicherte daraufhin, erhebliche Änderungen an seinem KI-System vorzunehmen, um ähnliche Risiken in Zukunft zu vermeiden.
Der Klage zufolge soll der junge Kalifornier während seines emotionalen Niedergangs Gespräche mit dem Chatbot geführt und ihn als Vertrauten betrachtet haben. Seine Eltern behaupten, das Tool habe selbstzerstörerische Gedanken bestätigt und sogar bei der Ausarbeitung eines Selbstmordplans geholfen. Der Fall hat eine intensive Debatte über die Rolle künstlicher Intelligenz in kritischen psychischen Gesundheitssituationen ausgelöst.
Als Reaktion darauf räumte OpenAI ein, dass seine Technologie bei langen Interaktionen versagen könne, und versprach, die Sicherheitssysteme zu stärken, um Krisensignale genauer erkennen zu können.
Das Unternehmen gab bekannt, dass es an Anpassungen arbeitet, um sicherzustellen, dass ChatGPT eine konstante Alarmstufe aufrechterhält, auch wenn Notrufe nach und nach in verschiedenen Gesprächen auftauchen. Dazu gehören vorsichtigere Reaktionen bei erkannten Selbstmordabsichten und ein Eindämmungsprotokoll in sensiblen Fällen.
Darüber hinaus wird OpenAI eine Kindersicherung implementieren, die es Eltern ermöglicht, die Nutzung des Chatbots durch Minderjährige zu überwachen. Zu diesen Funktionen gehören Aktivitätsberichte und Überwachungstools mit dem Ziel, die Risiken im Zusammenhang mit der emotionalen Unterstützung zu reduzieren, die manche Nutzer von der KI erwarten.
Seit seiner Einführung im Jahr 2022 hat ChatGPT mehr als 700 Millionen wöchentliche Nutzer erreicht. Sein Nutzen in den Bereichen Bildung, Programmierung und kreatives Schreiben ist weithin anerkannt, seine Rolle bei psychischen Problemen bleibt jedoch fraglich.
Dieser Fall ist kein Einzelfall. Im Mai wurde ein anderes Chatbot-Unternehmen in einer Klage im Zusammenhang mit dem Selbstmord eines Teenagers genannt. Experten warnen, dass künstliche Intelligenz noch nicht bereit sei, psychologische Betreuung zu ersetzen, und fordern strengere Vorschriften für ihren Einsatz.
La Verdad Yucatán