OpenAI plant Änderungen an ChatGPT, nachdem in einer Klage der Chatbot für den Selbstmord eines Teenagers verantwortlich gemacht wurde

OpenAI erläutert seine Pläne zur Behebung der Mängel von ChatGPT im Umgang mit „sensiblen Situationen“, nachdem eine Familie Klage eingereicht hatte, die den Chatbot für den Selbstmord ihres jugendlichen Sohnes verantwortlich machte.
„Wir werden uns unter Anleitung von Experten und aus Verantwortung gegenüber den Menschen, die unsere Tools nutzen, weiter verbessern – und wir hoffen, dass andere sich uns anschließen und dazu beitragen, dass diese Technologie die Menschen in ihren schwächsten Momenten schützt“, schrieb OpenAI am Dienstag in einem Blogbeitrag mit dem Titel „Menschen helfen, wenn sie es am meisten brauchen“.
Am Dienstag reichten die Eltern von Adam Raine eine Produkthaftungsklage gegen OpenAI ein, nachdem ihr Sohn im Alter von 16 Jahren Selbstmord begangen hatte, berichtete NBC News . In der Klage gab die Familie an, dass „ChatGPT Adam aktiv dabei geholfen hat, Selbstmordmethoden zu erforschen.“
Das Unternehmen erwähnte in seinem Blogbeitrag weder die Familie Raine noch die Klage.
OpenAI erklärte, dass ChatGPT zwar darauf trainiert sei, Menschen bei Selbstmordabsichten anzuweisen, Hilfe zu suchen, der Chatbot aber nach vielen Nachrichten über einen längeren Zeitraum dazu neige, Antworten zu geben, die den Sicherheitsvorkehrungen des Unternehmens zuwiderlaufen.
Das Unternehmen sagte, es arbeite außerdem an einem Update seines Anfang des Monats veröffentlichten GPT-5-Modells, das den Chatbot dazu bringen soll, Gespräche zu deeskalieren. Außerdem werde untersucht, wie man „Menschen mit zertifizierten Therapeuten verbinden kann, bevor sie in eine akute Krise geraten“, einschließlich der Möglichkeit, ein Netzwerk von zugelassenen Fachleuten aufzubauen, das die Benutzer direkt über ChatGPT erreichen könnten.
Darüber hinaus untersucht OpenAI nach eigenen Angaben, wie Benutzer mit „denen, die ihnen am nächsten stehen“, wie Freunden und Familienmitgliedern, verbunden werden können.
Was Teenager betrifft, kündigte OpenAI an, dass es bald Kontrollen einführen wird, die Eltern die Möglichkeit geben, mehr Einblick in die Nutzung von ChatGPT durch ihre Kinder zu erhalten.
Jay Edelson, der leitende Anwalt der Familie Raine, sagte gegenüber CNBC am Dienstag, dass sich niemand von OpenAI direkt an die Familie gewandt habe, um ihr Beileid auszusprechen oder über etwaige Bemühungen zur Verbesserung der Sicherheit der Produkte des Unternehmens zu sprechen.
„Wenn man die leistungsstärkste Verbrauchertechnologie der Welt nutzen will, muss man darauf vertrauen, dass die Gründer einen moralischen Kompass haben“, sagte Edelson. „Das ist die Frage für OpenAI im Moment: Wie kann man ihnen vertrauen?“
Raines Geschichte ist kein Einzelfall.
Die Autorin Laura Reiley veröffentlichte Anfang des Monats einen Essay in der New York Times, in dem sie schilderte, wie ihre 29-jährige Tochter Selbstmord beging, nachdem sie die Idee ausführlich mit ChatGPT besprochen hatte. Und in einem Fall in Florida beging der 14-jährige Sewell Setzer III letztes Jahr Selbstmord, nachdem er mit einem KI-Chatbot der App Character.AI darüber gesprochen hatte.
Mit der zunehmenden Beliebtheit von KI-Diensten gibt es zahlreiche Bedenken hinsichtlich ihrer Verwendung für Therapien, als Begleiter oder für andere emotionale Bedürfnisse.
Doch auch die Regulierung der Branche könnte sich als schwierig erweisen.
Am Montag kündigte eine Koalition aus KI-Unternehmen, Risikokapitalgebern und Führungskräften, darunter auch OpenAI-Präsident und Mitbegründer Greg Brockman, „Leading the Future“ an, eine politische Initiative, die sich im Bereich KI „einer Politik widersetzen wird, die Innovationen hemmt“.
Wenn Sie Selbstmordgedanken haben oder sich in einer Notlage befinden, wenden Sie sich an die Suicide & Crisis Lifeline unter 988, um Unterstützung und Hilfe von einem ausgebildeten Berater zu erhalten.
SEHEN SIE: OpenAI sagt, Musks Einreichung stehe „im Einklang mit seinem anhaltenden Muster der Belästigung
CNBC