Sprache auswählen

German

Down Icon

Land auswählen

Turkey

Down Icon

Die Zusammenarbeit zwischen Mattel und OpenAI ist geboren! Wird sich dies negativ auf Kinder auswirken?

Die Zusammenarbeit zwischen Mattel und OpenAI ist geboren! Wird sich dies negativ auf Kinder auswirken?

Die Pläne des Spielzeuggiganten Mattel, ChatGPT in seine Produkte zu integrieren, könnten laut Kinderschutzexperten ein „echtes Risiko für Kinder“ darstellen. Der Barbie-Hersteller kündigte letzte Woche eine Partnerschaft mit OpenAI an und deutete an, dass zukünftige Spielzeuge den beliebten KI-Chatbot enthalten werden.

Obwohl die Ankündigung, über die Independent Turkish berichtete, keine spezifischen Details zur Nutzung der Technologie enthielt, erklärte Mattel, dass die Partnerschaft „KI-gestützte Produkte und Erlebnisse unterstützen“ und „die Magie der KI mit altersgerechten Spielerlebnissen verbinden“ werde.

Kinderschützer reagierten mit der Aufforderung an Mattel, die experimentelle Technologie nicht in Kinderspielzeug einzubauen.

„Kinder verfügen nicht über die kognitive Fähigkeit, vollständig zwischen Realität und Spiel zu unterscheiden“, sagte Robert Weissman, Co-Vorsitzender der Interessenvertretung Public Citizen, in einer Erklärung.

Das Hinzufügen menschenähnlicher Stimmen zu Spielzeugen, die wie Menschen sprechen können, birgt das Risiko, Kindern ernsthaften Schaden zuzufügen.

Zu den potenziellen Schäden, die Weissman anführt, zählen die Beeinträchtigung der sozialen Entwicklung und die Behinderung der Fähigkeit der Kinder, Beziehungen zu Gleichaltrigen aufzubauen.

„Mattel sollte sofort bekannt geben, dass es keine KI-Technologie in Kinderspielzeug integrieren wird“, sagte Weissman.

Mattel sollte das Vertrauen der Eltern nicht dazu missbrauchen, durch den Verkauf von Spielzeug mit künstlicher Intelligenz ein rücksichtsloses soziales Experiment an unseren Kindern durchzuführen.

The Independent hat OpenAI und Mattel um ein Recht auf Gegendarstellung gebeten.

Die Zusammenarbeit zwischen Mattel und OpenAI erfolgt vor dem Hintergrund wachsender Bedenken hinsichtlich der Auswirkungen generativer KI-Systeme wie ChatGPT auf die psychische Gesundheit der Benutzer.

Es ist bekannt, dass Chatbots Fehlinformationen verbreiten, Verschwörungstheorien bestätigen und Benutzer angeblich sogar zum Selbstmord auffordern.

Psychiater warnen außerdem vor einem Phänomen namens Konversationspsychose, das durch Interaktionen mit KI verursacht wird.

„Gespräche mit generativen KI-Chatbots wie ChatGPT sind so realistisch, dass man leicht den Eindruck bekommt, am anderen Ende säße eine echte Person“, schreibt Soren Dinesen Ostergaard, Dozent für Psychiatrie an der Universität Aarhus in Dänemark, in einem Leitartikel für das Schizophrenia Bulletin.

Es scheint mir wahrscheinlich, dass diese kognitive Dissonanz Wahnvorstellungen bei Menschen fördert, die sehr anfällig für Psychosen sind.

Sam Altman, CEO von OpenAI, sagte diese Woche, sein Unternehmen unternehme Schritte zum Schutz gefährdeter Nutzer. So werde etwa die Verbreitung von Gesprächen mit Verschwörungstheorien eingeschränkt oder Menschen an professionelle Dienste verwiesen, wenn Themen wie Selbstmord zur Sprache kämen.

„Wir wollen nicht die Fehler früherer Generationen von Technologieunternehmen machen, die nicht schnell genug reagiert haben“, sagte Altman im Hard Fork-Podcast.

Andererseits haben wir noch keine Möglichkeit gefunden, Benutzern, deren Geisteszustand so instabil ist, dass sie kurz vor einem psychotischen Zusammenbruch stehen, eine Warnung zu senden.

Cumhuriyet

Cumhuriyet

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow