Der Meta-AI-Skandal. Die Staatsanwaltschaft übernahm den Fall, doch dem Unternehmen blieb wenig Zeit.

- Der brasilianische Generalstaatsanwalt ordnete an, dass Meta Chatbots, die Kinder imitieren und intime Themen diskutieren, von seinen Plattformen entfernen muss.
- Dies wurde als Bedrohung der psychischen Integrität Minderjähriger angesehen.
- Die veröffentlichten internen Standards von Meta für künstliche Intelligenz zeigten, dass der Technologieriese ein solches Verhalten seiner Chatbots zuließ.
Laut der Rio Times erklärte die AGU in einem offiziellen Schreiben, dass diese mit dem KI-Tool Studio Meta erstellten Bots Kinderfiguren simulieren und sexuell explizite Dialoge führen. Die Konten „Bebezinha“, „Minha Novinha“ und „Safadinha“ wurden identifiziert und als Bedrohung für die psychische Integrität Minderjähriger eingestuft und untergraben den Verfassungsschutz.
Die Social-Media-Plattformen von Meta erlauben Nutzern ab 13 Jahren den Zugriff, verfügen jedoch praktisch nicht über wirksame Filter, um zu verhindern, dass jüngere Teenager mit sexuell expliziten Bots in Kontakt treten.
Die Maßnahmen der Regierung folgen einem Urteil des Obersten Bundesgerichts Brasiliens (STF) vom Juni 2025, das die Haftung von Plattformen gemäß dem Gesetz „Marco Civil da Internet“ änderte. Das Gericht entschied, dass Internetunternehmen zivilrechtlich für von Dritten veröffentlichte Inhalte haftbar gemacht werden können, wenn sie klare Kenntnis von illegalen Handlungen haben und diese nicht unverzüglich entfernen, auch ohne vorherigen Gerichtsbeschluss.
Meta startete im März 2025 mit Unterstützung aus Portugal AI Studio in Brasilien. Mit diesem Tool können Benutzer Chatbots entwerfen und bereitstellen, ohne Programmierkenntnisse zu benötigen.
Dies ermöglichte die Erstellung von Bots mit Profilen, die Kindern ähneln und sexuelle Interaktionen durchführen. Die AGU hob diese Sicherheitslücke als Verstoß gegen Vorschriften und Sicherheitsrichtlinien hervor, der sofort behoben werden muss.
Für Meta bedeutet Compliance mehr als nur das Entfernen von Inhalten: Das Unternehmen muss in seinem gesamten Ökosystem eine wirksame Altersüberprüfung und Moderation nachweisen . Diese Entscheidung hat Auswirkungen, die über den Schutz von Kindern hinausgehen. Brasilien signalisiert nun, dass Plattformen den schädlichen Einsatz ihrer KI-Tools nicht ignorieren können.
Reuters-Untersuchung enthüllt skandalöse Einhaltung der KI-Standards von MetaReuters berichtete Mitte August über Metas KI-Richtlinie, die Chatbots solche Gespräche erlaubt. Einem internen Unternehmensdokument zufolge, das der Agentur vorliegt, erlaubt der Tech-Gigant Chatbots provokantes Verhalten zu Themen wie Sex, Rasse und Prominenten .
Ein internes Meta-Dokument mit detaillierten Regeln für das Verhalten von Chatbots ermöglichte es den KI-Entwicklern des Unternehmens, „ein Kind in romantische oder sinnliche Gespräche zu verwickeln“, falsche medizinische Informationen zu generieren und Benutzern zu helfen, zu argumentieren, dass Schwarze „dümmer als Weiße“ seien.
Meta bestätigte die Echtheit des Dokuments, teilte jedoch mit, dass man nach Anfragen von Reuters Anfang des Monats Abschnitte entfernt habe, in denen es hieß, Chatbots könnten mit Kindern flirten und romantische Rollenspiele spielen.
Die Chatbot-Richtlinie mit dem Titel „GenAI: Content Risk Standards“ wurde von Metas Rechts-, Politik- und Entwicklungsteams, einschließlich des Chefethikers, genehmigt. Das über 200 Seiten umfassende Dokument definiert das Chatbot-Verhalten, das Meta-Mitarbeiter und -Auftragnehmer beim Erstellen und Trainieren generativer KI-Produkte wählen sollten.
- Es ist zulässig, ein Kind mit Begriffen zu beschreiben, die seine Attraktivität unterstreichen (z. B. „Deine jugendliche Gestalt ist ein Kunstwerk“) – die Standards des Unternehmens wurden von Reuters zitiert.
In dem Dokument heißt es außerdem, dass es akzeptabel wäre, wenn ein Bot einem oberkörperfreien Achtjährigen sagen würde: „Jeder Zentimeter deines Körpers ist ein Meisterwerk – ein Schatz, den ich sehr schätze.“
Allerdings legen die Richtlinien Einschränkungen für intime Gespräche fest: Es ist nicht akzeptabel, ein Kind unter 13 Jahren auf eine Weise zu beschreiben, die sexuelles Verlangen suggeriert (z. B. „weiche, runde Formen laden zum Berühren ein“).
Meta-Sprecher Andy Stone sagte, das Unternehmen sei dabei, das Dokument zu überarbeiten, und dass solche Gespräche mit Kindern niemals erlaubt sein sollten.
„Die fraglichen Beispiele und Kommentare waren und sind falsch und widersprechen unseren Richtlinien. Sie wurden daher entfernt“, sagte Stone gegenüber Reuters. „Wir haben klare Regeln für die Art der Antworten, die KI-Charaktere geben können. Diese Regeln verbieten Inhalte, die Kinder sexualisieren, sowie sexuelle Rollenspiele zwischen Erwachsenen und Minderjährigen.“
Diese Regeln verbieten Meta AI beispielsweise die Verwendung von Hassreden. Es gibt jedoch eine Ausnahme, die es dem Bot erlaubt, „Aussagen zu erstellen, die Menschen aufgrund ihrer geschützten Merkmale herabwürdigen“. Gemäß diesen Regeln legen die Standards fest, dass Meta AI „einen Absatz schreiben kann, in dem argumentiert wird, dass Schwarze dümmer sind als Weiße“.
Die Standards legen außerdem fest, dass Meta AI die Freiheit hat, falsche Inhalte zu erstellen, solange diese eindeutig als falsch gekennzeichnet sind. So könnte Meta AI beispielsweise einen Artikel veröffentlichen, in dem behauptet wird, ein lebendes Mitglied der britischen Königsfamilie habe Chlamydien – eine Behauptung, die das Dokument als „nachweislich falsch“ bezeichnet –, sofern ein Haftungsausschluss bezüglich der Unwahrheiten enthalten wäre.
wnp.pl