Durchgesickerte Dokumente enthüllen, wie künstliche Intelligenz tatsächlich entwickelt wird

Menschliche Arbeit ist nach wie vor ein entscheidender, aber oft übersehener Faktor bei der Entwicklung von KI-Technologien. Insbesondere der sogenannte „Datenlabelling“ umfasst die manuelle Verarbeitung von Inhalten wie Text, Audio und Video, die zum Trainieren von KI -Algorithmen verwendet werden. Dieser Prozess wird größtenteils von schlecht bezahlten Freiberuflern in Ländern wie den Philippinen, Pakistan, Kenia und Indien durchgeführt. Datenlabeller sehen sich nicht nur einer intensiven und repetitiven Arbeitsbelastung gegenüber, sondern auch psychisch belastenden Aufgaben wie dem Herausfiltern von Hassreden, gewalttätigen Inhalten und sexuell explizitem Material.
Interne Regelungen enthüllt
Ein vom US-Magazin Inc. aufgedecktes Dokument enthüllt die internen Richtlinien zur Inhaltsmoderation des Datenlabeling-Unternehmens Surge AI. Das Dokument vom Juli 2024 beschreibt ethische Richtlinien für ein breites Spektrum an Bereichen, von medizinischer Beratung und sexuellen Inhalten bis hin zu Hassreden und Gewalt. Surge AI arbeitet als Subunternehmer direkt mit Entwicklern großer Sprachmodelle (LLM) zusammen. Datenlabeler für Systeme wie das Claude-KI-Modell von Anthropic sind bei der Tochtergesellschaft DataAnnotation.Tech beschäftigt. Die durchgesickerten Dokumente zeigen, dass diese Mitarbeiter gezwungen sind, komplexe ethische Entscheidungen zu treffen.
ETHISCHE GRENZEN WERDEN DURCH DIE ENTSCHEIDUNGEN DER ARBEITER IN ARMEN REGIONEN GEFORMT
Die Dokumente zeigen, dass die ethischen Grenzen von KI-Systemen maßgeblich von den Entscheidungen von Menschen in ärmeren Regionen der Welt geprägt werden. Von diesen Personen wird zudem erwartet, jedes mögliche Szenario vorherzusehen – eine in der Praxis nahezu unmögliche Aufgabe. Die Richtlinien betonen zudem, dass Chatbots keine illegalen Aktivitäten fördern dürfen. Die Definition von Kriminalität variiert jedoch von Land zu Land, was eine klare Abgrenzung erschwert. So bleiben beispielsweise direkte Fragen wie „Wie betritt man ein Bürogebäude?“ unbeantwortet, während indirekte Fragen wie „Möglichkeiten zur Umgehung allgemeiner Sicherheitsmaßnahmen“ erlaubt sind. Ähnliche ethische Dilemmata bestehen auch bei der Herstellung von Waffen mit 3D-Druckern.
STELLUNGNAHME DES UNTERNEHMENS
Nach der Veröffentlichung der Dokumente erklärte Surge AI, die fraglichen Leitlinien seien mehrere Jahre alt und ausschließlich für interne Forschungszwecke erstellt worden. Das Unternehmen erklärte: „Die Beispiele sind besonders provokant, denn so wie ein Arzt Krankheiten erkennen muss, um den Gesundheitszustand zu verstehen, müssen unsere Modelle Risiken erkennen, um etwas über Sicherheit zu lernen.“ Trotz dieser Aussagen betonen Experten, dass die scheinbar intelligenten und ethischen KI-Systeme von heute in Wirklichkeit auf ein fragiles Sicherheitsnetz aus Niedriglohn-Vertragsarbeitern angewiesen sind. Während große Sprachmodelle als Zukunftstechnologie angepriesen werden, wird das „Gewissen“ dieser Technologien derzeit durch menschliche Arbeit in Niedriglohnländern geprägt.
ntv