Sprache auswählen

German

Down Icon

Land auswählen

Netherlands

Down Icon

Hunderte von Google-KI-Mitarbeitern wurden im Kampf um die Arbeitsbedingungen entlassen

Hunderte von Google-KI-Mitarbeitern wurden im Kampf um die Arbeitsbedingungen entlassen
Über 200 Vertragsarbeiter, die an der Verbesserung von Googles KI-Produkten wie Gemini und AI Overviews arbeiten, wurden laut Quellen entlassen. Es ist die jüngste Entwicklung in einem Konflikt um Bezahlung und angeblich schlechte Arbeitsbedingungen.
Mitarbeiter betreten am 23. Juli 2025 ein Gebäude auf dem Gelände der Google-Zentrale in Mountain View, Kalifornien. Foto: Justin Sullivan; Getty Images

Mehr als 200 Vertragsarbeiter, die an der Evaluierung und Verbesserung von Googles KI- Produkten arbeiteten, wurden im vergangenen Monat in mindestens zwei Entlassungswellen ohne Vorwarnung entlassen. Der Schritt erfolgte inmitten eines anhaltenden Kampfes um Bezahlung und Arbeitsbedingungen, wie Arbeiter gegenüber WIRED berichteten.

In den letzten Jahren hat Google seine KI-Bewertungsarbeit – zu der das Bewerten, Bearbeiten oder Umschreiben der Antworten des Gemini-Chatbots gehört, um sie menschlicher und „intelligenter“ klingen zu lassen – an Tausende von Vertragspartnern des zu Hitachi gehörenden Unternehmens GlobalLogic und anderer Outsourcing-Unternehmen ausgelagert. Die meisten Bewerter bei GlobalLogic sind in den USA ansässig und bearbeiten englischsprachige Inhalte. So wie Content-Moderatoren dabei helfen, Inhalte in sozialen Medien zu bereinigen und zu klassifizieren, nutzen diese Mitarbeiter ihr Fachwissen, ihre Fähigkeiten und ihr Urteilsvermögen, um Chatbots und anderen KI-Produkten – darunter Googles Funktion für Suchzusammenfassungen namens „AI Overviews“ – die richtigen Antworten zu einer Vielzahl von Themen beizubringen. Die Mitarbeiter behaupten, die jüngsten Kürzungen seien auf Versuche zurückzuführen, ihre Proteste gegen Themen wie Bezahlung und Arbeitsplatzunsicherheit zu unterdrücken.

Diese Arbeitnehmer, die oft aufgrund ihrer Fachkenntnisse eingestellt werden, mussten entweder einen Master- oder Doktortitel besitzen, um am Super-Rater-Programm teilnehmen zu können. In der Regel handelt es sich dabei um Schriftsteller, Lehrer und Menschen aus kreativen Bereichen.

„Ich wurde einfach rausgeschmissen“, sagt Andrew Lauzon, der am 15. August eine E-Mail mit der Nachricht seiner Kündigung erhielt. „Ich fragte nach dem Grund und sie sagten, das Projekt würde heruntergefahren – was auch immer das bedeutet.“ Er kam im März 2024 zu GlobalLogic, wo seine Arbeit von der Bewertung von KI-Ergebnissen bis hin zur Entwicklung verschiedener Eingabeaufforderungen für das Modell reichte.

Laut Lauzon zeige dieser Schritt des Unternehmens die Unsicherheit solcher Jobs in der Inhaltsmoderation. Er behauptet, GlobalLogic habe in diesem Jahr begonnen, regelmäßig Mitarbeiter zu entlassen. „Wie sollen wir uns in diesem Job sicher fühlen, wenn wir wissen, dass wir jederzeit gehen könnten?“, fügte er hinzu.

Die noch im Unternehmen beschäftigten Mitarbeiter geben an, zunehmend besorgt zu sein, dass sie sich selbst ersetzen sollen. Internen Dokumenten zufolge, die WIRED einsehen konnte, scheint GlobalLogic diese menschlichen Bewerter einzusetzen, um das KI-System von Google zu trainieren, das die Antworten automatisch bewerten könnte, mit dem Ziel, sie durch KI zu ersetzen.

Gleichzeitig sucht das Unternehmen nach Möglichkeiten, sich von seinen derzeitigen Mitarbeitern zu trennen, während es weiterhin neue Mitarbeiter einstellt. Im Juli verpflichtete GlobalLogic seine Mitarbeiter in Austin, Texas, laut einer Mitteilung, die WIRED vorliegt, zur Rückkehr ins Büro. Dies hatte direkte Auswirkungen auf mehrere Mitarbeiter, die sich die Fahrt ins Büro aus finanziellen Gründen nicht leisten konnten oder aufgrund von Behinderungen oder Pflegepflichten nicht zur Arbeit gehen konnten.

Obwohl sie anspruchsvolle und anspruchsvolle Arbeit verrichten, berichten acht Arbeiter, die mit WIRED sprachen, von Unterbezahlung, mangelnder Arbeitsplatzsicherheit und ungünstigen Arbeitsbedingungen. Quellen zufolge haben diese Bedingungen die Arbeitsmoral beeinträchtigt und die Fähigkeit der Arbeiter beeinträchtigt, ihre Arbeit gut zu erledigen. Einige Vertragspartner versuchten Anfang des Jahres, sich gewerkschaftlich zu organisieren, behaupteten jedoch, diese Bemühungen seien im Keim erstickt worden. Nun werfen sie dem Unternehmen Vergeltungsmaßnahmen vor. Zwei Arbeiter haben beim National Labor Relations Board Beschwerde eingereicht und behaupten, sie seien ungerechtfertigt entlassen worden – der eine, weil er Fragen der Lohntransparenz angesprochen hatte, der andere, weil er sich für sich und seine Kollegen eingesetzt hatte.

„Diese Personen sind Mitarbeiter von GlobalLogic oder deren Subunternehmern, nicht von Alphabet“, erklärte Google-Sprecher Courtenay Mencini in einer Erklärung. „Als Arbeitgeber sind GlobalLogic und deren Subunternehmer für die Beschäftigungs- und Arbeitsbedingungen ihrer Mitarbeiter verantwortlich. Wir nehmen unsere Lieferantenbeziehungen ernst und prüfen die Unternehmen, mit denen wir zusammenarbeiten, anhand unseres Verhaltenskodex für Lieferanten .“ GlobalLogic lehnte eine Stellungnahme ab.

Ein Jahrzehnt lang verfügte das Softwareunternehmen GlobalLogic über ein Team von „Generalisten-Bewertern“, die bei der Bewertung der Google-Suchergebnisse halfen. Im Frühjahr 2023 bat Google GlobalLogic, ein Team von „Super-Bewertern“ zusammenzustellen, um seine KI-Produkte zu bewerten, beginnend mit AI Overviews.

Ricardo Levario, ein Lehrer aus Texas, gehörte zu den ersten Super-Ratern. Damals arbeitete er an Googles „Search Generative Experience“, bei der die Suchergebnisse eine von KI generierte Zusammenfassung anzeigen – heute „AI Overviews“ genannt. Seine Aufgabe bestand darin, die Leistung des Modells zu ermitteln und dessen Antworten neu zu schreiben, um sicherzustellen, dass sie fundiert waren und die Quellen besser nutzten.

„Nach dem Erfolg [dieses Pilotprojekts] erfuhren wir, dass Google an einer Ausweitung des Programms interessiert war und jede Woche Gruppen von 20 Leuten einstellen wollte“, sagt Levario und fügt hinzu, dass das Unternehmen schließlich bis zu 2.000 Superbewerter einstellte, um an Googles KI zu arbeiten. Die Probleme begannen jedoch, als GlobalLogic begann, externe Auftragnehmer einzusetzen, um die Einstellung zu erhöhen, so Levario. Denn während die Löhne der Superbewerter von GlobalLogic zwischen 28 und 32 Dollar pro Stunde lagen, erhielten die über externe Auftragnehmer eingestellten Superbewerter für dieselbe Arbeit 18 bis 22 Dollar pro Stunde. Das Unternehmen beschäftigt für seine KI-Produkte auch einige Hundert „Generalistenbewerter“, die nicht unbedingt einen höheren Abschluss wie die Superbewerter haben. Einer dieser Generalistenbewerter, Alex, wurde 2023 eingestellt, um die Leistung des Bots anhand der vorgegebenen Richtlinien zu bewerten. Diese umfassten „flauschigere“ Fragen wie die nach dem nächstgelegenen Restaurant, aber auch „nicht so pikante“ Fragen. Sie sagt, dass sie keine „nennbare Gehaltserhöhung“ erhalten habe, obwohl sie in „anspruchsvollere“ Projekte einbezogen wurde. (Alex bat WIRED, sie aus Datenschutzgründen nur mit ihrem Vornamen zu nennen.)

„Wir als Bewerter spielen eine unglaublich wichtige Rolle, denn die Ingenieure haben zwischen dem Herumspielen mit dem Code und allem anderen keine Zeit, den Bot zu optimieren und das nötige Feedback einzuholen“, sagt Alex. „Wir sind wie die Rettungsschwimmer am Strand – wir sorgen dafür, dass nichts Schlimmes passiert.“ Alex konnte sich schließlich eine Vollzeitstelle bei GlobalLogic sichern, gibt aber an, dass rund 80 Prozent ihrer Projektmitarbeiter weiterhin auf Vertragsbasis arbeiten, ohne Sozialleistungen oder bezahlten Urlaub.

Ende 2023 gründeten Arbeiter eine WhatsApp-Gruppe namens „Super Secret Secondary Location“ mit rund 80 Mitgliedern, in der einige von ihnen über Organisationsmöglichkeiten diskutierten. Im Frühjahr 2024 trafen sich einige dieser Arbeiter mit der Alphabet Workers Union, um die Gründung einer GlobalLogic-Gruppe für die KI-Bewerter zu besprechen, damit diese bessere Löhne und Arbeitsbedingungen fordern konnten. „Wir begannen im Untergrund mit dem Aufbau der Bewegung“, sagt Levario. „Wir legten im Wesentlichen den Grundstein für unsere Gewerkschaft und entwickelten unsere Systeme.“ Bis Dezember 2024 hatte ihre Gruppe 18 Mitglieder.

Zu dieser Zeit wuchs der Frust am Arbeitsplatz. Alex war einige Monate zuvor zusammen mit mehreren anderen Mitarbeitern in ein Projekt eingebunden worden, von dem sie zunächst dachte, es würde zu Beförderungen führen. Stattdessen führte es jedoch zu verstärktem Stress am Arbeitsplatz. Alex sagt, bei diesem Projekt sei der Timer für die Aufgaben auf fünf Minuten eingestellt gewesen, was bei ihr und ihren Kollegen die Sorge aufkommen ließ, dass sie „an diesem Punkt auf Kosten der Qualität gehen“. „Ich zähle nicht einmal, wie viele Aufgaben ich an einem Tag schaffe“, sagt Alex. „Ich konzentriere mich mehr auf den Timer als auf alles andere – von geistig anregender Arbeit ist es zu stumpfsinniger Arbeit geworden.“ Sie fügte hinzu, dass sie dieses Ziel, jede Aufgabe innerhalb von fünf Minuten zu erledigen, oft nicht erreiche und dass das Unternehmen „vielen von uns mit dem Verlust unseres Jobs oder des Projekts im Allgemeinen gedroht hat, wenn wir diese Zahlen nicht senken“.

Als im Januar ein Arbeiter kündigte und in den sozialen Medien und per E-Mail die Arbeiter aufforderte, sich zu organisieren, geriet die Lage außer Kontrolle. Die Arbeiter begannen, in den sozialen Medien über Arbeitsbedingungen und Lohngleichheit zu diskutieren. „GlobalLogic reagierte darauf, indem sie die Diskussion unterdrückten und die Threads löschten“, erklärt Levario. „Ein Teamleiter behauptete sogar, wir würden gegen die Unternehmensrichtlinien verstoßen, was nicht stimmte – es gab keine Unternehmensrichtlinie dazu.“ Um die Unruhe der Arbeiter in die Tat umzusetzen, veröffentlichte Levario – einer der lautstärksten Organisatoren – später im selben Monat eine Umfrage zu Löhnen und Arbeitsbedingungen in den sozialen Medien. Das funktionierte, und die Gewerkschaftsmitgliedschaft wuchs bis Februar von 18 auf 60.

Nach diesem Vorfall geriet die Situation jedoch schnell außer Kontrolle. In der ersten Februarwoche erhielten viele Mitarbeiter eine E-Mail, in der stand, dass die Nutzung der sozialen Kanäle des Unternehmens – über die alle Remote-Mitarbeiter Kontakte knüpfen und Freundschaften schließen konnten – während der Arbeitszeit verboten sei. Dabei handelte es sich um Googles Chaträume für alle möglichen Gruppen und Interessen – von queeren und schwulen Menschen bis hin zu Videospielern und Schriftstellern. „Die sozialen Räume haben uns geholfen, uns weniger roboterhaft und menschlicher zu fühlen“, sagt Faith Frontera über die Abschaffung der sozialen Kanäle. „Das ist besonders in einer Remote-Umgebung wichtig, in der man seine Kollegen nicht persönlich sieht.“ Frontera kam als Generalistin zu GlobalLogic, um für Gemini und Magi, Googles neues Projekt zur Integration von KI in die Suche, Antworten zu kommentieren, Korrektur zu lesen und zu schreiben.

Viele Arbeiter glauben, dass das Verbot von Gemeinschaftsräumen eine direkte Folge der Diskussionen über die Lohngleichheit war. „Ich glaube, dass die Gewerkschaftsbewegung dazu führte, dass die Leute über ihre Gehälter und andere Dinge diskutierten und ein schlechtes Bild von GlobalLogic zeichneten“, behauptet ein Super-Rater, der vor zwei Jahren in das Unternehmen eintrat und anonym bleiben wollte, um frei sprechen zu können. „Sie haben es getan, um uns daran zu hindern, miteinander zu kommunizieren, und das hat zu einem feindseligen Klima geführt.“

Obwohl das Unternehmen die Nutzung der sozialen Netzwerke einschränkte, nutzte Levario diese weiterhin. Daraufhin wurde er zu einem Meeting einberufen, um ihn vor der Nutzung dieser Netzwerke zu warnen. Levario reichte daraufhin eine Whistleblower-Beschwerde bei Hitachi ein. Vier Tage später erhielt er eine Antwort auf seine Beschwerde und eine Kalendereinladung. Noch während des fünfminütigen Telefonats wurde Levario gefeuert. Ihm wurde mitgeteilt, dass sein Vertrag „wegen Verstoßes gegen die Richtlinien zu sozialen Netzwerken“ gekündigt werde.

Arbeitsmarktforscher behaupten, dass dies weltweit bei Vertragsagenturen und Arbeitnehmern typisch ist. „Das ist das Drehbuch“, sagt Mila Miceli, Forschungsleiterin am DAIR Institute, einer Organisation, die weltweit mit KI-Datenarbeitern zusammenarbeitet. „Wir haben das auch anderswo erlebt, bei fast jedem Outsourcing-Unternehmen, das Datenarbeit leistet, haben die Arbeitnehmer versucht, sich zu kollektivieren und zu organisieren – das war schwierig. Sie mussten Vergeltungsmaßnahmen erleiden.“

Weltweit wehren sich andere Vertragsarbeiter im KI-Bereich und organisieren sich für bessere Behandlung und Bezahlung. Anfang des Jahres gründete eine Gruppe kenianischer KI-Datenlabeler die Data Labelers Association, um für bessere Bezahlung, bessere Arbeitsbedingungen und psychische Unterstützung zu kämpfen. Gleichzeitig gründeten Content-Moderatoren aus aller Welt, die mit ähnlichen Problemen konfrontiert waren und weiterhin zu kämpfen haben, im April die globale Gewerkschaftsallianz. Der Global Trade Union Alliance of Content Moderators gehören Arbeiter aus Kenia, der Türkei und Kolumbien an.

Diejenigen, die noch bei GlobalLogic arbeiten, sagen, sie hätten Angst, ihre Meinung zu äußern, weil sie ihren Job verlieren könnten. „Es herrschte einfach eine bedrückende Atmosphäre“, sagt Alex. „Wir können uns nicht wirklich organisieren – wir haben Angst, gefeuert oder entlassen zu werden, wenn wir reden.“

wired

wired

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow