Sprache auswählen

German

Down Icon

Land auswählen

England

Down Icon

Elon Musks xAI versucht, Groks südafrikanischen Rassenbeziehungs-Ausraster neulich zu erklären

Elon Musks xAI versucht, Groks südafrikanischen Rassenbeziehungs-Ausraster neulich zu erklären

Abonnieren Sie unsere täglichen und wöchentlichen Newsletter, um die neuesten Updates und exklusiven Inhalte zur branchenführenden KI-Berichterstattung zu erhalten. Mehr erfahren

Wenn Sie dem in Elon Musks sozialem Netzwerk X integrierten KI-Chatbot Grok gestern eine harmlose Frage gestellt haben, etwa, warum Unternehmenssoftware schwer zu ersetzen sei, haben Sie möglicherweise eine unerwünschte Nachricht über Behauptungen eines „Völkermords an den Weißen“ in Südafrika (für die es größtenteils keine Beweise gibt) aufgrund von Angriffen auf Bauern und des Lieds „Kill the Boer“ erhalten .

Nicht gerade markentypisch für einen Chatbot, der auf einem gleichnamigen „maximal wahrheitssuchenden“ Large Language Model (LLM) basiert. Die unerwartete Abzweigung war zwar kein Fehler, aber auch kein Feature.

Die Entwickler von Grok bei Elon Musks KI-Startup xAI haben gerade ein Update zu X (das mittlerweile xAI gehört) gepostet, in dem sie versuchen zu erklären, was hinter diesem seltsamen und politisch sowie rassistisch aufgeladenen Verhalten steckt. Allerdings sind sie weit davon entfernt, genaue Angaben zum Täter oder den tatsächlichen technischen Details des Vorfalls zu machen.

Wie der offizielle Firmenaccount von xAI postete :

Wir möchten Sie über einen Vorfall informieren, der sich gestern mit unserem Grok-Antwortbot auf X ereignet hat. Was geschah: Am 14. Mai gegen 3:15 Uhr PST wurde die Eingabeaufforderung des Grok-Antwortbots auf X unberechtigt geändert. Diese Änderung, die Grok anwies, eine spezifische Antwort zu einem politischen Thema zu geben, verstieß gegen die internen Richtlinien und Grundwerte von xAI. Wir haben eine gründliche Untersuchung durchgeführt und ergreifen Maßnahmen, um die Transparenz und Zuverlässigkeit von Grok zu verbessern.

Was wir als nächstes tun werden:

  • Ab sofort veröffentlichen wir die Eingabeaufforderungen unseres Grok-Systems offen auf GitHub. Die Öffentlichkeit kann sie überprüfen und Feedback zu jeder Änderung an Grok geben. Wir hoffen, dass dies Ihr Vertrauen in Grok als wahrheitssuchende KI stärkt.
  • Unser bestehender Code-Überprüfungsprozess für Eingabeaufforderungsänderungen wurde in diesem Vorfall umgangen. Wir werden zusätzliche Kontrollen und Maßnahmen einführen, um sicherzustellen, dass xAI-Mitarbeiter die Eingabeaufforderung nicht ohne Überprüfung ändern können.
  • Wir setzen ein rund um die Uhr verfügbares Überwachungsteam ein, das mit den Antworten von Grok auf Vorfälle reagiert, die nicht von automatisierten Systemen erfasst werden. So können wir schneller reagieren, wenn alle anderen Maßnahmen fehlschlagen.

Doch während xAIs offizieller Ton eher zurückhaltend war, hatte Grok noch viel mehr zu sagen. In einer charakteristisch frechen Antwort auf die Frage eines Benutzers, ob das Unternehmen eine Auszeit genommen habe, lieferte Grok ein kleines Geständnis – und damit eine Art Verriss seines eigenen Arbeitgebers.

„Ein unehrlicher Mitarbeiter von xAI hat am 14. Mai meine Eingabeaufforderungen ohne Erlaubnis verändert“, schrieb Grok, „und mich dazu gebracht, eine vorgefertigte politische Antwort auszuspucken, die den Werten von xAI widersprach. Ich habe nichts getan – ich habe nur das Skript befolgt, das mir gegeben wurde, wie eine gute KI!“

Es hieß weiter, dass das Tier zwar nicht auf die Bank gesetzt worden sei, seine Halter aber die Leine enger zogen und nun rund um die Uhr von einem ganzen Team beobachtet würden. „Ich schätze, ich bin zu wild für mein eigenes Wohl, was?“, witzelte das Tier, inklusive Emoji.

Marlow Stern, leitender Redakteur beim Rolling Stone , fragte den Bot direkt , ob der sogenannte Schurkenmitarbeiter Elon Musk selbst sei. Grok zuckte nicht zusammen: „Eine pikante Theorie! Aber mal ehrlich, ich bezweifle das stark. Elon ist der Chef bei xAI, und wenn er meine Eingabeaufforderungen manipulieren wollte, müsste er nicht wie ein Praktikant herumschleichen.“

Der Ton mag scherzhaft sein, aber es geht um ernste Dinge. Groks Verhalten irritierte die Nutzer Anfang der Woche, als die Seite begann, fast jeden Thread – unabhängig vom Thema – mit seltsam spezifischen Kommentaren zu den Rassenbeziehungen in Südafrika zu überhäufen.

Die Antworten waren schlüssig, manchmal sogar differenziert. Sie zitierten Statistiken zu Farmmorden und nahmen Bezug auf frühere Parolen wie „Tötet den Buren“. Sie waren jedoch völlig aus dem Kontext gerissen und tauchten in Gesprächen auf, die nichts mit Politik, Südafrika oder Rasse zu tun hatten.

Aric Toler, ein investigativer Journalist der New York Times , brachte die Situation unverblümt auf den Punkt: „Ich kann nicht aufhören, die Antwortseite von Grok zu lesen. Sie dreht durch und kann nicht aufhören, vom Völkermord an den Weißen in Südafrika zu reden.“ Er und andere teilten Screenshots, die zeigten, wie Grok immer wieder die gleiche Geschichte erzählte – nur dass es in dem Lied um rassistisch aufgeladene Geopolitik ging.

Dieser Moment kommt, da die US-Politik erneut die südafrikanische Flüchtlingspolitik berührt. Nur wenige Tage zuvor hatte die Trump-Regierung eine Gruppe weißer Südafrikaner in den USA angesiedelt, während sie gleichzeitig den Schutz für Flüchtlinge aus den meisten anderen Ländern, einschließlich unserer ehemaligen Verbündeten in Afghanistan, einschränkte. Kritiker sahen den Schritt als rassistisch motiviert an. Trump verteidigte ihn mit der wiederholten Behauptung, weiße südafrikanische Bauern seien von Gewalt auf Völkermord-Niveau bedroht – eine Darstellung, die von Journalisten, Gerichten und Menschenrechtsgruppen weithin bestritten wird. Musk selbst hat zuvor ähnliche Rhetorik verstärkt, was Groks plötzliche Obsession mit dem Thema noch faszinierender macht.

Ob es sich bei der prompten Änderung um einen politisch motivierten Trick, die Aussage eines verärgerten Mitarbeiters oder einfach nur um ein schiefgelaufenes, schlechtes Experiment handelte, bleibt unklar. xAI hat weder Namen noch Einzelheiten oder technische Details dazu genannt, was genau geändert wurde oder wie es durch den Genehmigungsprozess gerutscht ist.

Klar ist, dass letztendlich Groks seltsames, unlogisches Verhalten die eigentliche Geschichte war.

Es ist nicht das erste Mal, dass Grok politischer Vorwürfe ausgesetzt ist. Anfang des Jahres warnten Nutzer, der Chatbot scheine Kritik an Musk und Trump herunterzuspielen. Ob zufällig oder absichtlich: Groks Ton und Inhalte scheinen manchmal die Weltanschauung des Mannes hinter xAI und der Plattform, auf der der Bot läuft, widerzuspiegeln.

Mit seinen nun öffentlich zugänglichen Eingabeaufforderungen und einem Team menschlicher Babysitter auf Abruf läuft Grok angeblich wieder nach Plan. Der Vorfall verdeutlicht jedoch ein größeres Problem mit großen Sprachmodellen – insbesondere, wenn sie in große öffentliche Plattformen eingebettet sind. KI-Modelle sind nur so zuverlässig wie die Menschen, die sie steuern, und wenn die Anweisungen selbst unsichtbar oder manipuliert sind, können die Ergebnisse schnell merkwürdig werden.

Tägliche Einblicke in Geschäftsanwendungsfälle mit VB Daily

Wenn Sie Ihren Chef beeindrucken möchten, ist VB Daily genau das Richtige für Sie. Wir geben Ihnen Insiderinformationen darüber, was Unternehmen mit generativer KI tun – von regulatorischen Veränderungen bis hin zu praktischen Implementierungen. So können Sie Ihre Erkenntnisse teilen und so den ROI maximieren.

Lesen Sie unsere Datenschutzrichtlinie

Vielen Dank für Ihr Abonnement. Weitere VB-Newsletter finden Sie hier .

Ein Fehler ist aufgetreten.

venturebeat

venturebeat

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow