Betrüger nutzen Grok AI mit Video-Anzeigenbetrug aus, um Malware auf X zu verbreiten

Forscher von Guardio Labs haben eine neue „Grokking“-Betrugsmasche aufgedeckt, bei der Angreifer Grok AI dazu verleiten, schädliche Links auf X zu verbreiten. Erfahren Sie, wie es funktioniert und was Experten dazu sagen.
Ein neuer, raffinierter Cybersicherheitsbetrug wurde entdeckt. Dabei wird der beliebte KI-Assistent Grok auf der Social-Media-Plattform X (ehemals Twitter) missbraucht, um Sicherheitskontrollen zu umgehen und schädliche Links zu verbreiten. Aufgedeckt wurde dieser Betrug von Forscher Nati Tal, Leiter der Cybersicherheitsforschung bei Guardio Labs, der diese neue Technik „Grokking“ nannte.
In einer Reihe von X-Posts erklärte Tal, wie dieser Betrug funktioniert. Es beginnt mit bösartigen Videoanzeigen , die oft fragwürdige Inhalte enthalten. Diese Anzeigen sollen Aufmerksamkeit erregen, enthalten aber absichtlich keinen anklickbaren Link im Hauptbeitrag, um nicht von den Sicherheitsfiltern von X erkannt zu werden. Stattdessen verstecken die Betrüger den bösartigen Link in einem kleinen „Von:“-Metadatenfeld, das offenbar ein blinder Fleck im Scan der Plattform ist.
Der raffinierteste Teil der Masche kommt nun. Dieselben Angreifer stellen Grok in einer Antwort auf die Anzeige eine einfache Frage, beispielsweise „Wie lautet der Link zu diesem Video?“. Grok liest das versteckte „Von:“-Feld und veröffentlicht den vollständigen bösartigen Link in einer neuen, anklickbaren Antwort.
Da Grok ein vertrauenswürdiges Systemkonto auf X ist, erhöht seine Antwort die Glaubwürdigkeit und Sichtbarkeit des bösartigen Links enorm. Wie die Cybersicherheitsexperten Ben Hutchison und Andrew Bolster betonen, wird die KI dadurch selbst zu einem „Megaphon“ für bösartige Inhalte, das Vertrauen ausnutzt und nicht nur einen technischen Fehler. Die Links führen Nutzer letztlich auf gefährliche Websites, täuschen sie mit gefälschten CAPTCHA -Tests oder laden Malware herunter, die Informationen stiehlt .
Durch die Manipulation der KI verwandeln Angreifer genau das System, das Beschränkungen durchsetzen soll, in einen Verstärker für ihre schädlichen Inhalte. Infolgedessen werden Links, die eigentlich blockiert werden sollten, stattdessen Millionen ahnungsloser Benutzer angezeigt.
Berichten zufolge wurden einige dieser Anzeigen millionenfach aufgerufen, und einige Kampagnen erreichten über 5 Millionen Aufrufe. Dieser Angriff zeigt, dass KI-gestützte Dienste zwar hilfreich sind, aber auch zu mächtigen Werkzeugen für Cyberkriminelle manipuliert werden können.
Als Reaktion auf diese Untersuchung haben Cybersicherheitsexperten ihre Ansichten exklusiv mit Hackread.com geteilt. Chad Cragle , Chief Information Security Officer bei Deepwatch, erklärte den Kernmechanismus: „Angreifer verstecken Links in den Metadaten der Anzeige und bitten Grok dann, sie ‚laut vorzulesen‘.“ Sicherheitsteams müssten versteckte Felder scannen, und Unternehmen müssten ihre Benutzer darauf hinweisen, dass selbst ein „verifizierter“ Assistent getäuscht werden kann.
Andrew Bolster , Senior R&D Manager bei Black Duck, stuft Grok als Hochrisiko-KI-System ein, das zu der sogenannten „Lethal Trifecta“ passt. Er erklärt, dass diese Art der Manipulation im KI-Bereich im Gegensatz zu herkömmlichen Bugs fast schon ein „Feature“ sei, da das Modell so konzipiert sei, dass es auf Inhalte unabhängig von deren Absicht reagiere.
HackRead