Sprache auswählen

German

Down Icon

Land auswählen

America

Down Icon

WormGPT feiert ein Comeback mit Jailbreak-Modellen von Grok und Mixtral

WormGPT feiert ein Comeback mit Jailbreak-Modellen von Grok und Mixtral

Trotz seiner angeblichen Abschaltung im Jahr 2023 erlebt WormGPT , ein unzensiertes KI-Tool für illegale Aktivitäten, ein Comeback. Neue Forschungsergebnisse von Cato CTRL, dem Threat-Intelligence-Team von Cato Networks, zeigen, dass WormGPT nun leistungsstarke Large Language Models (LLMs) namhafter KI-Unternehmen nutzt, darunter Grok von xAI und Mixtral von Mistral AI.

Das bedeutet, dass Cyberkriminelle Jailbreaking-Techniken nutzen, um die integrierten Sicherheitsfunktionen dieser fortschrittlichen LLMs (KI-Systeme, die menschenähnlichen Text generieren, wie ChatGPT von OpenAI) zu umgehen. Durch Jailbreaking zwingen Kriminelle die KI, „unzensierte Antworten auf eine Vielzahl von Themen“ zu produzieren, selbst wenn diese „unethisch oder illegal“ sind, wie Forscher in einem Blogbeitrag auf Hackread.com feststellten.

WormGPT tauchte erstmals im März 2023 in einem Untergrund-Onlineforum namens Hack Forums auf und wurde Mitte 2023 veröffentlicht, wie Hackread.com berichtete . Der Entwickler, bekannt unter dem Pseudonym Last, begann Berichten zufolge im Februar 2023 mit der Entwicklung des Tools.

WormGPT basierte ursprünglich auf GPT-J , einem 2021 entwickelten Open-Source-LLM. Es wurde gegen eine Abonnementgebühr angeboten, die normalerweise zwischen 60 und 100 € pro Monat oder 550 € pro Jahr lag, wobei eine private Einrichtung rund 5.000 € kostete.

Der ursprüngliche WormGPT wurde jedoch am 8. August 2023 abgeschaltet, nachdem der investigative Reporter Brian Krebs einen Artikel veröffentlichte, in dem er die Person hinter Last als Rafael Morais identifizierte, was zu großer Medienaufmerksamkeit führte.

Trotzdem hat sich WormGPT mittlerweile zu einer anerkannten Marke für eine neue Gruppe solcher Tools entwickelt. Sicherheitsforscher Vitaly Simonovich von Cato Networks erklärte: „WormGPT dient nun als erkennbare Marke für eine neue Klasse unzensierter LLMs.“

Er fügte hinzu, dass diese neuen Versionen keine völlig neuen Kreationen seien, sondern von Kriminellen entwickelt würden, die bestehende LLMs geschickt verändern. Dies tue sie, indem sie versteckte Anweisungen, sogenannte Systemaufforderungen, abändern und die KI möglicherweise mit illegalen Daten trainieren.

Die Recherchen von Cato CTRL ergaben bisher nicht gemeldete WormGPT-Varianten, die in anderen Cybercrime-Foren wie BreachForums beworben wurden. Beispielsweise wurde am 26. Oktober 2024 eine Variante namens „ xzin0vich-WormGPT “ veröffentlicht, und am 25. Februar 2025 tauchte „ keanu-WormGPT “ auf. Der Zugriff auf diese neuen Versionen erfolgt über Telegram-Chatbots, ebenfalls auf Abonnementbasis.

WormGPT-Werbung (Quelle: Cato CTRL)

Durch Tests bestätigte Cato CTRL, dass keanu-WormGPT auf xAIs Grok basiert, während xzin0vich-WormGPT auf Mistral AIs Mixtral basiert. Das bedeutet, dass Kriminelle erfolgreich kommerzielle LLMs der Spitzenklasse nutzen, um schädliche Inhalte wie Phishing-E-Mails und Skripte zum Diebstahl von Informationen zu generieren.

WormGPT feiert ein Comeback mit Jailbreak-Modellen von Grok und Mixtral
keanu-WormGPT enthüllt, dass der bösartige Chatbot von Grok betrieben wird (Screenshot: CATO Networks)

Das Aufkommen dieser Tools neben anderen unzensierten LLMs wie FraudGPT und DarkBERT zeigt einen wachsenden Markt für KI-gestützte Kriminalitätstools und unterstreicht die ständige Herausforderung, KI-Systeme zu sichern.

J Stephen Kowski , Field CTO bei SlashNext Email Security+, kommentierte die neueste Entwicklung mit den Worten: Die Entwicklung von WormGPT zeigt, wie Kriminelle immer geschickter im Umgang mit KI-Tools werden. Aber seien wir ehrlich: Dabei handelt es sich um Allzweck-Tools, und wer diese Tools entwickelt, ohne langfristig mit böswilliger Nutzung zu rechnen, war ziemlich naiv.

Das wirklich Besorgniserregende ist, dass es sich nicht um völlig neue KI-Modelle handelt – sie nutzen bewährte Systeme und brechen deren Sicherheitsregeln, um Waffen für Cyberkriminalität zu schaffen , warnte er. Das bedeutet, dass Unternehmen nicht nur über die Blockierung bekannter schädlicher Tools nachdenken, sondern auch das Verhalten von KI-generierten Inhalten untersuchen müssen, unabhängig davon, welche Plattform sie erstellt hat.

HackRead

HackRead

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow