Dolandırıcılar, X'e Kötü Amaçlı Yazılım Yaymak İçin Video Reklam Dolandırıcılığıyla Grok AI'yı Kullanıyor

Guardio Labs araştırmacıları, saldırganların Grok AI'yı X üzerinde kötü amaçlı bağlantılar yayması için kandırdığı yeni bir "Grokking" dolandırıcılığını ortaya çıkardı. Nasıl çalıştığını ve uzmanların neler söylediğini öğrenin.
Sosyal medya platformu X'te (eski adıyla Twitter) popüler yapay zeka asistanı Grok'u , güvenlik kontrollerini atlatmak ve kötü amaçlı bağlantılar yaymak için kullanan yeni ve ustaca bir siber güvenlik dolandırıcılığı keşfedildi. Bu dolandırıcılık, Guardio Labs Siber Güvenlik Araştırmaları Başkanı araştırmacı Nati Tal tarafından ortaya çıkarıldı ve bu yeni tekniğe "Grokking" adını verdi.
Tal, X gönderisinde bu dolandırıcılığın nasıl işlediğini açıkladı. Genellikle şüpheli içeriklerle dolu kötü amaçlı video reklamlarıyla başlıyor. Bu reklamlar dikkat çekmek için tasarlanmış, ancak ana gönderide tıklanabilir bir bağlantı bulunmuyor, bu da X'in güvenlik filtreleri tarafından işaretlenmelerini engelliyor. Kötü niyetli kişiler, kötü amaçlı bağlantıyı platformun taramasında kör nokta gibi görünen küçük bir "Kimden:" meta veri alanına gizliyor.



Dolandırıcılığın en zekice kısmı bundan sonra geliyor. Aynı saldırganlar daha sonra Grok'a reklama yanıt olarak "Bu videonun bağlantısı nedir?" gibi basit bir soru soruyor. Grok, gizli "Kimden:" alanını okuyor ve kötü amaçlı bağlantının tamamını yeni ve tıklanabilir bir yanıtta yayınlıyor.
Grok, X üzerinde güvenilir, sistem düzeyinde bir hesap olduğundan, verdiği yanıt, kötü amaçlı bağlantıya büyük bir güvenilirlik ve görünürlük kazandırır. Siber güvenlik uzmanları Ben Hutchison ve Andrew Bolster'ın da belirttiği gibi, bu durum yapay zekayı kötü amaçlı içerikler için bir "megafon" haline getirir ve teknik bir kusurdan ziyade güveni istismar eder. Bağlantılar, kullanıcıları tehlikeli sitelere yönlendirerek sahte CAPTCHA testleriyle kandırır veya bilgi çalan kötü amaçlı yazılımlar indirmelerine neden olur.
Saldırganlar, yapay zekayı manipüle ederek, kısıtlamaları uygulamaya yönelik sistemi kötü amaçlı içeriklerinin bir aracı haline getiriyor. Sonuç olarak, engellenmesi gereken bağlantılar, milyonlarca şüphelenmeyen kullanıcıya sunuluyor.
İddiaya göre, bu reklamların bazıları milyonlarca gösterime ulaşırken, bazı kampanyalar 5 milyonun üzerinde izlenmeye ulaştı. Bu saldırı, yapay zeka destekli hizmetlerin faydalı olsa da siber suçlular için güçlü araçlara dönüştürülebileceğini gösteriyor.
Bu araştırmaya yanıt olarak, siber güvenlik uzmanları görüşlerini yalnızca Hackread.com ile paylaştı. Deepwatch'ta Bilgi Güvenliği Sorumlusu olan Chad Cragle , temel mekanizmayı şöyle açıkladı: "Saldırganlar, bağlantıları reklamın meta verilerine gizliyor ve ardından Grok'tan 'sesli okumasını' istiyor." Güvenlik ekiplerinin platformların gizli alanları taraması gerektiğini ve kuruluşların da kullanıcıları "doğrulanmış" bir asistanın bile kandırılabileceği konusunda eğitmesi gerektiğini söylüyor.
Black Duck'ın Kıdemli Ar-Ge Yöneticisi Andrew Bolster , Grok'u "Ölümcül Üçlü" olarak adlandırılan şeye uyan yüksek riskli bir yapay zeka sistemi olarak sınıflandırıyor. Geleneksel hataların aksine, yapay zeka alanında bu tür manipülasyonların neredeyse bir "özellik" olduğunu, çünkü modelin amacından bağımsız olarak içeriğe yanıt verecek şekilde tasarlandığını açıklıyor.
HackRead