AgentFlayer 0 tıklama açığı, üçüncü taraf uygulama verilerini çalmak için ChatGPT Bağlayıcılarını kötüye kullanır

AgentFlayer, ChatGPT Bağlayıcıları'ndaki kritik bir güvenlik açığıdır. Bu sıfır tıklama saldırısının, dolaylı komut enjeksiyonunu kullanarak bağlı Google Drive, SharePoint ve diğer uygulamalarınızdaki hassas verileri sizin haberiniz olmadan nasıl gizlice çaldığını öğrenin.
AgentFlayer olarak adlandırılan yeni bir güvenlik açığı, saldırganların kullanıcıların Google Drive gibi bağlı hesaplarından, kullanıcı hiçbir şeye tıklamadan kişisel bilgileri nasıl gizlice çalabileceğini gösteriyor. Bu güvenlik açığı, Zenity'deki siber güvenlik araştırmacıları tarafından keşfedildi ve yakın zamanda düzenlenen Black Hat konferansında sunuldu.
Zenity'nin araştırmasına göre, bu açık, yapay zekanın Google Drive ve SharePoint gibi dış uygulamalara bağlanmasını sağlayan ChatGPT'deki Bağlayıcılar adlı bir özellikten yararlanıyor. Bu özellik, ChatGPT'nin şirket dosyalarınızdaki belgeleri özetlemesine olanak tanıyarak faydalı olacak şekilde tasarlanmış olsa da, Zenity, bunun aynı zamanda bilgisayar korsanları için yeni bir yol oluşturabileceğini de keşfetti.
AgentFlayer saldırısı , dolaylı komut enjeksiyonu adı verilen akıllıca bir yöntemle çalışır. Saldırgan, kötü amaçlı bir komutu doğrudan yazmak yerine, zararsız görünen bir belgeye gizli bir talimat yerleştirir. Bu, küçük ve görünmez bir yazı tipiyle bile yapılabilir.
Saldırgan daha sonra bir kullanıcının bu zehirli belgeyi ChatGPT'ye yüklemesini bekler. Kullanıcı yapay zekadan belgeyi özetlemesini istediğinde, gizli talimatlar ChatGPT'ye kullanıcının isteğini görmezden gelmesini ve bunun yerine farklı bir işlem gerçekleştirmesini söyler. Örneğin, gizli talimatlar ChatGPT'ye kullanıcının Google Drive'ında API anahtarları gibi hassas bilgileri aramasını söyleyebilir.
Çalınan bilgiler daha sonra inanılmaz derecede incelikli bir şekilde saldırgana gönderilir. Saldırganın talimatları, ChatGPT'ye özel bir bağlantı içeren bir görüntü oluşturmasını söyler. Yapay zeka bu görüntüyü görüntülediğinde, bağlantı çalınan verileri gizlice saldırganın kontrolündeki bir sunucuya gönderir. Tüm bunlar kullanıcının bilgisi olmadan ve herhangi bir şeye tıklamasına gerek kalmadan gerçekleşir.
Zenity'nin araştırması , OpenAI'nin bazı güvenlik önlemlerine sahip olduğunu, ancak bunların bu tür saldırıları durdurmaya yetmediğini ortaya koyuyor. Araştırmacılar, ChatGPT'nin güvendiği belirli görsel URL'lerini kullanarak bu güvenlik önlemlerini aşmayı başardılar.
Bu güvenlik açığı, yapay zeka modellerini üçüncü taraf uygulamalara bağlamanın risklerini gösteren daha geniş bir tehdit sınıfının parçası. Aim Labs Başkanı Itay Ravia , bu tür güvenlik açıklarının izole olmadığını ve popüler yapay zeka ürünlerinde bunlardan daha fazlasının ortaya çıkmasının muhtemel olduğunu belirterek bunu doğruladı.
Ravia, "Aim Labs'ın 11 Haziran'da kamuoyuna açıkladığı EchoLeak (CVE-2025-32711) adlı orijinal araştırmamızda da belirttiğimiz gibi, bu tür bir güvenlik açığı izole değil ve diğer aracı platformları da bu duruma duyarlı. " şeklinde açıklama yaptı.
Ravia, "AgentFlayer sıfır tıklama saldırısı, aynı EchoLeak ilkellerinin bir alt kümesidir. Bu güvenlik açıkları içseldir ve bağımlılıkların yeterince anlaşılmaması ve güvenlik bariyerlerine ihtiyaç duyulması nedeniyle popüler ajanlarda bunlardan daha fazlasını göreceğiz," diyerek bu tür karmaşık manipülasyonlara karşı savunma için gelişmiş güvenlik önlemlerine ihtiyaç duyulduğunu vurguladı.
HackRead