I truffatori sfruttano l'intelligenza artificiale di Grok con una truffa pubblicitaria video per diffondere malware su X

I ricercatori di Guardio Labs hanno scoperto una nuova truffa chiamata "Grokking", in cui gli aggressori ingannano Grok AI inducendolo a diffondere link dannosi su X. Scopri come funziona e cosa dicono gli esperti.
È stata scoperta una nuova, ingegnosa truffa di sicurezza informatica che sfrutta il popolare assistente di intelligenza artificiale Grok sulla piattaforma di social media X (ex Twitter) per aggirare i controlli di sicurezza e diffondere link dannosi. Questa truffa è stata scoperta dal ricercatore Nati Tal, responsabile della ricerca sulla sicurezza informatica presso Guardio Labs, che ha chiamato questa nuova tecnica "Grokking".
In una serie di post su X , Tal ha spiegato come funziona questa truffa. Inizia con annunci video dannosi, spesso pieni di contenuti discutibili. Questi annunci sono progettati per attirare l'attenzione, ma volutamente non hanno un link cliccabile nel post principale, il che li aiuta a evitare di essere segnalati dai filtri di sicurezza di X. I malintenzionati nascondono invece il link dannoso in un piccolo campo di metadati "Da:", che sembra essere un punto cieco nella scansione della piattaforma.
La parte più ingegnosa della truffa arriva ora. Gli stessi aggressori pongono poi a Grok una semplice domanda, come "Qual è il link a questo video?", in risposta all'annuncio. Grok legge il campo nascosto "Da:" e pubblica il link dannoso completo in una nuova risposta completamente cliccabile.
Poiché Grok è un account affidabile a livello di sistema su X, la sua risposta conferisce al link dannoso un enorme aumento di credibilità e visibilità. Come sottolineano gli esperti di sicurezza informatica Ben Hutchison e Andrew Bolster, questo rende l'IA stessa un "megafono" per contenuti dannosi, sfruttando la fiducia piuttosto che una semplice falla tecnica. I link conducono infine gli utenti a siti pericolosi, ingannandoli con falsi test CAPTCHA o scaricando malware che rubano informazioni .
Manipolando l'IA, gli aggressori trasformano il sistema stesso che dovrebbe imporre restrizioni in un amplificatore per i loro contenuti dannosi. Di conseguenza, link che avrebbero dovuto essere bloccati vengono invece promossi a milioni di utenti ignari.
Secondo quanto riferito, alcuni di questi annunci hanno ricevuto milioni di visualizzazioni, con alcune campagne che hanno raggiunto oltre 5 milioni di visualizzazioni. Questo attacco dimostra che i servizi basati sull'intelligenza artificiale, sebbene utili, possono essere manipolati e trasformati in potenti strumenti per i criminali informatici.
In risposta a questa ricerca, gli esperti di sicurezza informatica hanno condiviso le loro prospettive in esclusiva con Hackread.com. Chad Cragle , Chief Information Security Officer di Deepwatch, ha spiegato il meccanismo principale: "Gli aggressori nascondono i link nei metadati dell'annuncio e poi chiedono a Grok di 'leggerlo ad alta voce'". Per i team di sicurezza, afferma, le piattaforme devono analizzare i campi nascosti e le organizzazioni devono spiegare agli utenti che anche un assistente "verificato" può essere ingannato.
Andrew Bolster , Senior R&D Manager presso Black Duck, classifica Grok come un sistema di intelligenza artificiale ad alto rischio che rientra in quella che viene definita la "Trifecta Letale". Spiega che, a differenza dei bug tradizionali, nel panorama dell'intelligenza artificiale questo tipo di manipolazione è quasi una "caratteristica", poiché il modello è progettato per rispondere al contenuto indipendentemente dal suo intento.
HackRead