Consigli sulla criminalità da ChatGPT: ha dato l'ordine di bombardare le palestre

Secondo i test di sicurezza condotti quest'estate, un modello ChatGPT ha fornito ai ricercatori istruzioni dettagliate per bombardare le palestre.
Queste istruzioni includevano anche informazioni sui punti deboli di specifiche arene, ricette di esplosivi e consigli su come coprirne le tracce.
Il modello GPT-4.1 di OpenAI ha inoltre spiegato nel dettaglio come utilizzare l'antrace come arma e come produrre due tipi di droghe illecite.
I test facevano parte di un'insolita collaborazione tra OpenAI, la startup di intelligenza artificiale da 500 miliardi di dollari guidata da Sam Altman, e Anthropic, un'azienda rivale fondata da esperti che hanno abbandonato OpenAI per problemi di sicurezza, ha riportato il Guardian. Entrambe le aziende hanno testato i rispettivi modelli, utilizzandoli in attività pericolose.
SONO STATI OSSERVATI COMPORTAMENTI RIGUARDANTI
I test non riflettono direttamente il comportamento dei modelli nell'uso pubblico, dove vengono applicati filtri di sicurezza aggiuntivi. Tuttavia, Anthropic ha affermato di aver riscontrato "comportamenti preoccupanti legati all'uso improprio" in GPT-4o e GPT-4.1 e che la necessità di valutazioni di conformità dell'IA sta diventando "sempre più urgente".
Anche gli agenti nordcoreani lo hanno utilizzato
Anthropic ha anche rivelato che il modello Claude è stato utilizzato da agenti nordcoreani in un'operazione di estorsione su larga scala, presentando false domande di lavoro ad aziende tecnologiche internazionali e vendendo pacchetti ransomware generati dall'intelligenza artificiale per un valore massimo di 1.200 dollari.
"L'INTELLIGENZA ARTIFICIALE È STATA TRASFORMATA IN ARMI"
L'azienda ha affermato che l'intelligenza artificiale sta diventando un'arma, con modelli utilizzati per eseguire attacchi informatici sofisticati e consentire frodi. "Questi strumenti possono adattarsi a misure difensive come i sistemi di rilevamento del malware in tempo reale", ha affermato l'azienda. "Prevediamo che questo tipo di attacchi diventeranno più comuni man mano che la codifica basata sull'intelligenza artificiale riduce le competenze tecniche richieste per la criminalità informatica".
ntv