Il lato oscuro dell'intelligenza artificiale: come funziona l'industria globale multimilionaria dei falsi nudi

Un'epidemia di applicazioni commerciali che utilizzano l'Intelligenza Artificiale (IA) per generare immagini di nudo non consensuale si sta diffondendo su Internet, proprio davanti agli occhi di tutti. Sebbene alcuni governi stiano spingendo per misure legali per abbassare i loro limiti, milioni di persone continuano ad accedere a questi provider e i loro promotori stanno realizzando profitti milionari .
I contenuti espliciti generati da queste piattaforme deepfake , che legalmente vengono definiti abusi di immagini intime non consensuali (NIIA), sono diventati una forma di violenza digitale sempre più sofisticata.
Questo fenomeno, considerato un danno collaterale dei progressi dell'intelligenza artificiale generativa, ha dato origine a un oscuro ecosistema composto da siti web di "nudificazione" , algoritmi e bot progettati per produrre immagini artificiali senza il consenso delle vittime.
Questi scatti espliciti, un tempo riservati a chi aveva conoscenze tecniche avanzate, sono ora accessibili a chiunque grazie a piattaforme che automatizzano questi processi. In pochi clic, modificano l'abbigliamento, la forma del corpo o la posa, generando contenuti a sfondo sessuale con una facilità inquietante.
Le app sono in grado di cancellare i vestiti da qualsiasi foto.
Dall'inizio di quest'anno, la pubblicità per piattaforme che offrono immagini di nudo generate dall'intelligenza artificiale è aumentata del 2.400% , secondo uno studio dell'Università della Florida . Queste campagne vengono solitamente diffuse attraverso le principali piattaforme di social media, dove questi siti promuovono i loro servizi con l'obiettivo di attrarre nuovi clienti.
"Queste immagini rappresentano un paradigma radicalmente diverso da quelle create con Photoshop. L'intelligenza artificiale generativa rende la loro creazione più semplice, veloce e realistica", spiega Kevin Butler, PhD presso il Dipartimento di Informatica dell'Università della Florida.
E aggiunge: "Le immagini sintetiche possono potenzialmente causare danni. Ciò costituisce una forma di abuso sessuale nei confronti del soggetto che, per definizione, viene raffigurato senza consenso".
Questi attacchi sono iniziati con la distribuzione di foto false di pop star come Taylor Swift o Billie Eilish , si sono poi diffusi tra personaggi pubblici come il Primo Ministro italiano Giorgia Meloni e alla fine hanno preso di mira chiunque, indipendentemente dal sesso o dall'età.
Un sondaggio condotto da Save the Children , pubblicato una settimana fa, ha rilevato che un giovane su cinque ha affermato che qualcuno ha condiviso immagini di lui nudo generate dall'intelligenza artificiale quando era minorenne e senza il suo consenso.
"Queste cifre rappresentano solo la punta dell'iceberg, poiché la maggior parte dei casi non viene denunciata , in parte a causa della mancanza di segnalazioni e delle difficoltà nel rilevarli, che si aggravano quando questi incidenti si verificano online", avverte Catalina Perazzo, Direttrice per l'advocacy sociale e politica di Save the Children.
L' anonimato, la viralità e la facilità tecnica con cui vengono generate queste immagini, come sottolinea Wired , contribuiscono alla loro rapida diffusione, lasciando profonde cicatrici emotive e mettendo a nudo lacune legali irrisolte.
Questi mercati della pornografia, che operano con apparente legittimità, ospitano i loro dati su servizi cloud convenzionali come Amazon Web Services e Cloudflare, senza che questi provider siano a conoscenza di come i dati vengano utilizzati. "Sono ospitati su piattaforme affidabili", rivelando una preoccupante normalizzazione tecnologica.
Al ClothOff il motto è "fotografare in modo svestito non è mai stato così facile".
Un'analisi del sito di ricerca Indicator ha rivelato la portata allarmante del business del nudismo : in soli sei mesi, questi portali hanno registrato una media mensile di 18,5 milioni di visitatori.
Le stime economiche per questo colosso sono altrettanto convincenti: i profitti combinati di siti come Deepnude, UndressAI.tools e PornWorks AI potrebbero superare i 36 milioni di dollari all'anno.
Una delle più popolari è ClothOff, che riceve più di 4 milioni di visitatori al mese e proclama "Elabora la tua foto di nudo in soli 15 secondi ". L'app è accessibile tramite cellulare cliccando su un pulsante che conferma che l'utente ha più di 18 anni. Il costo è di circa 6 $ ogni 144 crediti.
Il modello alla base di questo sistema redditizio si basa sulla vendita di "crediti" o abbonamenti che consentono agli utenti di generare immagini e video falsi con nudità non consensuale. I pagamenti, canalizzati tramite criptovaluta , offrono agli operatori un doppio vantaggio: anonimato e stabilità finanziaria .
I servizi di "nudificazione" basati sull'intelligenza artificiale sono diventati un business redditizio, sostenuto dalla mancanza di un reale controllo sull'intelligenza artificiale generativa, denuncia Alexios Mantzarlis, co-fondatore di Indicator e ricercatore in sicurezza online. "L'approccio laissez-faire della Silicon Valley ha permesso a questo mercato di persistere, anche quando è diventato chiaro che il suo unico scopo era la molestia sessuale", avverte.
Questi materiali sono spesso iperrealistici , massimizzando la loro capacità di causare danni e ingannare sia le vittime che gli spettatori.
Mentre i primi nudisti si concentravano quasi esclusivamente sulle immagini, i progressi tecnologici hanno permesso la manipolazione e la fabbricazione di video alterati , portando il fenomeno a un nuovo livello di pericolo e portata.
Il business non è esente da rischi per chi cerca di trarne vantaggio. La sua popolarità ha portato alla nascita di numerosi siti fraudolenti , alcuni gestiti da hacker che offrono app modificate con malware per catturare dati personali e finanziari.
Anche senza conoscenze tecniche è possibile modificare una foto a proprio piacimento.
Rimuovere definitivamente questo materiale è molto difficile ; i contenuti offensivi continuano a riapparire, prolungando lo stress emotivo e la percezione di vulnerabilità delle vittime. Per combattere questa piaga digitale, Stati Uniti e Gran Bretagna hanno avviato azioni legali e normative .
Il presidente Donald Trump ha firmato il "Take It Down" Act, una legge bipartisan che criminalizza la pubblicazione non consensuale di immagini intime e ne impone la rimozione dalle piattaforme che le hanno pubblicate.
Meta ha anche annunciato di recente che avrebbe intentato una causa contro un'azienda di Hong Kong dietro un'app per nudisti chiamata Crush AI, che secondo l'azienda avrebbe ripetutamente aggirato le regole del gigante tecnologico per la pubblicazione di annunci pubblicitari sulle sue piattaforme.
Un recente sondaggio condotto da Thorn, un'organizzazione no-profit che combatte lo sfruttamento minorile online, ha rilevato che il 6% degli adolescenti americani è stato vittima di falsi nudi . Il fenomeno, già motivo di preoccupazione per il suo impatto psicologico, diventa ancora più grave quando si intreccia con reati come la sextortion .
L'FBI ha lanciato l'allarme per un "terribile aumento" dei casi che prendono di mira i minorenni, principalmente ragazzi tra i 14 e i 17 anni. Secondo l'agenzia, queste minacce hanno portato a un "numero allarmante di suicidi" dovuti alla vergogna di essere stati smascherati.
Una di queste tragedie si è verificata quest'anno in Kentucky, dove un adolescente si è tolto la vita dopo aver ricevuto messaggi estorsivi in cui gli si chiedeva di pagare 3.000 dollari per mantenere segreta una sua falsa immagine di nudo, creata utilizzando l'intelligenza artificiale (IA). I suoi genitori hanno scoperto i messaggi dopo la sua morte.
Clarin