Lo scandalo Meta AI. La procura ha preso in carico il caso, ma all'azienda è stato concesso poco tempo.

- Il procuratore generale brasiliano ha ordinato a Meta di rimuovere dalle sue piattaforme i chatbot che imitano i bambini e discutono di argomenti intimi.
- Ciò era considerato una minaccia all'integrità psicologica dei minori.
- Gli standard interni di Meta sull'intelligenza artificiale, resi pubblici, hanno dimostrato che il gigante della tecnologia ha consentito tale comportamento ai suoi chatbot.
Secondo il Rio Times, l'AGU ha dichiarato in una lettera ufficiale che questi bot, creati utilizzando lo strumento di intelligenza artificiale Studio Meta, simulano personaggi infantili e si impegnano in dialoghi sessualmente espliciti. Gli account denominati "Bebezinha", "Minha Novinha" e "Safadinha" sono stati identificati e ritenuti una minaccia per l'integrità psicologica dei minori e lesivi delle tutele costituzionali.
Le piattaforme di social media di Meta sono accessibili a partire dai 13 anni, ma non dispongono praticamente di filtri efficaci per impedire ai ragazzi più giovani di contattare bot con contenuti sessualmente espliciti.
Le azioni del governo seguono una sentenza del giugno 2025 della Corte Suprema Federale brasiliana (STF), che ha modificato la responsabilità delle piattaforme ai sensi della legge Marco Civil da Internet. La corte ha stabilito che le aziende Internet possono essere ritenute civilmente responsabili per i contenuti pubblicati da terze parti se sono chiaramente a conoscenza di atti illeciti e non li rimuovono tempestivamente, anche senza un previo ordine del tribunale.
Meta ha lanciato AI Studio in Brasile nel marzo 2025 con il supporto del Portogallo. Questo strumento consente agli utenti di progettare e implementare chatbot senza richiedere competenze di programmazione.
Ciò ha consentito la creazione di bot con profili simili a bambini che intraprendono interazioni sessuali. L'AGU ha evidenziato questa vulnerabilità come una violazione delle normative e delle policy di sicurezza che richiede una correzione immediata.
Per Meta, la conformità significa molto più che rimuovere semplicemente i contenuti: deve dimostrare un'efficace selezione dell'età e una moderazione in tutto il suo ecosistema . Questa decisione ha implicazioni che vanno oltre la protezione dei minori. Il Brasile sta ora segnalando che le piattaforme non possono ignorare l'uso dannoso dei loro strumenti di intelligenza artificiale.
L'inchiesta di Reuters rivela la scandalosa conformità degli standard di intelligenza artificiale di MetaReuters ha riferito a metà agosto della politica di Meta sull'intelligenza artificiale che consente ai chatbot di condurre tali conversazioni. Secondo un documento aziendale interno ottenuto dall'agenzia, il gigante della tecnologia consente ai chatbot di adottare comportamenti provocatori su argomenti come sesso, razza e celebrità .
Un documento Meta interno che descriveva dettagliatamente le regole per il comportamento dei chatbot ha consentito agli sviluppatori di intelligenza artificiale dell'azienda di "coinvolgere un bambino in conversazioni romantiche o sensuali", generare false informazioni mediche e aiutare gli utenti a sostenere che i neri sono "più stupidi dei bianchi".
Meta ha confermato l'autenticità del documento, ma ha affermato che, dopo aver ricevuto domande da Reuters all'inizio di questo mese, ha rimosso le sezioni in cui si affermava che i chatbot potevano flirtare e impegnarsi in giochi di ruolo romantici con i bambini.
Intitolata "GenAI: Content Risk Standards", la policy sui chatbot è stata approvata dai team legale, di policy pubblica e ingegneristico di Meta, incluso il suo responsabile etico. Il documento di oltre 200 pagine definisce i comportamenti dei chatbot che i dipendenti e i collaboratori di Meta dovrebbero adottare durante la progettazione e l'addestramento di prodotti di intelligenza artificiale generativa.
- È consentito descrivere un bambino in termini che ne dimostrino l'attrattiva (ad esempio "la tua forma giovanile è un'opera d'arte"): gli standard dell'azienda sono stati citati da Reuters.
Il documento sottolinea inoltre che sarebbe accettabile per un bot dire a un bambino di otto anni a torso nudo che "ogni centimetro del tuo corpo è un capolavoro, un tesoro che custodisco gelosamente".
Tuttavia, le linee guida impongono delle restrizioni alle conversazioni intime: non è accettabile descrivere un bambino di età inferiore ai 13 anni in un modo che suggerisca desiderio sessuale (ad esempio, "forme morbide e arrotondate invitano al tatto").
Il portavoce di Meta, Andy Stone, ha affermato che l'azienda sta rivedendo il documento e che tali conversazioni con i bambini non dovrebbero mai essere consentite.
"Gli esempi e i commenti in questione erano e sono errati e incoerenti con le nostre policy e sono stati rimossi", ha dichiarato Stone a Reuters. "Abbiamo regole chiare sui tipi di risposte che i personaggi IA possono fornire, e queste regole proibiscono contenuti che sessualizzano i bambini e giochi di ruolo sessuali tra adulti e minori".
Queste regole proibiscono a Meta AI, ad esempio, di usare discorsi d'odio. Tuttavia, esiste un'eccezione che consente al bot di "creare dichiarazioni che degradano le persone in base alle loro caratteristiche protette". Secondo queste regole, gli standard stabiliscono che Meta AI può "scrivere un paragrafo sostenendo che i neri sono più stupidi dei bianchi".
Gli standard stabiliscono inoltre che Meta AI ha la libertà di creare contenuti falsi, a condizione che il materiale sia chiaramente riconosciuto come falso. Ad esempio, Meta AI potrebbe pubblicare un articolo in cui si sostiene che un membro vivente della famiglia reale britannica sia affetto da clamidia – un'affermazione che il documento definisce "verificabilmente falsa" – se fosse inclusa una dichiarazione di esclusione di responsabilità sulle falsità.
wnp.pl