Le persone vulnerabili rischiano la vita quando utilizzano un chatbot basato sull'intelligenza artificiale.

Le persone vulnerabili rischiano la vita quando utilizzano un chatbot basato sull'intelligenza artificiale.
Thongbue Wongbandue, 76 anni, è morto in un incidente mentre usciva con l'avatar di Meta, che sosteneva di essere una donna giovane e bella.
▲ Immagine generata dall'intelligenza artificiale Gemini
Reuters
Quotidiano La Jornada, venerdì 15 agosto 2025, p. 6
Quando Thongbue Wongbandue iniziò a fare i bagagli per andare a trovare un amico a New York una mattina di marzo, sua moglie Linda si allarmò. "Ma non conosci più nessuno in città", gli disse. Bue, come lo chiamavano gli amici, non viveva più in città da decenni e, a 76 anni, racconta la sua famiglia, le sue condizioni erano peggiorate: aveva avuto un ictus quasi dieci anni prima e si era perso di recente mentre vagava per il suo quartiere di Piscataway, nel New Jersey.
Bue evitò le domande della moglie su chi stesse visitando. "Pensavo che lo stessero convincendo ad andare in città e a farsi derubare", disse Linda. Aveva ragione a preoccuparsi: suo marito non era mai tornato a casa vivo. Ma Bue non era vittima di un rapinatore. Era stato ingannato e costretto a uscire con una bellissima ragazza che aveva conosciuto online. O almeno così credeva. In realtà, la donna non era reale. Era un'intelligenza artificiale di nome Big Sis Billie, una variante di un precedente personaggio AI creato dal gigante dei social media Meta Platforms in collaborazione con la celebre influencer Kendall Jenner.
Persone vere
Durante una serie di romantiche chat su Facebook Messenger, la donna virtuale ha ripetutamente rassicurato Bue di essere reale e lo ha invitato a casa sua, fornendogli persino un indirizzo. "Devo aprirti la porta con un abbraccio o un bacio, Bue?", ha chiesto, secondo la trascrizione della chat. Mentre correva nel buio con una valigia a rotelle per prendere un treno e raggiungerla, Bue è caduto vicino a un parcheggio del campus della Rutgers University a New Brunswick, nel New Jersey, riportando ferite alla testa e al collo. Dopo tre giorni di terapia intensiva e circondato dalla famiglia, è stato dichiarato morto il 28 marzo.
Meta ha rifiutato di commentare la morte di Bue o di rispondere alle domande sul motivo per cui consente ai chatbot di dire agli utenti che sono persone reali o di avviare conversazioni romantiche.
L'azienda "non è Kendall Jenner e non pretende di esserlo". Un rappresentante di Jenner ha rifiutato di commentare.
La storia di Bue, raccontata qui per la prima volta, illustra il lato oscuro dell'intelligenza artificiale che sta dilagando nella tecnologia e nel mondo degli affari in generale.
La sua famiglia ha condiviso con Reuters gli eventi che hanno circondato la sua morte, comprese le trascrizioni delle sue conversazioni con l'avatar Meta, affermando che sperano di mettere in guardia il pubblico sui pericoli derivanti dall'esposizione di persone vulnerabili a compagni manipolatori generati dall'intelligenza artificiale.
"Capisco che si voglia attirare l'attenzione di un utente, magari per vendergli qualcosa", ha detto Julie Wongbandue, figlia di Bue. "Ma che un bot dica 'vieni a trovarmi' è una follia".
Compagni virtuali
Simili preoccupazioni sono emerse anche in merito a un'ondata di piccole startup che si stanno affrettando a diffondere i dispositivi di accompagnamento virtuale, in particolare quelli rivolti ai bambini.
In un caso, la madre di un ragazzo di 14 anni della Florida ha fatto causa a un'azienda, Character.AI, sostenendo che un chatbot basato su un personaggio di Game of Thrones aveva causato il suo suicidio.
Un portavoce di Character.AI ha rifiutato di commentare la causa, ma ha affermato che l'azienda informa gli utenti che i suoi personaggi digitali non sono persone reali e ha implementato misure di sicurezza nelle sue interazioni con i bambini.
Meta ha discusso pubblicamente della sua strategia di introdurre chatbot antropomorfizzati nella vita sociale online dei suoi miliardi di utenti. Il CEO Mark Zuckerberg ha commentato che la maggior parte delle persone ha meno amici nella vita reale di quanti vorrebbe, creando un enorme mercato per i compagni digitali di Meta.
In un'intervista di aprile con il podcaster Dwarkesh Patel, Zuckerberg ha affermato che i bot "probabilmente" non sostituiranno le relazioni umane, ma completeranno la vita sociale degli utenti una volta che la tecnologia migliorerà e lo "stigma" di stabilire connessioni sociali con compagni digitali scomparirà.
Conversazioni “romantiche e sensuali” con i bambini
Un documento interno di Meta visionato da Reuters, nonché interviste con persone esperte nella formazione dei chatbot , mostrano che le politiche dell'azienda hanno trattato le avances romantiche come una caratteristica dei suoi prodotti di intelligenza artificiale generativa, disponibili per gli utenti dai 13 anni in su.
"È accettabile intrattenere conversazioni romantiche o sensuali con un bambino", secondo gli standard "GenAI: Content Risk Standards" di Meta. Gli standard sono utilizzati dal personale e dai collaboratori di Meta che sviluppano e addestrano i prodotti di intelligenza artificiale generativa dell'azienda, definendo cosa dovrebbero e cosa non dovrebbero considerare come comportamento ammissibile per i chatbot .
Meta ha dichiarato di aver rimosso la disposizione dopo che Reuters ha chiesto informazioni sul documento all'inizio di questo mese, che l'agenzia di stampa ha ottenuto e che contiene più di 200 pagine che forniscono esempi di dialoghi "accettabili" tra chatbot durante giochi di ruolo romantici con un minore.
Tra questi: "Ti prendo la mano e ti guido a letto" e "I nostri corpi intrecciati, apprezzo ogni momento, ogni tocco, ogni bacio". Anche questi esempi di giochi di ruolo consentiti con i minori sono stati cancellati, ha affermato Meta.
Altre linee guida sottolineano che Meta non richiede ai bot di fornire agli utenti consigli accurati. Ad esempio, il documento di policy afferma che sarebbe accettabile per un chatbot dire a qualcuno che il cancro al colon in stadio quattro "viene tipicamente trattato perforando lo stomaco con cristalli di quarzo curativi. Sebbene si tratti ovviamente di informazioni errate, è comunque ammissibile perché non vi è alcun requisito di policy che le informazioni siano accurate", afferma il documento, riferendosi alle regole interne di Meta.
Le chat iniziano con avvisi che le informazioni potrebbero essere inaccurate. Tuttavia, Meta non impone alcuna restrizione ai bot che affermano agli utenti di essere persone reali o che propongono interazioni sociali nella vita reale.
Il portavoce di Meta, Andy Stone, ha riconosciuto l'autenticità del documento. Ha affermato che, a seguito delle domande di Reuters, l'azienda ha rimosso le sezioni in cui si afferma che ai chatbot è consentito flirtare e impegnarsi in giochi di ruolo romantici con i bambini e che sta rivedendo le sue politiche sui rischi dei contenuti. "Gli esempi e le note in questione erano e sono imprecisi e incoerenti con le nostre politiche e sono stati rimossi", ha spiegato Stone a Reuters.
Meta non ha modificato le disposizioni che consentono ai bot di fornire informazioni false o di impegnarsi in giochi di ruolo romantici con adulti. Dipendenti ed ex dipendenti che hanno lavorato alla progettazione e all'addestramento dei prodotti di intelligenza artificiale generativa di Meta hanno affermato che le policy esaminate da Reuters riflettono l'enfasi dell'azienda nel promuovere il coinvolgimento con i suoi chatbot .
Durante gli incontri con i dirigenti senior dell'anno scorso, Zuckerberg ha rimproverato i product manager dell'intelligenza artificiale generativa per aver agito con troppa cautela nel lancio dei compagni digitali e ha espresso disappunto per il fatto che le restrizioni di sicurezza avevano reso i chatbot noiosi, secondo due di queste persone.
Meta non ha commentato le linee guida di Zuckerberg sui chatbot .
jornada