Le funzionalità di sicurezza per adolescenti di OpenAI cammineranno su una linea sottile

Martedì OpenAI ha annunciato nuove funzionalità di sicurezza per gli adolescenti per ChatGPT, nell'ambito di un impegno continuo per rispondere alle preoccupazioni relative al modo in cui i minori interagiscono con i chatbot . L'azienda sta sviluppando un sistema di previsione dell'età che identifica se un utente ha meno di 18 anni e lo indirizza a un sistema " adatto all'età " che blocca i contenuti espliciti di natura sessuale. Se il sistema rileva che l'utente sta pensando al suicidio o all'autolesionismo, contatterà i genitori dell'utente. In caso di pericolo imminente, se i genitori dell'utente non sono raggiungibili, il sistema potrebbe contattare le autorità.
In un post sul blog relativo all'annuncio, l'amministratore delegato Sam Altman ha scritto che l'azienda sta cercando di trovare un equilibrio tra libertà, privacy e sicurezza degli adolescenti.
"Siamo consapevoli che questi principi sono in conflitto e non tutti saranno d'accordo sul modo in cui stiamo risolvendo questo conflitto", ha scritto Altman. "Si tratta di decisioni difficili, ma dopo aver parlato con gli esperti, riteniamo che questa sia la soluzione migliore e vogliamo essere trasparenti nelle nostre intenzioni".
Mentre OpenAI tende a dare priorità alla privacy e alla libertà per gli utenti adulti, per gli adolescenti l'azienda afferma di mettere la sicurezza al primo posto. Entro la fine di settembre, l'azienda implementerà il parental control, in modo che i genitori possano collegare l'account dei propri figli al proprio, consentendo loro di gestire le conversazioni e disattivare le funzionalità. I genitori possono anche ricevere notifiche quando "il sistema rileva che il loro adolescente si trova in un momento di grave difficoltà", secondo il post sul blog dell'azienda, e impostare limiti agli orari in cui i loro figli possono utilizzare ChatGPT.
Queste iniziative giungono mentre continuano a emergere notizie profondamente preoccupanti su persone che muoiono per suicidio o commettono violenze contro i familiari dopo aver avuto lunghe conversazioni con chatbot di intelligenza artificiale. I legislatori se ne sono accorti e sia Meta che OpenAI sono sotto esame. All'inizio di questo mese, la Federal Trade Commission ha chiesto a Meta, OpenAI, Google e altre aziende di intelligenza artificiale di fornire informazioni sull'impatto delle loro tecnologie sui bambini, secondo Bloomberg .
Allo stesso tempo, OpenAI è ancora sottoposta a un'ordinanza del tribunale che le impone di conservare le chat dei consumatori a tempo indeterminato, un fatto che, secondo le fonti con cui ho parlato, l'azienda è estremamente contrariata. La notizia di oggi rappresenta sia un passo importante verso la tutela dei minori, sia un'abile mossa di pubbliche relazioni per rafforzare l'idea che le conversazioni con i chatbot siano così personali che la privacy dei consumatori dovrebbe essere violata solo in circostanze estreme.
"Un avatar sexbot in ChatGPT"Dalle fonti con cui ho parlato a OpenAI, l'onere della protezione degli utenti grava pesantemente su molti ricercatori. Vogliono creare un'esperienza utente divertente e coinvolgente, ma questa può rapidamente trasformarsi in un atteggiamento disastrosamente servile . È positivo che aziende come OpenAI stiano adottando misure per proteggere i minori. Allo stesso tempo, in assenza di una regolamentazione federale, non c'è ancora nulla che obblighi queste aziende a fare la cosa giusta.
In una recente intervista, Tucker Carlson ha spinto Altman a rispondere esattamente a chi prende queste decisioni che hanno un impatto su tutti noi. Il responsabile di OpenAI ha indicato il team del comportamento del modello, responsabile della messa a punto del modello per determinati attributi. "La persona che penso dovresti ritenere responsabile di queste decisioni sono io", ha aggiunto Altman. "Sono un volto pubblico. Alla fine, sono io quello che può annullare una di quelle decisioni o il nostro consiglio di amministrazione".
Ha ragione, eppure alcuni dei danni imminenti sembrano sfuggirgli. In un'altra intervista podcast con la YouTuber Cleo Abrams, Altman ha affermato che "a volte siamo tentati" di lanciare prodotti "che darebbero una spinta alla crescita". Ha aggiunto: "Non abbiamo ancora inserito un avatar sexbot in ChatGPT". Eppure ! Che strano.
OpenAI ha recentemente pubblicato una ricerca su chi utilizza ChatGPT e come lo utilizza. La ricerca ha escluso gli utenti di età inferiore ai 18 anni. Non abbiamo ancora una comprensione completa di come gli adolescenti utilizzino l'intelligenza artificiale, ed è una domanda importante a cui rispondere prima che la situazione diventi ancora più grave.
Le fonti diconoxAI di Elon Musk sta facendo causa a un ex dipendente che ha lasciato l'azienda per unirsi a OpenAI, sostenendo in una denuncia di essersi appropriato indebitamente di segreti commerciali e informazioni riservate. Nell'attuale era in cui le aziende di intelligenza artificiale barattano dipendenti in cambio di pacchetti retributivi multimilionari , sono sicuro che assisteremo a più cause legali di questo tipo.
Secondo due fonti interne all'azienda, il membro in questione, Xuechen Li, non è mai stato inserito nella piattaforma Slack interna di OpenAI. Non è chiaro se la sua offerta sia stata revocata o se sia stato assunto solo per poi essere licenziato. OpenAI e Li non hanno risposto alla richiesta di commento di WIRED.
Questa è un'edizione della newsletter "Model Behavior" di Kylie Robison . Leggi le newsletter precedenti qui.
wired