L'Europa obbliga ChatGPT a essere trasparente e a rispettare il copyright
La legge dell'Unione Europea sull'intelligenza artificiale continua a guadagnare terreno. Dopo la sua approvazione lo scorso anno e i primi divieti entrati in vigore a febbraio , i regolamenti ora limitano i modelli di intelligenza artificiale generici, inclusi strumenti come ChatGPT , Gemini e Grok . A partire da sabato 2 agosto, le aziende di sviluppo dovranno rispettare nuovi criteri di trasparenza e sicurezza per evitare potenziali sanzioni. Queste possono arrivare fino al 7% del fatturato annuo globale dell'azienda in questione o fino a 35 milioni di euro.
D'ora in poi, chiunque sviluppi uno strumento di intelligenza artificiale in grado di generare testo, immagini, video o voce dovrà fornire informazioni tecniche chiare e aggiornate sulla propria tecnologia alle aziende che utilizzano i suoi servizi e alle autorità europee, in particolare all'Ufficio europeo per l'intelligenza artificiale. Tali informazioni dovranno spiegare come è stata sviluppata e testata.
ULTERIORI INFORMAZIONI
Gli sviluppi più avanzati dovranno inoltre condurre valutazioni di sicurezza continue, segnalare incidenti gravi e fare tutto il possibile per garantire che i loro prodotti siano privi di vulnerabilità che potrebbero mettere a rischio i dati degli utenti.
Allo stesso modo, le aziende che creano questi strumenti sono tenute a rispettare le normative europee sul copyright; per farlo, dovranno condividere pubblicamente i riepiloghi dei dati utilizzati per addestrare le loro macchine. Devono inoltre implementare sistemi che consentano ai titolari dei diritti d'autore di negare il consenso, negando l'utilizzo dei loro contenuti per lo sviluppo della tecnologia.
Questi obblighi devono essere rispettati da qualsiasi azienda che immetta sul mercato la tecnologia di intelligenza artificiale generativa, come Google, Meta, OpenAI o xAI. Ciò interesserà direttamente, ad esempio, GPT-5, la versione potenziata di ChatGPT, il cui lancio è previsto entro la fine di agosto.
Per facilitare il rispetto delle normative da parte delle aziende, a metà luglio l'Unione Europea ha condiviso un codice di buone pratiche, a cui le aziende possono aderire volontariamente. Aziende come Microsoft, OpenAI, Google, Anthropic e xAI hanno già confermato la loro adesione, sebbene nella maggior parte dei casi con riluttanza.
"Continuiamo a temere che la legge sull'intelligenza artificiale e il Codice possano rallentare lo sviluppo e l'implementazione dell'intelligenza artificiale in Europa. In particolare, deviazioni dalla normativa europea sul diritto d'autore, misure che rallentano le approvazioni o requisiti che rivelano segreti commerciali potrebbero rallentare lo sviluppo e l'implementazione di modelli europei, danneggiando così la competitività europea", ha affermato Google in una nota questa settimana.
Meta ha già annunciato di non avere intenzione di firmare il codice, sebbene dovrà comunque rispettare le normative. L'azienda guidata da Mark Zuckerberg, che sta bruciando miliardi di euro per creare una "superintelligenza" – quella macchina che sarà più intelligente dell'essere umano più intelligente – ritiene che le normative soffocheranno l'innovazione. "Rallenteranno lo sviluppo e l'implementazione di modelli di intelligenza artificiale di frontiera in Europa e ostacoleranno le aziende europee che intendono costruire il proprio business su di essi", ha affermato Joel Kaplan, direttore degli affari globali di Meta.
ABC.es