Il piano del Governo per regolamentare l'IA in Colombia: i punti principali del disegno di legge che mira a regolamentare questa tecnologia

Seguendo l'esempio di paesi della regione come Argentina, Brasile e Cile, e il passo pionieristico compiuto dall'Unione Europea nel 2024, quando ha adottato il primo standard legale al mondo sull'intelligenza artificiale , in Colombia, il governo nazionale, guidato dal Ministero della Scienza, della Tecnologia e dell'Innovazione, ha ripreso gli sforzi affinché questa legislatura faccia approvare un disegno di legge che miri a regolamentare lo sviluppo e l'uso di questa tecnologia in Colombia .
L'iniziativa, già naufragata a giugno dopo non aver raggiunto il quorum necessario per discutere il disegno di legge in Sesta Commissione, è stata ripresentata questa settimana per l'esame del Congresso. Secondo il Ministro della Scienza, Yesenia Olaya, il nuovo testo è "un consenso costruito tra il mondo accademico, il settore produttivo, il settore privato e oltre tredici proposte precedenti".
Questi sono i punti principali inclusi nella proposta, che mira a "consentire l'adozione etica, responsabile, competitiva e innovativa di sistemi di intelligenza artificiale, incorporando criteri tecnici, di diritti umani e di sviluppo produttivo", nonché alcune delle modifiche apportate da questo progetto rispetto alla sua versione precedente.
Creare un'autorità nazionale per l'intelligenza artificiale Il disegno di legge stabilisce che il Ministero della Scienza sarà l'autorità nazionale competente per guidare l'attuazione di questa legge e coordinare la governance dell'IA in Colombia. Tra le responsabilità del Ministero ci sarà l'adozione di linee guida, standard tecnici e buone pratiche basate sulle evidenze scientifiche, sugli sviluppi normativi nazionali e internazionali e sui principi stabiliti dalla legge .
"Il Ministero svolgerà funzioni tecniche, consultive e di coordinamento, promuovendo la collaborazione con altri enti pubblici, il settore produttivo, il mondo accademico, i governi regionali e la società civile, e promuovendo meccanismi di autoregolamentazione, certificazione e valutazione responsabile da parte delle parti interessate nell'ecosistema dell'IA", si legge nella proposta.
Nel caso di sistemi di IA ad alto rischio, il Ministero delle Scienze può emanare raccomandazioni tecniche o stabilire requisiti aggiuntivi per mitigare rischi significativi che incidono sui diritti fondamentali, sulla sicurezza o sul benessere collettivo. Si tratta di una modifica rispetto alla bozza precedente, che, in caso di rischio inaccettabile per i diritti fondamentali, prevedeva la facoltà del Ministero di raccomandare o ordinare, direttamente o tramite le autorità competenti, la sospensione, il blocco, la disattivazione o la cessazione del funzionamento di tali sistemi di IA .

La proposta valuta le opzioni per promuovere lo sviluppo di questa tecnologia nel Paese. Foto: iStock
Nell'ambito delle misure volte a promuovere lo sviluppo dell'IA nel Paese, la proposta del governo prevede anche la creazione, la gestione e la valutazione di sandbox normativi per l'intelligenza artificiale. Questi sono definiti nel disegno di legge come "ambienti di test controllati e flessibili che consentono la sperimentazione, l'adattamento e la scalabilità di soluzioni di IA in condizioni sicure, etiche e supervisionate, anche quando presentano potenziali rischi per i diritti fondamentali o l'interesse pubblico".
"Ogni sandbox approvata deve avere un piano specifico che includa obiettivi, ambito di applicazione, attori partecipanti, condizioni tecniche e legali, misure di mitigazione del rischio proporzionali, meccanismi di monitoraggio e criteri di valutazione, garantendo la tracciabilità degli insegnamenti appresi. Tale piano sarà vincolante per coloro che partecipano al test", si legge nel disegno di legge.
Si sta inoltre prendendo in considerazione un criterio di priorità per i progetti scientifici, tecnologici e di innovazione che mirano ad accedere a benefici fiscali per lo sviluppo di soluzioni basate sull'intelligenza artificiale o per l'adozione di queste tecnologie per migliorare i propri processi produttivi.
Formazione sull'intelligenza artificiale La proposta del governo prevede la progettazione e l'attuazione di programmi di istruzione, formazione e sviluppo delle capacità in materia di intelligenza artificiale per rafforzare le competenze e le abilità a tutti i livelli e modalità di istruzione , tra cui la prima infanzia, la scuola primaria, secondaria, tecnica, tecnologica, superiore e per adulti. Inoltre, mira a garantire una formazione continua in questo campo per dirigenti scolastici e insegnanti.
In termini di istruzione, il disegno di legge propone inoltre di includere contenuti relativi alla scienza dei dati, al pensiero computazionale, all'etica digitale e all'intelligenza artificiale nei livelli di istruzione di base e secondaria, lo sviluppo di programmi orientati alle applicazioni pratiche, all'interoperabilità, alla sostenibilità e all'etica dei sistemi automatizzati con il Sena, la creazione di programmi accademici, facoltà o dipartimenti specializzati in intelligenza artificiale negli istituti di istruzione superiore, nonché la creazione di nuclei comuni o materie elettive per la formazione generale che siano trasversali alle carriere in diverse aree della conoscenza .
Prevenire la perdita di posti di lavoro Un altro punto importante sollevato nel disegno di legge è volto a una transizione equa in risposta all'impatto dell'IA sull'occupazione. A questo proposito, si afferma che " i datori di lavoro che implementano sistemi di IA che potrebbero generare spostamenti o trasformazioni sostanziali delle funzioni lavorative esistenti devono adottare piani di riqualificazione, trasferimento o formazione per i lavoratori potenzialmente interessati ". Tale iniziativa sarà supervisionata dal Ministero del Lavoro.

Yesenia Olaya, Ministro della Scienza Foto: Instagram: @minciencias_co
Se la proposta del governo verrà approvata, porterà anche al riconoscimento di nuove forme di criminalità legate all'intelligenza artificiale. Questo compito spetterà al Ministero della Giustizia, in coordinamento con l'Alto Consiglio per le Politiche Criminali, enti che dovranno presentare al Congresso una proposta di regolamentazione per aggiornare il Codice Penale e criminalizzare condotte che, "attraverso l'uso improprio, doloso o fraudolento di sistemi di Intelligenza Artificiale, generano gravi impatti negativi sui diritti fondamentali, sull'integrità delle persone o sull'interesse pubblico ".
Nuova classificazione del rischio dell'IA Tra le modifiche apportate da questa nuova proposta, elaborata dal Ministero delle Scienze in coordinamento con il Dipartimento di Pianificazione Nazionale, il Ministero delle Tecnologie dell'Informazione e della Comunicazione e il Ministero dell'Istruzione, c'è una nuova classificazione del rischio per l'intelligenza artificiale. Quelli che in precedenza erano definiti sistemi di intelligenza artificiale proibiti sono ora classificati come "ad alto rischio".
Si tratta di "quelli che, per loro natura, contesto e scopo previsto, presentano un rischio elevato di impatto negativo sulla salute, la sicurezza o i diritti fondamentali degli individui". Secondo il disegno di legge, questi sistemi saranno soggetti a requisiti specifici in materia di valutazione della conformità, gestione del rischio, trasparenza e supervisione umana prima della commercializzazione, della messa in servizio e degli aggiornamenti.
Inoltre, i sistemi precedentemente classificati come a rischio limitato sono considerati nella nuova proposta come sistemi di intelligenza artificiale con specifici obblighi di trasparenza . Si tratta di sistemi che, sebbene non classificati come ad alto rischio, devono rispettare specifici obblighi di trasparenza per garantire che gli utenti siano adeguatamente informati, come quelli destinati a interagire direttamente con le persone o quelli che generano o manipolano contenuti di immagini, audio o video per farli apparire autentici.
Infine, la nuova bozza include i sistemi di intelligenza artificiale a rischio minimo o nullo, una classificazione che include anche i sistemi che non rientrano nelle categorie precedenti. Secondo la bozza, sarà incoraggiata l'adozione volontaria di codici di condotta e buone pratiche.
eltiempo