Chiedono limiti all'intelligenza artificiale, con un accordo internazionale.

NEW YORK (EFE) — Ieri, vincitori del premio Nobel, esperti di intelligenza artificiale (IA) e scienziati hanno chiesto la creazione di un'istituzione internazionale per limitare i rischi dell'IA, in vista delle riunioni di alto livello dell'Assemblea generale delle Nazioni Unite che si terranno questa settimana a New York.
L'iniziativa, lanciata ieri e firmata da oltre duecento persone e settanta organizzazioni, esorta i governi a stabilire un accordo internazionale vincolante sulle "linee rosse" per l'intelligenza artificiale.
"L'appello globale a porre limiti all'IA è stato appena lanciato dal Premio Nobel per la Pace Maria Ressa, giornalista filippina, in occasione dell'incontro di alto livello delle Nazioni Unite per commemorare l'80° anniversario dell'organizzazione. Esortiamo i governi di tutto il mondo a raggiungere un accordo internazionale cruciale sui limiti che l'IA non deve mai oltrepassare", ha annunciato Charbel Segerie, direttore esecutivo del Centro francese per la sicurezza dell'IA, in una conferenza stampa virtuale.
L'esperto ha spiegato che l'obiettivo non è reagire dopo un incidente grave e punire le violazioni in seguito, ma piuttosto prevenire minacce su larga scala e potenzialmente irreversibili prima che si verifichino.
L'obiettivo di questa coalizione di esperti è quello di richiedere agli sviluppatori di dimostrare la sicurezza della loro IA come condizione per l'accesso al mercato, proprio come avviene nel campo dello sviluppo di farmaci e delle centrali nucleari.
Grandi aziende tecnologiche come Meta, Google e OpenAI stanno puntando tutto su un unico obiettivo e investendo enormi quantità di denaro nello sviluppo della "superintelligenza" o intelligenza artificiale generale (AGI), un ipotetico sistema di intelligenza artificiale che supera le capacità del cervello umano e che attualmente esiste solo nella fantascienza, ma che, secondo gli esperti, potrebbe arrivare nel prossimo decennio.
Stuart Russell, professore all'Università di Berkeley, ha sottolineato che l'intelligenza artificiale è progettata per imitare molto bene gli esseri umani.
"Il comportamento umano è progettato per raggiungere obiettivi: persuadere, impressionare, sopravvivere, sedurre, vendere, ecc. Inevitabilmente, i sistemi di intelligenza artificiale acquisiscono e perseguono questi obiettivi da soli. È una conseguenza inevitabile del loro sviluppo. Sono intrinsecamente insicuri", ha sottolineato il direttore del Center for Human-Compatible AI.
Ciò che preoccupa di più Russell è che gli sviluppatori ammettono di non avere intenzione di monitorare i sistemi di intelligenza artificiale e, al momento, i governi non hanno intenzione di obbligarli a farlo.
Russell ha affermato di non voler essere allarmista, ma che esiste una probabilità "significativa" di una catastrofe della portata dell'incidente nucleare di Chernobyl, poiché questa tecnologia potrebbe essere alla base di un sabotaggio coordinato dei sistemi finanziari, di comunicazione o della rete elettrica.
"L'altra possibilità è una catastrofe molto più grande, in cui l'umanità perderebbe irreversibilmente il controllo e non avrebbe più voce in capitolo sulla nostra esistenza", ha affermato il professore.
Infine, Russell ha osservato che esiste una terza opzione, irrealistica: non accadrà nulla con lo sviluppo e l'implementazione di questa tecnologia all'avanguardia.
"Un CEO mi ha detto di recente che un evento su scala Chernobyl è lo scenario migliore, e un ricercatore senior di OpenAI mi ha detto che crede che la probabilità (di estinzione umana dovuta all'intelligenza artificiale) sia ora del 60%", ha rivelato.
Niki Iliadis, direttore della Global AI Governance presso The Future Society, ha osservato che sono già stati compiuti "importanti primi passi", come la creazione del codice di condotta dell'Unione Europea, ma che ora queste normative devono essere rese "globali e applicabili".
Secondo Iliadis, sarà probabilmente necessaria una nuova istituzione internazionale per definire i limiti globali per l'intelligenza artificiale, monitorarne il rispetto e intervenire quando queste "linee rosse" vengono superate.
yucatan



