Gli esperti di intelligenza artificiale chiedono urgentemente ai governi di prendere in considerazione l'idea di fare qualcosa

Tutti sembrano riconoscere il fatto che l'intelligenza artificiale è una tecnologia emergente e in rapida evoluzione che ha il potenziale per causare danni immensi se utilizzata senza garanzie, ma sostanzialmente nessuno (tranne l' Unione Europea , in un certo senso) riesce a mettersi d'accordo su come regolamentarla. Quindi, invece di cercare di tracciare un percorso chiaro e preciso su come consentire all'IA di operare, gli esperti del settore hanno optato per un nuovo approccio: che ne dite di individuare semplicemente quali esempi estremi riteniamo tutti negativi e di accettarli?
Lunedì, un gruppo di politici, scienziati e accademici si è recato all'Assemblea Generale delle Nazioni Unite per lanciare il Global Call for AI Red Lines , un appello ai governi di tutto il mondo affinché si uniscano e concordino sulle più ampie linee guida per prevenire "rischi universalmente inaccettabili" che potrebbero derivare dall'implementazione dell'IA. L'obiettivo del gruppo è di stabilire queste linee guida entro la fine del 2026.
La proposta ha raccolto finora oltre 200 firme da esperti del settore, leader politici e premi Nobel. Tra i firmatari figurano l'ex presidente dell'Irlanda, Mary Robinson, e l'ex presidente della Colombia, Juan Manuel Santos, così come i premi Nobel Stephen Fry e Yuval Noah Harari. Anche Geoffrey Hinton e Yoshua Bengio, due dei tre uomini comunemente definiti i " Padrini dell'IA " per il loro lavoro fondamentale in questo ambito, hanno aggiunto i loro nomi alla lista.
Ora, quali sono queste linee rosse? Beh, la decisione spetta ancora ai governi. L'appello non include prescrizioni o raccomandazioni politiche specifiche, sebbene citi un paio di esempi di quella che potrebbe essere una linea rossa. Vietare il lancio di armi nucleari o l'uso in attività di sorveglianza di massa sarebbe una potenziale linea rossa per gli usi dell'IA, afferma il gruppo, mentre vietare la creazione di IA che non possano essere interrotte dall'intervento umano sarebbe una possibile linea rossa per il comportamento dell'IA. Ma sono molto chiari: non scolpiteli nella pietra, sono solo esempi, potete stabilire le vostre regole.
L'unica cosa che il gruppo propone concretamente è che qualsiasi accordo globale dovrebbe basarsi su tre pilastri: "un elenco chiaro di divieti; meccanismi di verifica solidi e verificabili; e la nomina di un organismo indipendente istituito dalle Parti per supervisionarne l'attuazione".
I dettagli, però, spettano ai governi concordare. E questa è la parte un po' difficile. L'appello raccomanda che i paesi organizzino vertici e gruppi di lavoro per definire la situazione, ma ci sono sicuramente molte motivazioni contrastanti in gioco in queste discussioni.
Gli Stati Uniti, ad esempio, si sono già impegnati a non consentire all'IA di controllare le armi nucleari (un accordo stipulato sotto l'amministrazione Biden, quindi chissà se sarà ancora in vigore). Ma recenti rapporti hanno indicato che alcuni membri dell'intelligence dell'amministrazione Trump si sono già irritati per il fatto che alcune aziende di intelligenza artificiale non permettano loro di utilizzare i loro strumenti per attività di sorveglianza interna . Quindi, l'America accetterebbe una proposta del genere? Forse lo scopriremo entro la fine del 2026... se riusciremo a farlo in tempo.
gizmodo