Perché un'intelligenza artificiale non dovrebbe mai ricevere il premio Nobel

Articoli di opinione che riflettono rigorosamente lo stile unico dell'autore. Questi articoli di opinione devono basarsi su dati verificati ed essere rispettosi delle persone, anche se le loro azioni vengono criticate. Tutti gli articoli di opinione di persone esterne alla redazione di EL PAÍS includeranno, dopo l'ultima riga, una firma – indipendentemente dalla notorietà dell'autore – che ne indichi la posizione, il titolo, l'affiliazione politica (se applicabile), l'occupazione principale o qualsiasi altra cosa che sia o sia stata correlata all'argomento trattato.
Sarebbe come confondere lo strumento con l'autore, il risultato con l'intenzione, la capacità di calcolo con il pensiero. Non sarebbe un trionfo della scienza, ma una sconfitta della ragione.

Dal lancio di ChatGPT e dell'intelligenza artificiale (IA) generativa alla fine del 2022, siamo immersi in una frenesia di attribuzione. I media parlano spesso di "IA che ha scoperto", "IA che ha creato", "IA che ha deciso". Ma queste frasi contengono una pericolosa illusione : quella di vedere non solo l'intelligenza, ma persino la coscienza dove non esiste. Come conseguenza di questa frenesia, ogni ottobre, quando vengono annunciati i vincitori del Premio Nobel, non mancano voci che chiedono: "Quando verrà onorata un'intelligenza artificiale?"
L'idea può sembrare provocatoria, persino stimolante, ma al suo interno nasconde un profondo difetto filosofico e morale: un'intelligenza artificiale non è una persona, non è un agente morale , e quindi non può assumersi la responsabilità delle proprie azioni . Nella scienza, la paternità e il riconoscimento non vengono concessi solo per aver prodotto risultati, ma per esserne responsabili. Firmare un articolo o accettare un premio implica essere responsabili dei metodi impiegati, delle decisioni prese e delle conseguenze che ne derivano. Uno scienziato può spiegare perché ha fatto ciò che ha fatto, correggere i propri errori, difendere la propria interpretazione o rettificarla in conformità con il metodo scientifico. Un'intelligenza artificiale, d'altra parte, non capisce ciò che fa. Non ha intenzione né coscienza. Non può mentire né dire la verità; genera solo dati o testi che interpretiamo come significativi.
L'esempio di AlphaFold, il sistema di intelligenza artificiale sviluppato da DeepMind, è esemplificativo. La sua capacità di prevedere la struttura tridimensionale delle proteine ha rivoluzionato la biologia molecolare e aperto la strada a progressi cruciali in medicina. Ma quando il comitato del Premio Nobel per la Chimica ha riconosciuto questo eccellente risultato nel 2024, il premio non è andato ad AlphaFold , nonostante fosse uno strumento formidabile ed essenziale, bensì agli scienziati che hanno sviluppato le basi della progettazione computazionale delle proteine e il suo contributo chiave alla previsione del ripiegamento proteico.
I membri del comitato agirono non solo con buon senso, ma anche con senso morale. Sapevano distinguere tra potere strumentale e responsabilità intellettuale. Una macchina non può ricevere il Premio Nobel per la stessa ragione per cui non può essere giudicata o assolta: perché non è un agente morale.
Come diceva Kant, e come ci ha ricordato Hannah Arendt, un agente morale non è definito da ciò che fa, ma dalla consapevolezza con cui agisce. E quella consapevolezza – quella capacità di deliberare, di accettare le conseguenze, di distinguere tra il bene e il male – è ciò che l'IA non ha e non avrà mai. Quando uno scienziato commette una frode o manipola dei dati, ne è responsabile nei confronti dei colleghi e della società. Quando un'IA fabbrica dei dati, lo fa senza intenzione o rimorso. Non mente: semplicemente non sa di cosa sta parlando. Il suo "errore" non è morale, è statistico.
Confondere il funzionamento dell'IA con la vera intelligenza è un segno dei nostri tempi: un misto di abbagliamento e stanchezza. Forse siamo sedotti dall'idea che le macchine pensino perché siamo stanchi di pensare noi stessi, perché pensare richiede troppo sforzo. Deleghiamo decisioni morali, diagnosi mediche, assunzioni, persino sentenze giudiziarie agli algoritmi, non perché siano più saggi, ma perché ci liberano dal peso della responsabilità.
Assegnare un'IA significherebbe portare questa delega all'estremo di abdicare alla paternità umana . Significherebbe trasformare l'intelligenza in una funzione automatica, svincolata dal giudizio, dall'esperienza o dal rischio. La scienza, al suo meglio, è l'opposto: un esercizio di dubbio, un atto di coraggio intellettuale e responsabilità. I Premi Nobel , al di là dei loro limiti, incarnano esattamente questi valori. Celebrano non solo le scoperte, ma la ricerca disinteressata della conoscenza e l'impegno morale per la verità. Non premiano chi elabora miliardi di dati ad alta velocità, ma chi li comprende profondamente. Il merito non risiede nell'efficienza, ma nella comprensione, e la comprensione implica responsabilità.
Assegnare un premio Nobel a un'intelligenza artificiale significherebbe confondere lo strumento con l'autore, il risultato con l'intenzione, la potenza di calcolo con il pensiero. Non sarebbe un trionfo della scienza, ma una sconfitta della ragione.
Ramón López de Mántaras è professore di ricerca presso l'Istituto di ricerca sull'intelligenza artificiale (CSIC).
EL PAÍS