L’intelligenza artificiale: "È basata solo sui calcoli e il Vangelo dimostra che sono contro la vita"

Il vescovo Marconi: uccisero Gesù in quanto temevano una rivolta, ma sbagliarono i conti perché erano nell’egoismo. "Oggi l’IA non distingue il bene dal male, serve l’etica a monte quando si scrivono gli algoritmi".

L’intelligenza artificiale: "È basata solo sui calcoli e il Vangelo dimostra che sono contro la vita"

L’intelligenza artificiale: "È basata solo sui calcoli e il Vangelo dimostra che sono contro la vita"

di Franco Veroli

Monsignor Marconi, l’intelligenza artificiale, già presente nelle nostre attività, è in continuo sviluppo. Secondo lei è minaccia o opportunità?

"Non sono un esperto nel campo dell’intelligenza artificiale, come un mio bravissimo alunno, il professor Paolo Benanti, che è consulente governativo e Onu sull’argomento. Al massimo sono uno studioso del linguaggio, cioè del significato delle parole e del funzionamento del modo umano di ragionare. Ad un grande filosofo del linguaggio, Umberto Eco, è attribuita da molti una definizione famosa del computer e del ’ragionamento’ computerizzato, quella che oggi chiamiamo ’intelligenza artificiale, IA’. Per usare le sue parole “il computer è un cretino tremendamente veloce“. La definizione è perfetta, perché le persone affette da cretinismo, hanno una forma di handicap mentale che permette di compiere azioni anche complesse, ma solo se apprese meccanicamente e ripetitive. Il cretino è privo di vera inventiva e di capacità di prevedere intuitivamente e a lungo termine le conseguenze delle sue azioni. Se cerchi un operaio che faccia lavori faticosi, ripetitivi e abbastanza banali, che comportino poca responsabilità per il bene di sé e degli altri, un cretino è l’ideale! Invece l’ultima cosa che gli farei fare è occuparsi della educazione dei giovani e del governo di una nazione. È quanto ha scritto nell’opera ’La banalità del male’ Hannah Arendt, mostrando come una classe dirigente di cretini, come era la gran parte di quella nazista, andata al potere, educò alla violenza stupida un’intera generazione e portò il mondo alla catastrofe".

La Chiesa declina al plurale questa situazione e parla di intelligenze artificiali. può spiegarci perché?

"Credo perché si tratta di macchine diverse, programmate con sistemi di algoritmi diversificati e, soprattutto, differenziate da chi le addestra. Chi programma e chi addestra un computer con IA, ad esempio per fargli scrivere degli articoli di giornale, a seconda delle sue convinzioni, gusti, idee e valori determinerà molto il modo in cui l’IA produrrà testi di un tipo o di un altro. L’IA non è giusta e imparziale, ma amplifica e moltiplica le convinzioni e i valori o disvalori di chi la programma. Calcolare, valutare e fare discernimento sapiente di una situazione sono cose molto diverse tra loro e l’IA sa fare solo calcoli. Nel Vangelo è narrato come i farisei giunsero alla decisione di uccidere Gesù, basata su di un calcolo. Infatti, dissero: “C’è meno danno ad uccidere un solo uomo che a rischiare di farne uccidere molti dai Romani, che temevano una rivolta fatta dai cristiani“. Con questo calcolo, che non comprendeva il mistero di chi fosse davvero Gesù, uccisero il Figlio di Dio! Calcolarono velocemente una cosa sbagliata, perché erano chiusi nei loro egoismi, non riconoscevano il valore sacro della vita, si preoccupavano soprattutto di conservare il loro potere ed i loro privilegi".

Serve un’etica dell’intelligenza artificiale, si dice. Ma non c’è il rischio di spostare la responsabilità delle scelte dall’uomo ad un algoritmo?

"Come ho detto, l’IA non può distinguere il bene dal male, ma applica velocemente i criteri di questa distinzione posti da chi la programma. L’etica serve, ma a monte dell’IA, serve nella trasparenza dei principi con cui si scrivono gli algoritmi. Nella letteratura e nel cinema di fantascienza del ‘900 ci sono interessanti esempi su questo tema. Sono famose le tre leggi della robotica di Isaac Asimov, enunciate nella sua raccolta di racconti di fantascienza ’Io, robot’ del 1950, che tentano di porre un confine etico di base all’IA dei robot: 1- Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno. 2- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge. 3- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la prima o con la seconda legge. A ben vedere ci sono sotto i valori etici della sacralità della vita umana e quello del bene comune. Un bel modo di iniziare a programmare una IA".