Antonio Casciano, Cristianità n. 402 (2020)
Dal 26 al 28 febbraio scorso, in Vaticano, si è tenuta l’assemblea generale annuale della Pontificia Accademia per la Vita (PAV). In occasione di quell’importante appuntamento è stato promosso un simposio internazionale dedicato al tema dell’Intelligenza Artificiale (IA). I momenti topici di questi tre giorni sono stati: il discorso di Papa Francesco ai partecipanti, letto dal presidente della PAV, l’arcivescovo-vescovo emerito di Terni-Narni-Amelia, in Umbria, mons. Vincenzo Paglia; e la firma di un Call for an AI Ethics, un importante documento sottoscritto, fra gli altri, dai rappresentanti di alcuni tra i più noti operatori internazionali del settore dell’IA, quali Microsoft e IBM, oltre che da quelli dell’Organizzazione delle Nazioni Unite per l’Alimentazione e l’Agricoltura (Food and Agriculture Organization; FAO) e del governo italiano, allo scopo di «[…] sostenere un approccio etico all’Intelligenza Artificiale e promuovere tra organizzazioni, governi e istituzioni un senso di responsabilità condivisa con l’obiettivo di garantire un futuro in cui l’innovazione digitale e il progresso tecnologico siano al servizio del genio e della creatività umana» (1). In questa riflessione, l’attenzione si concentrerà, in particolare, sulle parole del Pontefice ai partecipanti, dalle quali traspare l’auspicio di addivenire presto alla messa a punto di un condiviso codice «algor-etico», capace di offrire linee univoche di orientamento e di azione a quanti operano nel settore della raccolta, elaborazione e commercializzazione su larga scala dei cosiddetti «megadati» o «big data» (2).
Il Santo Padre ha dapprima messo in guardia circa la pervasività, ormai inarrestabile, dei processi di digitalizzazione e la creazione di sistemi di IA, che mai come oggi toccano e trasformano, sempre più in profondità, abitudini e stili di vita, culture e sistemi valoriali, persone e istituzioni, tanto da incidere «[…] sul nostro modo di comprendere il mondo e anche noi stessi. […] Le decisioni anche le più importanti, come quelle in ambito medico, economico o sociale, sono oggi frutto di volere umano e di una serie di contributi algoritmici. L’atto personale viene a trovarsi al punto di convergenza tra l’apporto propriamente umano e il calcolo automatico, cosicché risulta sempre più complesso comprenderne l’oggetto, prevederne gli effetti, definirne le responsabilità» (3). A partire da questo preciso snodo, il Papa delinea tre nuclei problematici fondamentali.
Il primo punto riguarda la definizione di ciò che si intende per «intelligenza artificiale». Secondo il filosofo Vittorio Possenti, «il termine stesso d’intelligenza artificiale è equivoco, perché lascia intendere che l’intelligenza umana possa essere approssimata dalla macchina, ossia che pensare è (soltanto) calcolare. Ciò è vero solo per le attività computazionali della mente, ma assolutamente riduttivo per l’impressionante varietà e ricchezza delle espressioni dell’intelletto umano: conoscitive, morali, autocoscienti, estetiche, spirituali, mistiche, musicali, ecc. Nell’endiade “intelligenza artificiale” l’aggettivo contraddice il sostantivo: mai si riuscirà a creare un’intelligenza che riesca a simulare artificialmente la straordinaria complessità dell’intelletto umano con gli elementi della coscienza, dell’intenzionalità, del desiderio, con la sua capacità di accogliere e interpretare la realtà. Qui l’assumere la prospettiva impersonale sottesa alla prassi scientifica comporta un prezzo pesante per la persona, coinvolta in un esteso processo di naturalizzazione» (4). La locuzione «intelligenza artificiale» dice riferimento alla capacità di un computer di eseguire operazioni proprie dell’intelletto umano, quali quelle inerenti alla raccolta e organizzazione logica di dati, cui affiancare quelle relative alla loro elaborazione e rielaborazione in modelli statistici e alla loro applicazione al reale per mezzo di meccanismi di calcolo basati su un numero predeterminato di regole e di procedimenti cui si dà il nome di «algoritmi». In altre parole, l’IA impiega algoritmi per ordinare grandi quantità di dati, costruire modelli matematici e quindi, a partire da essi, eseguire determinazioni o previsioni su certe attività. Si intuisce tuttavia come la metodologia algoritmica dell’IA, in ragione del suo statuto epistemologico-statistico prima descritto, per quanto articolata, non potrà mai rendere conto esaurientemente della complessa e irriducibile varietà del reale, così come della molteplicità inesauribile delle attività dell’intelletto umano. L’epistemologia a base algoritmica di cui si serve l’IA presuppone un approccio puramente funzionalistico all’intelletto umano, riducibile alle sole operazioni computazionali ed esteriorizzabili della mente. Si tratta di un approccio riduzionistico che muove dall’equiparazione di pensiero e di calcolo, laddove il pensare, attività-principe dell’intelletto umano, non è solo un calcolare, ma piuttosto formarsi un’idea e formulare un giudizio, concepire e percepire. Insomma, alla base del pensare vi è il fenomeno originale dell’intenzionalità, in questa sede intesa secondo il realismo aristotelico-tomistico, ovvero «come una proprietà dell’intelligenza umana che, indirizzandosi ad oggetti, li “tocca” o se ne appropria nel concetto, ossia nell’identità intenzionale tra concetto e oggetto nel e col concetto. Se non si compie questo passo decisivo si rimane prigionieri del rappresentazionalismo e dell’antirealismo che escogitano un’interfaccia cognitiva tra mente e realtà. La dottrina dell’intenzionalità qui richiamata appartiene al realismo classico o a quanto si può chiamare il realismo diretto, che si oppone al rappresentazionalismo e che pone fine a quattro secoli di posizioni erronee in gnoseologia e filosofia della mente» (5).
E qui si inserisce il secondo punto della mia considerazione. L’accesso ai processi di elaborazione di un sistema di IA non è mai alla portata di tutti, non solo a causa delle comprensibili asimmetrie nelle competenze funzionali di singoli e di gruppi, ma anche e soprattutto per l’arrembante concorrenza esistente nei mercati quanto all’appropriazione esclusiva delle principali fonti di raccolta e di elaborazione dei big data. Detto con le parole del Papa, questa «[…] asimmetria, per cui alcuni pochi sanno tutto di noi, mentre noi non sappiamo nulla di loro, intorpidisce il pensiero critico e l’esercizio consapevole della libertà» (6). Se è vero che l’intelligenza artificiale può elaborare molti più dati di quanto riescano a fare gli esseri umani, tuttavia la complessità di tali modelli non può eliminarne i difetti costitutivi, dovuti a quelli che sono stati chiamati i «preconcetti» e le «parzialità» nella scrittura degli algoritmi. Diversi ricercatori hanno evidenziato l’esistenza di pregiudizi di vario tipo negli algoritmi, per esempio nei software adottati per le ammissioni universitarie, per la selezione delle risorse umane, per l’attribuzione dei rating (valutazione) del credito, per l’accesso ai dispositivi di sicurezza e sussidio sociale. Gli algoritmi, dunque, non sono affatto neutri, potendo incorporare e innescare, per mezzo dei metodi operativi cui obbediscono, autentiche discriminazioni socio-economiche, normalmente a detrimento delle fasce più deboli e marginali della società (7).
Nello specifico, la distorsione deliberata dei dati alla base dei calcoli statistico-algoritmici potrebbe dipendere da interessi economici, commerciali o politici, ed essere tale da condizionare e falsare significativamente il processo decisionale dei singoli, di modo tale che, «sul piano socio-economico, gli utenti sono spesso ridotti a “consumatori”, asserviti a interessi privati concentrati nelle mani di pochi» (8). E, sempre il Papa, in un intervento precedente, con ancora maggiore chiarezza evocativa, aggiungeva: «Lo sviluppo vertiginoso del mondo digitale vede protagoniste le grandi compagnie del settore, che superano agevolmente le frontiere fra gli Stati, si muovono rapidamente sul fronte più avanzato dello sviluppo tecnologico e hanno accumulato risorse economiche ingenti. È ormai evidente che esse non possono considerarsi completamente estranee all’uso degli strumenti che mettono nelle mani dei loro clienti. […] Esse sono non solo tenute a rispettare le leggi, ma anche a preoccuparsi delle direzioni in cui si muove lo sviluppo tecnologico e sociale da loro promosso e provocato, perché tale sviluppo precede di fatto le stesse leggi che cercano di regolarlo» (9).
Non potendo, dunque, sottacere la forza con cui tali interessi tendono a condizionare la condotta delle imprese che operano nel settore dei big data e considerando che l’uomo, sia come singolo sia come comunità, non può mai essere visto come un soggetto estraneo al processo decisionale algoritmico, si impone — e vengo al terzo puntodella mia riflessione — uno sforzo globale, delle coscienze e delle intelligenze, per favorire la crescita e la promozione di una nuova etica dell’algoritmo, che sia a servizio effettivo del bene della persona. Secondo il filosofo Fernando Fiorentino, «ogni essere, sia esso razionale o irrazionale, tende verso un bene, non però, spiega Tommaso [d’Aquino; 1225-1274], nel senso che “tutte le cose tendono verso ciascun [particolare] bene, ma nel senso che ha natura di bene qualsiasi cosa verso cui si tenda”. Cosicché, quando si vede che un essere tende per sua natura verso qualcosa, quel qualcosa, almeno per lui, è un bene. In effetti, l’Angelico definisce il bene come “la convenienza dell’ente con l’appetito”, il quale è quella facoltà per mezzo di cui ogni essere si porta verso ciò che è il suo bene o la sua perfezione, intesa come pienezza di essere. Non c’è qui nessuna fallacia, nessun inganno. La definizione di bene deriva semplicemente dall’osservazione di ciò che accade spontaneamente e ordinariamente nella natura di ogni essere» (10).
Qui la Chiesa, con il patrimonio di sapienza e di phronesis che il suo Magistero ha saputo accumulare, custodire e incrementare nel corso dei secoli, compendiandolo in quello scrigno di preziose direttive all’agire pratico dei fedeli che è la sua dottrina sociale, è chiamata all’esercizio epocale di una responsabilità verso l’uomo veramente insostituibile. È, infatti, una questione di giustizia sociale quella cui rinvia la ricerca sempre più avida ed incontrollata dei big data, ricerca che sempre più spesso fa il paio con la manipolazione e lo sfruttamento sistematici dei poveri: «I poveri del XXI secolo sono, al pari di chi non ha denaro, coloro che, in un mondo basato sui dati e sulle informazioni, sono ignoranti, ingenui e sfruttati» (11).
Si tratta, allora, di pensare e di promuovere una radicale opera di «evangelizzazione dell’IA», per mezzo di un’azione mirata che investa due ambiti delle attività umane in particolare, quello dell’educazione e quello della politica. Infatti, aggiunge ancora Papa Francesco, non sembra sufficiente «[…] la semplice educazione all’uso corretto delle nuove tecnologie: non sono infatti strumenti “neutrali”, perché, come abbiamo visto, plasmano il mondo e impegnano le coscienze sul piano dei valori. C’è bisogno di un’azione educativa più ampia» (12), cui affiancare una capillare opera di sensibilizzazione morale della politica attraverso la creazione di «corpi sociali intermedi che assicurino rappresentanza alla sensibilità etica degli utilizzatori e degli educatori» (13).
Solo in questo modo, l’esperienza e l’autorevolezza della Chiesa saranno veramente risorse essenziali offerte all’umanità affinché giunga alla formulazione di quei criteri utili a controllare l’IA, piuttosto che ad esserne sistematicamente controllata: «Si intravede una nuova frontiera che potremmo chiamare “algor-etica”. Essa intende assicurare una verifica competente e condivisa dei processi secondo cui si integrano i rapporti tra gli esseri umani e le macchine nella nostra era. Nella comune ricerca di questi obiettivi, i principi della Dottrina Sociale della Chiesa offrono un contributo decisivo: dignità della persona, giustizia, sussidiarietà e solidarietà. Essi esprimono l’impegno di mettersi al servizio di ogni persona nella sua integralità e di tutte le persone, senza discriminazioni né esclusioni. Ma la complessità del mondo tecnologico ci chiede una elaborazione etica più articolata per rendere questo impegno realmente incisivo» (14). Condurre gli esperti delle diverse aziende operanti nel settore dei big data ai valori del Vangelo e al patrimonio di sapienza che la Chiesa cattolica ha condensato nel suo bimillenario Magistero a servizio dell’uomo, rimettere cioè al centro il personalismo cristiano che ha mostrato di essere, attraverso i secoli, la sola cornice epistemologica possibile nella tutela, etica, giuridica e politica, di quel nucleo di verità ontologicamente fondate che interpellano l’uomo, è forse il solo modo per inaugurare, far crescere e diffondere una cultura e una pratica dell’IA autenticamente antropocentriche.
Note:
(1) Testo tratto dalla pagina dedicata all’evento presente nel sito web della Pontificia Accademia per la Vita <http://www.academyforlife.va/content/pav/it/events/workshop-intelligenza-artificiale.html>, consultato il 26-5-2020.
(2) Letteralmente «grandi [masse di] dati», ossia la raccolta di dati informativi così estesa in termini di volume, velocità e varietà da richiedere tecnologie e metodi analitici specifici per l’estrazione di valore o conoscenza; cfr. Wikipedia sub voce.
(3) Cfr. Francesco, Discorso ai partecipanti alla Plenaria della Pontifica Accademia per la Vita, del 28-2-2020.
(4) Vittorio Possenti, Anima, mente, corpo e immortalità. La sfida del naturalismo, in Roczniki Filozoficzne [Annali di filosofia], vol. 62, fascicolo 2, aprile-giugno 2014, pp. 27-74 (p. 58).
(5) Ibid.,p. 60.
(6) Cfr. Francesco, Discorso ai partecipanti alla Plenaria della Pontifica Accademia per la Vita, cit.
(7)Cfr. Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, St Martin’s Press, New York 2018.
(8) Cfr. Francesco, Discorso ai partecipanti alla Plenaria della Pontifica Accademia per la Vita, cit.
(9) Cfr. Idem, Discorso ai partecipanti al Congresso «Child Dignity in the Digital World», del 14-11-2019.
(10) Fernando Fiorentino, Principi di bioetica secondo il pensiero di Tommaso d’Aquino,Verbum Ferens, Pontificia Facoltà Teologica dell’Italia Meridionale, Sezione San Tommaso d’Aquino, Napoli 2013, p. 33.
(11) Michael Kelly S.J., Paul Twomey, I «Big Data» e le sfide etiche, in La Civiltà Cattolica, quad. 4031, vol. II, 2-6-2018, pp. 446-459 (p. 446).
(12)Cfr. Francesco, Discorso ai partecipanti alla Plenaria della Pontifica Accademia per la Vita, cit.
(13) Ibidem.
(14) Ibidem.