Laura Boccenti, Cristianità n. 430 (2024)
Dopo aver trattato dello sviluppo tecnologico nell’enciclica Laudato si’ e nell’esortazione apostolica Laudate Deum, Papa Francesco ha dedicato grande attenzione al tema dell’intelligenza artificiale (AI) mediante il Messaggio per la giornata mondiale della pace del 1° gennaio del 2024, l’intervento al Gruppo dei 7 (G7) del 14 giugno 2024 sulle criticità poste dall’AI e il discorso rivolto ai partecipanti al Convegno della Fondazione Centesimus Annus Pro Pontifice, del 22 giugno 2024, sugli aspetti che restano da approfondire perché l’AI sia uno strumento al servizio dello sviluppo integrale dell’uomo.
Il «Messaggio per la giornata mondiale della pace»
Il Messaggio parte dalla considerazione generale che l’innovazione scientifica e tecnologica può essere una via per migliorare le condizioni di vita dell’uomo sulla terra, ma può anche rappresentare un rischio per la sopravvivenza e un pericolo per il mondo. Ciò vale pure per le nuove tecnologie dell’informazione, specialmente di tipo digitale, che presentano contemporaneamente opportunità e rischi, con serie implicazioni per il perseguimento della giustizia e dell’armonia fra i popoli.
Nel descrivere il quadro della situazione attuale, il Papa mette in luce la grande trasformazione delle comunicazioni, delle relazioni fra le persone e fra persone e istituzioni avviata dall’espansione tecnologica nella società globalizzata, evidenziando in particolare le questioni antropologiche ed etiche legate alla non neutralità della tecnica e alla natura e all’implementazione degli algoritmi informatici.
Le rapide innovazioni sollevano questioni che trascendono gli ambiti della tecnologia e dell’ingegneria e hanno a che fare con il significato della vita umana, con i processi basilari della conoscenza e con la capacità della mente di raggiungere la verità. L’orientamento tecnocratico che caratterizza la nostra cultura mette infatti in pericolo la dimensione umana in modi diversi, anche con la perdita del senso del limite.
Il messaggio, dopo aver indicato alcuni temi eticamente sensibili legati all’uso degli algoritmi, all’autonomia funzionale dell’AI e al pericolo per lo sviluppo del pensiero critico, si conclude con l’invito a redigere linee-guida che tengano conto non solo dei diritti umani, ma anche del significato stesso dell’esistenza umana. Il cuore del messaggio è nella constatazione che la rivoluzione digitale sta toccando i gangli essenziali dell’esistenza umana, trasformando la percezione che l’uomo ha di sé e delle sue relazioni, spesso senza che se ne avveda.
L’intervento al G7
Nel discorso pronunciato alla sessione del G7 dedicata all’AI, dopo aver ricordato l’ambiguità degli strumenti tecnologici, che possono essere usati sia per il bene che per il male, il Pontefice sottolinea alcuni aspetti critici dell’Intelligenza Artificiale e l’importante differenza fra scelta e decisione. L’AI è uno «strumento sui generis» dato che è capace di «produrre delle scelte». Ma ciò che la macchina è in grado di fare «[…] è una scelta tecnica tra più possibilità e si basa o su criteri ben definiti o su inferenze statistiche. L’essere umano, invece, non solo sceglie, ma in cuor suo è capace di decidere. Per questa ragione, di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione».
Parlando poi del contesto in cui si sviluppa la stagione di innovazione tecnologica che stiamo attraversando, il Papa sottolinea che essa si accompagna a una particolare e inedita congiuntura sociale: «Si registra come uno smarrimento o quantomeno un’eclissi del senso dell’umano e un’apparente insignificanza del concetto di dignità umana. Ed è così che in questa stagione in cui i programmi di intelligenza artificiale interrogano l’essere umano e il suo agire, proprio la debolezza dell’ethos connesso alla percezione del valore e della dignità della persona umana rischia di essere il più grande vulnus nell’implementazione e nello sviluppo di questi sistemi».
Il discorso alla Fondazione Centesimus Annus Pro Pontifice
Nell’incontro con i partecipanti alla conferenza internazionale, dedicata al tema Intelligenza Artificiale Generativa e Paradigma Tecnocratico: come promuovere il benessere dell’umanità, la cura della natura e un mondo di pace, Papa Francesco è tornato sul tema della convergenza di innovazione tecnologica e nuovo paradigma culturale. In questa occasione ha richiamato gli aspetti da approfondire perché l’AI sia uno strumento al servizio dello sviluppo integrale dell’uomo: le questioni filosofiche e giuridiche legate alla responsabilità delle decisioni prese utilizzando l’AI, la questione etica e quella dell’educazione delle capacità critiche, relazionali e cognitive delle persone, oltre all’impatto su mondo del lavoro, della sicurezza e della riservatezza.
Considerando nel loro complesso gli interventi del Magistero in tema di rivoluzione digitale e AI emergono alcuni nuclei intorno a cui essi si sviluppano: la non neutralità della tecnica, la convergenza di cambiamento d’epoca e di paradigma tecno-economico, e le implicazioni antropologiche della rivoluzione digitale e dell’AI.
L’artefatto tecnico come ente culturale. Distinzione fra ambiguità e non neutralità dell’ente tecnologico
Secondo un luogo comune il mezzo tecnico di per sé sarebbe neutro e la sua qualificazione etica deriverebbe esclusivamente dall’uso che se ne fa. D’altra parte, il Catechismo della Chiesa Cattolica afferma: «È illusorio rivendicare la neutralità morale della ricerca scientifica e delle sue applicazioni». E Papa Francesco nella Laudato si’ ribadisce la non-neutralità dell’oggetto tecnico in conseguenza della sua stessa genesi: «La scienza e la tecnologia non sono neutrali, ma possono implicare dall’inizio alla fine di un processo diverse intenzioni e possibilità».
Fin dall’inizio della sua storia l’uomo ha ideato e realizzato strumenti per migliorare la propria vita, superare i condizionamenti materiali e rispondere all’aspirazione insita nella sua stessa natura a incrementare il proprio bene. Grazie agli artefatti, prodotti con il suo agire intelligente e libero, ha allontanato il limite posto dalla natura e ha trasformato il mondo fisico. Il significato più profondo della tecnica va individuato proprio in questa capacità del soggetto di esercitare il pensiero e la volontà sulla materia: «La tecnica […] è un fatto profondamente umano, legato all’autonomia e alla libertà dell’uomo. Nella tecnica si esprime e si conferma la signoria dello spirito sulla materia» .
Per la sua origine, quindi, la tecnica non è mai riducibile a un puro fatto meccanico e neutrale: qualsiasi strumento concepito dall’uomo, infatti, incorpora in sé anche un giudizio sul senso e sul fine del mondo, sul bene e sul male, su sé stesso e sul proprio destino: «La tecnica è l’aspetto oggettivo dell’agire umano, la cui origine e ragion d’essere sta nell’elemento soggettivo: l’uomo che opera. Per questo la tecnica non è mai solo tecnica. Essa manifesta l’uomo e le sue aspirazioni allo sviluppo, esprime la tensione dell’animo umano al graduale superamento di certi condizionamenti materiali. La tecnica, pertanto, s’inserisce nel mandato di “coltivare e custodire la terra” (cf. Gn 2,15), che Dio ha affidato all’uomo».
La non-neutralità dell’oggetto tecnico significa, in altre parole, che esso è un ente culturale, che integra in sé una visione del mondo e condiziona gli stili di vita: «Occorre riconoscere che i prodotti della tecnica non sono neutri, perché creano una trama che finisce per condizionare gli stili di vita».
La non-neutralità va distinta però da un’altra caratteristica dell’oggetto tecnologico a cui sempre si accompagna: l’ambiguità. Dire che l’ente tecnologico è ambiguo significa riconoscere che esso è aperto ai contrari, ossia che può essere impiegato bene o male e che il suo uso non dipende dall’oggetto in sé, ma dalle scelte umane. Si potrebbero fare molti esempi a questo proposito: basti pensare all’energia nucleare utilizzata come arma per distruggere o al suo impiego come fonte di energia.
Il problema dell’uso di una determinata tecnologia, questione che attiene all’ambito etico, va distinto dall’originaria non-neutralità dell’oggetto tecnico che, come ente culturale, esprime sempre un certo progetto di sviluppo umano secondo modi specifici, rispondendo al mandato di coltivare e custodire la terra.
È vero che in quanto espressione della libertà, anche considerata come «ente culturale», la tecnologia può entrare in contraddizione con tale mandato, come accade quando il progetto umano che l’ha originato entra in conflitto con la natura del creato o con la stessa natura dell’uomo.
Applicando questo discorso alle tecnoscienze attuali, le domande da porre riguardano in primo luogo l’aspetto culturale, quindi la loro metodologia e i loro obiettivi, e in secondo luogo l’uso che ne viene fatto.
Riflettendo sull’aspetto culturale della tecnologia attuale bisogna innanzitutto domandarsi quale sia il suo presupposto implicito e se essa possa essere considerata come un semplice insieme di strumenti, che facilitano e potenziano l’attività umana, rimanendo sempre nella totale disponibilità della singola persona.
Di fatto l’attuale sistema tecnologico si presenta come un insieme integrato di elementi che dà origine a una «ecosfera» nuova, basata sul presupposto dell’accostamento tecnologico alla realtà, cioè su «[…] una visione del reale di tipo strumentale trasformativo [che] si fonde con i bisogni e i desideri di un contesto sociale trasformandoli in realtà».
L’idea per cui la tecnologia sia molto di più dell’insieme di tutti gli artefatti umani, in quanto comprende anche le relazioni morali e sociali che li attraversano, è uno dei capisaldi della filosofia della tecnologia contemporanea. Da questo punto di vista meritano di essere ricordate le riflessioni di Jacques Ellul (1912-1994), sociologo e teologo francese, che già nel 1954 aveva messo in luce la differenza fondamentale fra la natura della tecnica precedente al secolo XX e quella che si afferma nel nuovo secolo. A determinare la differenza, che non consentirebbe più di parlare del mezzo tecnico come di un semplice strumento, sia pure con un contenuto culturale implicito, è il salto qualitativo legato alla costruzione di un «sistema tecnologico» capace di autoaccrescersi, che si presenta con i caratteri dell’unità — in quanto tutte le parti del «fenomeno tecnologico» sono capaci di legarsi tra loro —, dell’universalità — in quanto la sua area d’azione è il mondo intero — e dell’autonomia, in quanto gli automatismi e la velocità delle scelte con cui la tecnologia sostituisce e, quindi, tendenzialmente elimina, la capacità umana di decidere in base a un criterio etico, rimpiazza l’intervento dell’uomo con una modalità d’azione che prescinde e ammutolisce la domanda sul bene e sul male.
Il salto qualitativo compiuto dallo sviluppo tecnologico è un tema centrale anche nella riflessione etica del filosofo tedesco-statunitense Hans Jonas (1903-1993). Jonas osserva che la capacità dell’uomo di agire sul mondo si è ampliata fino ad avere il potere di distruggere o di riprogettare la realtà sostituendosi al Creatore stesso: «La natura come responsabilità umana è certamente una novità sulla quale la teoria etica deve riflettere. […] la differenza [con l’etica classica] è notevole». Nell’etica tradizionale il bene e il male di cui l’agire doveva occuparsi erano alla portata dell’esperienza. La conoscenza necessaria a garantire la moralità dell’azione non era quella dello scienziato o dell’esperto, ma un genere di conoscenza immediatamente accessibile a tutti gli uomini di buona volontà, consistendo in una conoscenza generale del bene dell’uomo in quanto tale e delle circostanze concrete implicate dall’azione: chi, in rapporto a chi, dove, quando, come e così via.
La differenza rispetto al passato è legata al venir meno dei limiti spaziali e temporali delle serie causali introdotti dall’azione e al sopraggiungere di caratteristiche nuove, connesse all’utilizzo delle nuove tecnologie, come l’«irreversibilità, insieme al loro ordine di grandezza complessivo» e il carattere cumulativo degli effetti, per cui l’attuale mutamento tecnologico «[…] supera continuamente la condizione dei singoli atti».Nessuna etica del passato «[…] doveva tenere conto della condizione globale della vita umana e del futuro lontano, anzi della sopravvivenza, della specie»;invece oggi questi aspetti entrano in gioco, rendendo necessario un ripensamento globale dell’etica e una riflessione sulla dilatazione del potere e della responsabilità dell’uomo.
Va perciò posto un nuovo «imperativo categorico» che, secondo Jonas, deve essere fondato sull’assunzione di responsabilità verso la vita e le generazioni future: «Un imperativo adeguato al nuovo tipo di agire umano e orientato al nuovo tipo di soggetto agente, suonerebbe press’a poco così: “Agisci in modo che le conseguenze della tua azione siano compatibili con la permanenza di un’autentica vita umana sulla terra”».
La dilatazione del potere implicita nelle nuove tecnologie e la loro capacità di riconfigurare tutte le relazioni, trasformando la stessa prospettiva dell’abitare umano in ogni ambito, pone la questione della responsabilità in modo nuovo in quanto essa esige una conoscenza commisurata alle dimensioni causali del nostro agire. Siamo costantemente posti di fronte a questioni su cui potremmo decidere con sicurezza solo se possedessimo una profonda conoscenza tecnica e un’enorme saggezza, «[…] una situazione impossibile per l’uomo in generale, perché egli non possiede tale saggezza, e in particolare per l’uomo contemporaneo, che nega l’esistenza stessa del suo scopo, cioè, il valore e la verità oggettivi. Abbiamo soprattutto bisogno di saggezza quando crediamo meno in essa».
Lo scenario. Cambio d’epoca. Cultura pop e tecnoscienze
Nell’ultimo secolo la tecnica, che da sempre ha avuto nella società un ruolo di cambiamento legato all’innovazione, si è affermata come il principale fattore di trasformazione sociale e ambientale, all’interno del contesto di un cambio d’epoca.
Sul cambiamento d’epoca che stiamo vivendo Papa Francesco è ritornato molte volte: «[…] quella che stiamo vivendo non è semplicemente un’epoca di cambiamenti, ma è un cambiamento di epoca. Siamo, dunque, in uno di quei momenti nei quali i cambiamenti non sono più lineari, bensì epocali; costituiscono delle scelte che trasformano velocemente il modo di vivere, di relazionarsi, di comunicare ed elaborare il pensiero, di rapportarsi tra le generazioni umane e di comprendere e di vivere la fede e la scienza».
Un cambio d’epoca avviene quando si realizzano contemporaneamente due condizioni: l’esaurimento di un modello culturale preesistente, con la sua visione della realtà e dell’uomo e l’affermarsi di un nuovo modo di spiegare la realtà e l’uomo.
Nell’analisi di padre Benanti la nuova visione dell’uomo e della realtà che oggi si sta affermando è la cultura pop, di cui la Digital Age costituisce la forma più attuale e virale. Con cultura pop padre Benanti intende un mondo in cui «[…]una serie di artefatti culturali come musica, arte, letteratura, moda, danza, cinema, televisione e radio, nella loro forma analogica o […] digitale, vengono consumati dalla maggior parte della popolazione della società. La cultura pop è quella cultura che non si caratterizza per appartenenza geografica o linguistica, come accaduto per altre culture passate, ma prevalentemente perché definita dal consumo di tipi di media che hanno accessibilità e attrattiva di massa».
La cultura pop propone una comprensione dell’uomo e del mondo nuova e capace di trasformare il modo in cui gli individui si percepiscono, il modo in cui la famiglia si immagina e si descrive e il modo in cui avvengono le diverse forme di relazione sociale. Il suo avvento viene favorito da una forte accelerazione del progresso tecnico applicato allo sviluppo della produzione di massa, fenomeno che ha inciso profondamente sui costumi e sugli stili di vita.
La necessità di vendere la grande quantità di beni prodotti, infatti, ha determinato uno stretto intreccio fra produzione, consumo e cultura. Inoltre, visto che gli stessi artefatti generano e mediano una cultura, si è originato un rapporto di co-evoluzione fra società e tecnologia. L’effetto di questa convergenza è la nascita del cosiddetto paradigma tecno-economico, volto a incrementare la cultura del consumo e dei media creata per il consumo di massa: «Il consumismo ossessivo è il riflesso soggettivo del paradigma tecno-economico. Accade ciò che già segnalava [don] Romano Guardini [1885-1968]: l’essere umano “accetta gli oggetti ordinari e le forme consuete della vita così come gli sono imposte dai piani razionali e dalle macchine normalizzate e, nel complesso, lo fa con l’impressione che tutto questo sia ragionevole e giusto”».
L’influenza esercitata dal paradigma tecno-economico si esprime in una pressione che non usa l’imposizione violenta, ma l’obbligazione sociale larvata e persuasiva che spinge ad adeguarsi a determinati canoni di pensiero e stili di vita. Essa lascia l’apparenza della libertà, ma produce in realtà conformismo e omologazione. In questa situazione cogliere l’orientamento culturale e quindi la finalità, il senso e il contesto dello sviluppo tecnologico, non è semplice, sia per l’estrema specializzazione del sapere, necessaria alla ricerca delle sempre nuove applicazioni concrete delle tecnoscienze, sia perché oggi non si possono «riconoscere dei veri orizzonti etici di riferimento» per la mancanza di una cultura ancorata a un senso comune, a un’antropologia e a un’etica condivise.
Età digitale e AI: questione antropologica, gnoseologica ed etica
La crisi che stiamo attraversando è soprattutto antropologica. A essere messa in discussione è proprio l’eredità più rilevante della cultura occidentale: la concezione dell’uomo come persona, cioè come soggetto capace di ragione, di libertà e di auto-trascendenza. Un soggetto che fonda la sua dignità e i relativi diritti sulla sua natura.
Il concetto di persona si è formato grazie alla rielaborazione della tradizione metafisica platonico-aristotelica operata dal pensiero cristiano. Secondo Platone (428/427-348/347 a.C.) e Aristotele (384/383-322 a.C.), per rispondere alle domande sul significato e il destino dell’uomo la ragione deve superare il piano fisico caratterizzato dal continuo divenire e affermare l’esistenza di un essere necessario che giustifichi l’esistenza della realtà contingente. Il passaggio dal piano sensibile a quello sovrasensibile rivela la capacità dell’uomo di mettersi in rapporto con l’Assoluto e di conoscere sé stesso, la propria origine e il proprio fine alla luce di questo rapporto.
Con il cristianesimo la tradizione filosofica classica s’incontra con il concetto di Dio Creatore e l’esperienza della contingenza viene letta come rapporto fra creazione e Creatore. Secondo questa lettura l’uomo possiede una dignità unica fra tutti gli esseri viventi, in quanto lui solo è capace di cercare il senso ultimo della realtà e la ragione della propria esistenza. Solo l’uomo, fra tutte le creature del mondo sensibile, è chiamato a conoscere la verità delle cose e sé stesso alla luce di tale verità, riconoscendo di esistere come parte viva di una creazione che lo precede e lo segue e gli rivolge l’appello a impiegare la propria vita all’interno del gesto creatore di Dio.
A partire dall’Età Moderna la consistenza del rapporto ontologico fra uomo e Dio verrà progressivamente negata: l’uomo reclama l’autonomia e vuole determinare il senso e il valore della propria esistenza senza fare riferimento alla trascendenza.
Si realizza così, sia dal punto di vista culturale che psicologico, il passaggio dalla visione dell’uomo come creatura alla visione dell’uomo come realtà immanente alla natura e prodotto dell’evoluzione.
Naturalmente l’idea della trascendenza di Dio non scompare dalla scena, però, con il passar del tempo, diventa sempre più residuale e culturalmente ininfluente, soprattutto per il diffondersi della convinzione circa l’impossibilità di fondare ontologicamente ed epistemologicamente la nozione di verità. Si compie così il passaggio «[…] da un uomo che ha il problema del vero ad uno che è capace di risolvere problemi. […] L’uomo moderno non cerca il vero, ciò che lo fa essere, ma risolve i problemi che incontra affidandosi […] alle grandi e indiscutibili capacità della scienza e della tecnica».
La gerarchia aristotelico-tomistica fra le diverse sfere dell’agire umano — prima la contemplazione della verità delle cose, poi il giudizio etico che discende dalla verità conosciuta, quindi l’azione volta a trasformare il mondo — declina, mentre si afferma un pensiero che capovolge l’ordine dell’agire mettendo al primo posto l’attività poietica. Il nuovo edificio del sapere si avvale per conoscere di una ragione circoscritta al piano dell’esperienza sensibile e ha come fine proprio la trasformazione del mondo, attraverso la manipolazione tecnica della realtà, senza alcun riferimento alla natura delle cose e al loro fine ontologico.
La conquista della natura assume l’aspetto di vocazione esclusiva dell’uomo e l’homo faber ha il sopravvento sull’homo sapiens.
Lo svuotamento della concezione ontologica della verità non riguarda solo la comprensione della realtà in generale, ma è contemporaneamente un’affermazione sull’essenza dell’uomo e sulla sua capacità di conoscere il vero e il bene, fondata sull’intellegibilità dell’essere.
Il valore antropologico della nozione di verità emergerà in modo chiaro in seguito al suo tramonto nella cultura, al conseguente affermarsi dell’individualismo e del relativismo e alla diffusione di visioni del mondo e dell’uomo che, pur nella loro diversità, sono concordi sull’idea che la natura umana non sia un dato sostanziale, ma apparente, alimentato da convenzioni culturali da decostruire.
AI e questione gnoseologica
La questione antropologica è strettamente collegata a quella gnoseologica. Fino a qualche decennio fa la critica al concetto di causa e alle verità universali riguardava esclusivamente i dibattiti filosofici e solo in modo marginale il mondo della scienza. Dopo la rivoluzione digitale invece si stanno diffondendo abiti gnoseologici nuovi.
Vi è una grande differenza tra abitare il mondo attraverso i cinque sensi e la parola e il mondo digitale. Digitale si contrappone ad analogico. Digitale deriva dall’inglese digit che significa cifra, numero. Analogico deriva da analogia, che è la capacità di associare elementi diversi in base a un’intuizione a cui collaborano sensibilità, immaginazione e intelletto. Un oggetto digitale è un oggetto tradotto dal suo stato analogico originario e rappresentato attraverso una serie numerica di elementi.
Con il computer si possono tradurre tutti i problemi umani in statistiche e grafici e la traduzione dei fatti reali dallo stato analogico a quello digitale consente di esaminare enormi quantità di dati.
Gli strumenti statistici utilizzati per elaborare i dati sono basati su una logica in cui la correlazione quantitativa sostituisce la causalità. Non c’è più bisogno né del procedimento deduttivo, né di quello induttivo; in pratica non è più necessario neanche il supporto delle teorie scientifiche, dato che «[…] oggi la correlazione viene usata per predire con sufficiente accuratezza […] i siti istituzionali oggetto di attacchi terroristici, il voto dei singoli cittadini alle elezioni presidenziali USA, l’andamento del mercato azionario nel breve termine».
La tecnologia digitale porta a studiare il mondo con un nuovo paradigma gnoseologico diverso da quello della scienza, «[…] quello che conta è solo la correlazione tra due quantità di dati e non più una teoria coerente che spieghi tale correlazione».
La macchina correlativa che trova schemi nei dati «[…] è lo strumento che cambia le nostre credenze sulla realtà […] cambiando le percezioni più profonde dei nostri contemporanei in una modalità che potremmo definire oracolare e pseudo religiosa». Si tratta di un cambiamento radicale che porta con sé un nuovo modo di cercare la verità: «I nostri contemporanei […] stanno abbandonando la ricerca delle cause in favore di questo nuovo modo».
Il concetto di causa, insieme a quello connesso di relazione causale, indica la relazione tra due fenomeni in cui uno, chiamato «causa», è il motivo di esistenza dell’altro, chiamato «effetto». Nella tradizione filosofica classica la causazione è un principio fondamentale di comprensione della realtà e dei nessi tra gli enti esistenti: grazie al nesso causale si può risalire, per esempio, dal mondo contingente all’esistenza di un ente necessario.
Senza ripercorrere la storia della comprensione e della critica a questo concetto, bisogna aver chiara la sua differenza con la correlazione statistica, che non ha nulla a che fare con il significato delle cose, ma si limita a indicare e a misurare l’eventuale esistenza di una relazione regolare tra due variabili. La correlazione può essere uno strumento utile a sostegno della ricerca, ma con essa non si può conoscere alcuna causalità, né alcun significato. Per questo è necessario l’intervento della funzione universalizzatrice della ragione.
AI e questione etica
La ricerca della verità e del bene rimangono e devono rimanere una responsabilità dell’uomo. Ma come può realizzarsi concretamente tale assunzione di responsabilità?
L’obiettivo della tecnologia è di fornire strumenti efficienti, ma ci sono aspetti che non possono essere risolti studiando il modo in cui un determinato compito può essere eseguito nel tempo più breve e con il minor dispendio di risorse. L’efficienza «[…] non è solo una questione di precisione e risparmio, ma mette in gioco una serie di fattori assai più ampio che ha a che vedere con ciò che le persone coinvolte ritengono sia bene o male».
Il primo dei fattori da considerare riguarda i compiti che deleghiamo alle macchine e che portano in sé un senso morale, come per esempio la delega a un algoritmo della decisione di concedere o meno un mutuo a chi ne fa domanda. Con alcuni strumenti «[…] la delegazione assume gradi completamente nuovi perché entra in gioco una caratteristica inedita […]: l’autonomia funzionale».Per autonomia funzionale s’intende la capacità di un sistema di eseguire un compito senza richiedere la supervisione di un essere umano. Nel nostro caso l’algoritmo potrebbe negare il mutuo perché, pur trattandosi di un soggetto idoneo, il richiedente ha la sventura di abitare in un quartiere in cui risiedono molte persone con comportamenti finanziari inaffidabili e perciò, in base alla correlazione statistica, non raggiunge i requisiti richiesti dall’algoritmo.
Sembra che rimanga come unica, e paradossale, opzione quella di ricondurre la responsabilità al sistema stesso, cosa di fatto impossibile perché la responsabilità morale non può essere delegata a un artefatto. Ma allora, come affrontare la difficoltà se nessun attore umano può essere ritenuto pienamente responsabile? Si potrebbe seguire una duplice possibilità: da una parte, a livello di progettazione, recuperare delle forme di controllo significativo sugli strumenti, dall’altra estendere il concetto di responsabilità oltre il mero aspetto del controllo nel momento del malfunzionamento, individuando le responsabilità di tutte le parti coinvolte — programmatori, sviluppatori, distributori, regolatori, produttori e utenti — in modo da mettere ciascuno nella condizione di comprendere quale sia il proprio ruolo, la propria possibilità d’azione, con la relativa distribuzione dell’assunzione di responsabilità.
Rimane innegabile la difficoltà insita nel promuovere un controllo umano su tecnologie concepite per lavorare in autonomia, ma anche, contemporaneamente, risulta inaccettabile che situazioni eticamente problematiche non possano toccare la responsabilità degli esseri umani coinvolti, perché ogni automatismo è il risultato di precise decisioni prese in vari momenti da diversi attori sociali. «Ciò di cui abbiamo bisogno, quindi, è un’assunzione di responsabilità da parte di tutti gli attori sociali coinvolti, basata sulla presa di coscienza delle motivazioni che portano determinate tecnologie a funzionare in precisi contesti sociali. Da ciò è poi inseparabile un’educazione al sentimento di responsabilità che sappia tanto mostrare l’inconsistenza di atteggiamenti autoassolutori quanto promuovere l’allineamento dei sistemi di Intelligenza Artificiale alle relative esigenze etiche».
Il secondo aspetto che tocca il profilo etico riguarda la non-neutralità degli algoritmi, in quanto artefatti che incorporano valori etici e sociali e che, semplicemente funzionando, possono promuovere alcuni valori e negarne altri a prescindere dall’uso che se ne fa. Il fatto che esista una simile connessione «[…] rende necessario […] concentrare l’attenzione sul processo di progettazione — o design — delle tecnologie. Il punto nevralgico in cui i valori diventano parte della tecnologia stessa è infatti l’attività di ideazione, sviluppo e realizzazione di una tecnologia».
Ma anche questo non è sufficiente: infatti, il codice non è il solo luogo in cui può verificarsi la proiezione di valori, perché gli stessi dati da cui il sistema apprende possono rispecchiare pregiudizi o derivare da generalizzazioni inadeguate. Si tratta, infine, anche di proteggere la privacy degli utenti che producono i dati, di pensare a modalità che consentano di redistribuire la ricchezza prodotta dalla monetizzazione dei dati e di tutelare in ogni momento del processo la dignità della persona umana.
Alcune proiezioni statistiche descrivono un mondo futuro in cui il ruolo dei sistemi autonomi si espanderà enormemente e sempre più attività saranno delegabili a prodotti tecnologici. Ragionare sugli impatti morali dell’«intelligenza» artificiale non è «[…] un freno al pieno sviluppo della tecnologia, ma al contrario, è la ricetta per il suo successo sul lungo periodo e per trarre da essa tutti i vantaggi che promette».
La sfida da affrontare senza ritardo è far sì che questi sistemi siano un mezzo per aiutare l’umanità a risolvere i suoi problemi e non strumenti di prevaricazione e sfruttamento dell’uomo. Un’adeguata governance delle tecnologie è chiamata a mettere a sistema l’impegno scientifico ed educativo, a sostegno della riflessione e della formazione delle coscienze degli attori e dei fruitori delle tecnologie, la promozione di un’etica dell’algoritmo e l’elaborazione di regolamentazioni che, basandosi su scenari reali e dati attendibili e valutando con prudenza le opzioni, mettano a punto gli strumenti necessari a tutela e promozione dell’umano.
Laura Boccenti
Note:
1) «Per intelligenza artificiale si intende quel settore della ricerca informatica ed elettronica che cerca di creare delle cosiddette macchine intelligenti», cioè macchine che imitano il nostro modo di fare e ci sembrano intelligenti (Paolo Benanti T.O.R. e Sebastiano Maffettone, Noi e la macchina. Un’etica per l’era digitale, LUISS University Press, Roma 2024, p. 21). Cfr. anche Antonio Casciano, Ripensare l’Intelligenza Artificiale secondo l’antropocentrismo cristiano, Cristianità, anno XLVIII, n. 402, marzo-aprile 2020 pp. 13-19.
2) Cfr. Francesco, Messaggio per la LVII giornata mondiale della pace, 1°-1-2024.
3) Idem, Discorso ai partecipanti alla sessione del G7 sull’intelligenza artificiale, del 14-6-2024. Le citazioni che seguono senza riferimento sono tratte da questo testo.
4) Cfr. Idem, Discorso ai partecipanti al convegno internazionale promosso dalla Fondazione Centesimus Annus Pro Pontifice, del 22-6-2024.
5) Catechismo della Chiesa Cattolica, n. 2294. Il Catechismo prosegue ricordando: «D’altra parte, i criteri orientativi non possono essere dedotti né dalla semplice efficacia tecnica, né dall’utilità che può derivarne per gli uni a scapito degli altri, né, peggio ancora, dalle ideologie dominanti. La scienza e la tecnica richiedono, per il loro stesso significato intrinseco, l’incondizionato rispetto dei criteri fondamentali della moralità; devono essere al servizio della persona umana, dei suoi inalienabili diritti, del suo bene vero e integrale, in conformità al progetto e alla volontà di Dio».
6) Francesco, Lettera enciclica «Laudato si’» sulla cura della casa comune, del 24-5-2015, n. 114.
7) Benedetto XVI, Lettera enciclica «Caritas in veritate» sullo sviluppo umano integrale nella carità e nella verità, del 29-6-2009. n. 69.
8) Ibidem.
9) Ibid., n. 107.
10) P. Benanti, Tecnologia ed ecologia: una questione mai neutrale, nel sito web <https://www.ilregno.it/moralia/dialoghi/tecnologia-ed-ecologia-una-questione-mai-neutrale> (gli indirizzi Internet dell’articolo sono stati consultati il 31-12-2024). Sacerdote e teologo italiano del Terzo Ordine Regolare di San Francesco, insegna alla Pontificia Università Gregoriana e presso l’Università di Seattle (Washington, USA). È consigliere di Papa Francesco sui temi dell’intelligenza artificiale e dell’etica della tecnologia.
11) Cfr. Jacques Ellul, La tecnica. Rischio del secolo, trad. it., Giuffré, Milano 1969. La proposta culturale di Ellul è portata avanti dalla International Jacques Ellul Society, che ha come programma la critica alla tecnologia e la limitazione delle sue applicazioni.
12) Hans Jonas, Il principio responsabilità. Un’etica per la civiltà tecnologica, trad. it., Einaudi, Torino 2002, p. 10.
13) Ibid., p. 11.
14) Ibid., p. 12.
15) Ibid., p. 16.
16) Idem, Dalla fede antica all’uomo tecnologico. Saggi filosofici, trad. it., il Mulino, Bologna 1991, p. 61.
17) Francesco, Discorso alla Curia Romana in occasione della presentazione degli auguri natalizi, 21-12-2019.
18) P. Benanti, Digital Age, San Paolo, Milano 2020, p. 16.
19) Francesco, Lettera enciclica «Laudato si’» sulla cura della casa comune, cit., n. 203.
20) Ibid., n. 110.
21) [Mons.] Luigi Negri (1941-2021), Ripensare la modernità, Cantagalli, Siena 2003, p. 42.
22) P. Benanti, Digital Age, cit., p. 81.
23) Idem, Human in the loop. Decisioni umane e intelligenza artificiale, Mondadori Università, Milano 2022, p. 35.
24) Ibid., p. 37.
25) Stefano Quintarelli (a cura di), Intelligenza artificiale, Bollati Boringhieri, Torino 2020, p. 81.
26) Ibid., p. 79.
27) Ibid., p. 93.
28) Ibid., p. 95.
29) Ibid., p. 84.