Valter Maccantelli, Cristianità n. 402 (2020)
«Matrix è ovunque. È intorno a noi. Anche adesso, nella stanza in cui siamo. Quello che vedi quando ti affacci alla finestra o quando accendi il televisore, lo avverti quando vai al lavoro, quando vai in chiesa, quando paghi le tasse. È il mondo che ti è stato messo davanti agli occhi per nasconderti la verità». Con queste parole il misterioso Morpheus (Laurence Fishburne) rivela al camaleontico hacker Neo (Keanu Reeves) la sconvolgente realtà: la vita che lui, come ogni altro essere umano, penso di vivere è un sogno virtuale indotto da una macchina, Matrix. Il suo corpo reale giace imbozzolato in una cella gelatinosa e, insieme a quello degli altri, fornisce l’energia che alimenta Matrix stessa. Poco dopo Morpheus, quasi riflettendo ad alta voce, aggiunge: «Che cos’è Matrix? È controllo. Matrix è un mondo virtuale elaborato al computer, creato per tenerci sotto controllo».
Queste parole, al netto dell’evidente finzione scenica, mi sono tornate alla mente lo scorso settembre leggendo la notizia che l’agenzia cinese CAC (Cyberspace Administration of China) ha invitato gli operatori impegnati in progetti di Intelligenza Artificiale (A.I. secondo l’acronimo inglese) a selezionare i contenuti da proporre agli utenti, privilegiando i «valori fondamentali»: il pensiero di Xi Jinping, le politiche del Partito Comunista Cinese, i successi economici e la «cultura cinese»; evitando, al contrario, di soffermarsi su scandali, pettegolezzi e comportamenti dei funzionari di partito. Come direbbe Morpheus: controllo, attraverso l’alterazione virtuale della realtà, allo scopo di generare negli utenti una percezione tecnicamente fantastica del regime.
Un interlocutore con qualche anno di esperienza potrebbe obiettare che, almeno fino a questo punto, non vi è nulla di nuovo sotto il cielo. La censura, la propaganda, la disinformazione, sono cose note da sempre e non solo nei regimi autoritari. Non ci sarebbe quindi bisogno di disturbare l’intelligenza artificiale e, in ogni caso, si tratterebbe solo di strumenti nuovi al servizio di vizi antichi. In realtà, questa obiezione non tiene conto del livello di potenza e di pervasività degli odierni strumenti di controllo, che stanno alla vecchia disinformazia del sovietico KGB più o meno come un missile nucleare sta alla daga romana.
A titolo di premessa è però opportuno sincronizzare il nostro vocabolario. Che cosa intendiamo per Intelligenza Artificiale? Nell’immaginario di molti l’espressione richiama più la fantascienza (come Matrix) che la realtà. Si tratta invece di qualcosa che è presente nella nostra vita di ogni giorno in misura molto superiore al percepito. Questo non perché la materia sia in mano a mistiche sette di congiurati ma perché i sistemi di A.I. svolgono un ruolo strumentale di cui noi vediamo solo i risultati; i dizionari li definiscono: «l’insieme delle tecnologie hardware e software che permettono ai computer di svolgere funzioni normalmente attribuite all’intelligenza umana».
Pur se formalmente esatta, tale dizione non rende l’idea della vera radice del problema: da sempre le macchine svolgono funzioni che imitano e sostituiscono alcune azioni umane, in parte anche nel dominio dell’intelligenza: pensiamo alla calcolatrice, anche quella meccanica. Sembra quindi più significativa la definizione di sistema A.I. che danno le linee guida del Comitato sull’Intelligenza Artificiale, ente specialistico nell’ambito dell’OECD (Organization for Economic Co-operation and Development): «una macchina che può, per un determinato spettro di obiettivi stabiliti dall’uomo, fare previsioni, raccomandazioni, o prendere decisioni in grado di avere effetti su contesti sia reali che virtuali».
Per svolgere il suo compito questa «macchina» — di fatto un computer al quale si può dare anche sembianze antropomorfe, i cosiddetti robot — ha bisogno di due cose: un sistema fisico, quello che anche per il nostro personal computer (PC) di casa chiamiamo hardware, in questo caso di enorme potenza; e un software che fornisca alla macchina le istruzioni su che cosa fare e come farlo. Queste istruzioni contengono delle formule che risolvono problemi matematici legati all’azione che si desidera ottenere: gli algoritmi. Gli algoritmi sono sequenze concatenate di formule senza le quali anche il più avanzato computer del mondo resterebbe un inerte pezzo di ferraglia e nel binomio «Intelligenza Artificiale» sono la parte «Intelligenza». Per questa ragione, senza sottovalutare l’importanza della potenza di calcolo, sono una componente di straordinario interesse strategico perché determinano direttamente il risultato.
La combinazione fra la potenza di calcolo del computer e l’efficienza degli algoritmi permette al sistema A.I. nel suo complesso di svolgere un’attività molto particolare e normalmente attribuita agli esseri umani: l’apprendimento o il machine learning. In passato molte macchine sono state impropriamente considerate in grado di «apprendere» ma in realtà erano semplicemente in grado di ricevere e trattenere istruzioni date. Il machine learning, invece, emula la capacità di apprendimento dell’essere umano: sempre di calcoli si tratta, ma elaborati in un sistema di algoritmi in grado di migliorare le proprie capacità analitiche in autonomia o applicarle a condizioni nuove e non previste nella programmazione iniziale.
Un sistema A.I. è, quindi, la combinazione di una macchina di calcolo molto potente, di un programma basato su algoritmi specificamente sviluppati il quale, mentre calcola, è in grado di imparare e perfino valutare delle scelte non determinate. Non vi è bisogno di tirare il ballo la Skynet del film Terminator. Quando Facebook ci dice che ha cancellato un nostro post perché non rispetta lo standard della comunità o decide di farci vedere qualcosa una settimana dopo che qualcuno l’ha pubblicata, dietro a queste scelte non vi è un esercito di piccoli «uomini verdi» che legge e valuta quanto presentato quotidianamente dai tre miliardi di utenti: vi è un sistema di A.I., basato su algoritmi, che valuta il contesto, le immagini e tutto il resto per decidere se quanto vogliamo dire è o non è razzista, omofobo e così via. Allo stesso modo si forma un modello dei nostri orientamenti e sceglie di proporci temi o prodotti in grado di solleticare la nostra curiosità.
L’algoritmo di Dio
Un caso che tiene banco in questi mesi è quello di Spotify, la popolare piattaforma per la diffusione di contenuti musicali che propone ai suoi utenti brani e playlist. A un primo livello si tratta di una funzione poco più che statistica: sono gli utenti stessi, con il numero dei loro ascolti, a dire quale genere di musica piace loro. Ma la cosa non si ferma qui. Spotify sta passando dall’essere un suggeritore di musica a esserne il produttore; in base alla statistica di cui sopra è in grado di conoscere e classificare i gusti dei suoi utenti, in gergo «profilarli», meglio di chiunque altro e quindi sfrutta questo vantaggio competitivo individuando i generi e gli autori che meglio li soddisfano. È in fase di sperimentazione anche un set di algoritmi in grado di comporre in autonomia brani e melodie che incontreranno i nostri gusti musicali. Ma il vero salto di qualità è rappresentato dal fatto che l’algoritmo sarà in grado di intercettare non solo i gusti attuali dei suoi utenti ma anche di anticipare la loro evoluzione nel tempo, di ipotizzare quelli che saranno fra un anno, guidandoli, mediante la proposta di contenuti idonei, in quella direzione. Questo permetterà a Spotify di pianificare la produzione e il lancio sul mercato di prodotti musicali che quasi certamente ci piaceranno, anche se ancora non lo sappiamo.
L’esempio della musica non è banale. La composizione musicale, se dal lato dell’autore si basa su regole e proporzioni precise, dal lato dell’ascoltatore agisce sulle «emozioni», penetra cioè la percezione sensoriale e stimola stati d’animo che influenzano il nostro comportamento e, ultimamente, anche il nostro giudizio: pensiamo alle marce militari o alla musica sacra. Questa interazione della struttura fisico-matematica della musica con lo spirito umano un tempo veniva definita «misteriosa». Oggi, grazie agli algoritmi di A.I., non lo è più: è prevedibile e quindi determinabile.
Cambiando perimetro, ma non geometria, provate a sostituire «musica» con «politica», «gusto musicale» con «intenzione di voto», e comprenderete come la famosa «pancia della gente», che sarebbe il driver, ciò che determina le scelte elettorali del popolo, può diventare facilmente gestibile.
Questa capacità predittiva degli algoritmi sta creando un «mercato dei comportamenti futuri» al quale sono interessate non solo le aziende ma anche le forze politiche o i gruppi di potere. La catena del valore in questo mercato parte dai dati come materia prima ma inevitabilmente approda ai comportamenti attivi da parte degli operatori. Siccome il vero valore è dato dall’attendibilità della predizione è facilmente intuibile che, se chi fa le domande stimola opportunamente i nostri stati d’animo, potrà più facilmente prevedere la nostra reazione: alla domanda «che dolce ti piace?» risponderemo ben più facilmente «alla panna» se nella settimana precedente il nostro computer ci avrà proposto in continuazione l’immagine di montagne di crema chantilly, e, probabilmente, la prima volta che passiamo davanti ad una pasticceria ne compreremo uno per davvero.
L’algoritmo di Creso
Il denaro occupa certamente una delle prime posizioni nella classifica delle ragioni che spingono i colossi del web a investire in questo campo, anche se, come vedremo dopo, vi è molto altro. E di soldi nel settore ne girano molti: bisogna abbandonare l’immagine romantica della garage company nella quale giovanotti squattrinati ma con idee geniali cambiano il mondo. Questa visione tecno-romantica, se mai è stata vera, non lo è più da molto tempo. Raccogliere dati, sviluppare algoritmi, organizzare modelli, costa decine di miliardi di dollari e impegna centinaia di migliaia di addetti altamente specializzati ai quattro angoli della terra.
Quello dei giganti digitali è un circolo ristretto, dominato dalla potenza tecnologica degli Stati Uniti d’America (USA), dove queste tecnologie sono nate e cresciute per poi andare alla conquista del resto del mondo. Una conquista pienamente in corso, che solo in anni recenti ha trovato un po’ di concorrenza negli aspiranti giganti asiatici, specialmente cinesi. I campioni statunitensi si riuniscono sotto l’acronimo GAFA(Google, Apple, Facebook, Amazon), i cinesi sotto quello di BAT (Baidu, Alibaba, Tencent). Un circolo ricco: nel 2018 Facebook ha dichiarato quasi 56 miliardi di dollari di ricavi con un EBITDA (Earnings Before Interest, Taxes, Depreciation and Amortization, ovvero «utili prima degli interessi, delle imposte, delle svalutazioni e degli ammortamenti», in italiano margine operativo lordo) di 30 miliardi, Apple ricavi per 265 miliardi e un EBITDA di 81, mentre Google è diventata sussidiaria di Alphabet i cui ricavi 2018 sono stati di 136 miliardi con marginalità degli ultimi due trimestri intorno ai 10-12 miliardi ciascuno. Mi limito a dati superficiali perché la ricostruzione dello stato economico e patrimoniale di questi giganti è virtualmente impossibile.
Quando riceviamo un pacco da Amazon o compriamo un dispositivo di Apple sappiamo di pagare un servizio di recapito o un prodotto elettronico, ma i servizi di Facebook o di Google per la maggior parte di noi, almeno apparentemente, sono gratuiti. Per contro il mantenimento della struttura tecnologica è oneroso: solo la funzione di motore di ricerca di Google gestisce 3,5 miliardi di interrogazioni giornaliere, probabilmente più delle richieste che riceve la Provvidenza divina. Dove guadagnano questi giganti digitali? Un modo di dire parecchio diffuso recita: «quando qualcosa è gratis il prodotto sei tu».
La merce di valore è il «dato» o, meglio, «i dati». Tenendo traccia di tutte le interazioni con questi servizi ai quali accedono continuamente miliardi di persone, i giganti del web finiscono con l’accumulare un’infinita serie di informazioni che, se organizzate, formano un profilo preciso di come queste persone si comportano: di fatto possono descrivere chi siamo, spesso meglio di noi stessi. Nessuno sa meglio di Amazon che cosa amiamo o desideriamo — visto che contano anche le consultazioni — acquistare; nessuno sa meglio delle piattaforme di prenotazione online dove andiamo o desidereremmo andare; nessuno sa meglio delle piattaforme di pagamento quanto spendiamo e dove, quante volte siamo andati in pizzeria e quante al ristorante stellato.
Combinando insieme questi dati si può elaborare un perfetto profilo del consumatore — figura che nelle società turbo-capitalistiche supera per significanza sia quella di persona sia quella di cittadino — non solo assecondandone i desideri storici ma anche, mediante complessi meccanismi algoritmici, anticipandoli e indirizzandoli. È un’operazione molto più complessa della semplice collezione di dati e, vista la mole, eseguibile solo dagli algoritmi di A.I. su computer dotati di enorme potenza di calcolo. A chi chiedeva agli scienziati di rendere più trasparenti le modalità di azione dei sistemi di A.I. un esperto di robotica della Columbia University di New York ha risposto: «sarebbe come spiegare Shakespeare ad un cane».
Come si trasforma un profilo — o un miliardo di profili — in denaro? Per rimanere nel perimetro dell’economia e del commercio le possibilità sono due: venderlo o usarlo. La vendita è un fatto quasi banale: se ho ragionevole certezza che un certo numero di persone, in base al proprio comportamento d’acquisto storico e alla frequenza delle proprie consultazioni online, comprerà nei prossimi sei mesi un determinato prodotto, per esempio un tipo di vestito di un certo colore, posso vendere questa informazione all’industria dell’abbigliamento che sarà disposta a pagarla bene. Potremmo chiamarla «pubblicità predittiva», anima del commercio digitale come quella normale lo è sempre stata per il commercio tradizionale.
Posso anche usare il dato in prima persona per sostituirmi alle aziende a cui, in prima battuta, vendo le informazioni. Qualcuno la chiama «strategia del cuculo», riferendosi alla nota abitudine dell’uccello che depone le proprie uova nel nido altrui e, quando il suo pulcino nasce, butta fuori dal nido ospitante le altre uova divenendone l’unico titolare. Come ho già detto, l’utilizzo generalizzato e quotidiano di queste piattaforme fornisce loro la più completa conoscenza dei mercati e dei loro meccanismi, dove si guadagna e dove si perde, che cosa è in crescita e che cosa è in calo. In questo caso la strategia del cuculo permette ai giganti del web di entrare in prima persona nei business a cui prima si limitavano a fornire il supporto logistico per diventarne operatori diretti.
Il caso di scuola è quello dei pagamenti online. Da molti anni i GAFA hanno stretto partnership con gli operatori bancari tradizionali per riscuotere e tracciare i pagamenti online dei propri beni e servizi. Poi, siccome il sistema si è dimostrato straordinariamente efficiente, alcuni di questi partner hanno cominciato ad affidare loro una serie di servizi considerati eccessivamente onerosi dal punto di vista logistico: micro-pagamenti e piccoli passaggi di denaro. Alcuni colossi digitali hanno così avuto modo di sviluppare sistemi di scambio di denaro P2P (peer-to-peer) come Apple Pay, Google Pay o Amazon Pay, agevolati dalle normative comunitarie come il PSD2, che si proponevano di liberalizzare e facilitare i servizi di pagamento sul mercato interno. Questa liberalizzazione consente loro di entrare a pieno titolo nel mercato bancario bypassando i forti vincoli regolamentari delle banche tradizionali. Dal 2019, per effetto della piena applicazione della citata direttiva 2015/2366 del Parlamento europeo, i fornitori di tali servizi possono accedere e gestire direttamente le operazioni sui conti correnti bancari, raccogliendo così ulteriori dati sul comportamento economico dei potenziali clienti-consumatori.
Il prossimo passo sembra essere quello dei servizi sanitari, attraverso la porta della delocalizzazione dei servizi di analisi di laboratorio. L’atteggiamento da «cuculo» dei giganti digitali è così aggressivo e smaccato da attirarsi gli strali perfino di un personaggio non certo esente da inclinazioni tecnocratiche come il miliardario americano di origine ungherese George Soros, il quale, nel foro di Davos, in Svizzera, del 25 gennaio 2018 li ha tacciati di «atteggiamento monopolistico» che crea «ostacolo all’innovazione».
L’algoritmo di Re Mida
Negli ultimi decenni si è aperto un ampio dibattito sul ruolo che l’economia ha assunto nella vita delle società e un dibattito ancora più ampio su quello che la finanza ha nell’ambito dell’economia stessa. Nelle more di queste discussioni si è finito con il trascurare l’emersione di un fenomeno ancora più «inquietante»: la robotizzazione dei mercati finanziari, che relega le scelte umane in una posizione pericolosamente marginale.
L’ingresso dell’informatica nella gestione dei mercati azionari non è un fatto recente: formalmente possiamo farlo risalire al 1971, anno di fondazione del NASDAQ — acronimo di National Association of Securities Dealers Automated Quotation — primo caso di mercato borsistico elettronico, nel quale le negoziazioni non si svolgevano più di persona ma mediante una rete di computer.
Ovviamente ciò non comportava alcun problema particolare, si è trattato di un’innovazione di natura logistica nata per facilitare gli scambi e renderli compatibili con la complessità crescente dei sistemi economici. Negli anni, però, la complessità e la quantità degli scambi, la moltitudine dei fattori che ne determinano il valore e la velocità richiesta dai mercati speculativi, sono cresciute fino a rendere impossibile alla mente umana la loro gestione e perfino la possibilità di una loro comprensione.
I sistemi informatici si sono così trasformati da strumenti per l’esecuzione delle transazioni di borsa in veri e propri operatori che scelgono quali e quante transazioni eseguire e in che momento è meglio farlo. Ciò è stato reso possibile dai sistemi di A.I. e dagli algoritmi in base ai quali vengono eseguite le transazioni. Si chiama trading algoritmico o algotrading e oggi gestisce la metà delle transazioni di borsa nel mondo. Non è un caso che da alcuni anni le figure professionali più ricercate nel mondo degli operatori finanziari non siano più quelle di estrazione economica, gestionale o manageriale ma quelle con formazione matematica e fisica: sono i quants, gli operatori di borsa in camice bianco che elaborano modelli teorici di comportamento dei mercati e li traducono in regole e istruzioni per i sistemi automatici di trading.
La negoziazione robotizzata basata su algoritmi ha permesso di superare anche un’altra limitazione umana: la lentezza o meglio la latenza, l’inevitabile lasso di tempo che passa tra una decisione e la sua attuazione, quando a operare sono gli esseri umani. I computer — a maggior ragione i super computer — valutano, scelgono e agiscono secondo il timing dell’elettronica, cioè frazioni infinitesimali di secondo.
L’algotrading si è naturalmente e rapidamente evoluto in HFT (Hight Frequency Trading), una modalità operativa basata sull’impiego di algoritmi che consentono di acquisire, elaborare e reagire alle informazioni di mercato con una velocità straordinariamente elevata. Ciò vuol dire che sono in grado di operare su di un titolo o un gruppo di titoli per migliaia di volte in un secondo, muovendo una mole di denaro enorme in un lasso di tempo minimo, di fatto creando la tendenza del mercato su quel titolo e aprendo la strada ad enormi possibilità di manipolazione dei mercati, molto difficili da individuare.
Il rischio non è solo quello della poca trasparenza e della disparità di posizione e competitività ma anche che questi sistemi, che — ricordiamolo — agiscono per la maggior parte del tempo in autonomia, sfuggano di mano. La materia è complessa e ciò rende difficile identificare un nesso definitivo tra cause ed effetti ma sembra assodato che i sistemi algoritmici di HFT siano corresponsabili dei cosiddetti flash crash : episodi di volatilità sui mercati azionari caratterizzati da una durata brevissima (pochi minuti) che generano cadute di interi mercati con passaggi di mano di enormi ricchezze. Uno dei più famosi e più studiati flash crash si è verificato sul NASDAQ il 6 maggio 2010. Fra le 14.32 e le 15.08, in 36 minuti, si è verificato un crollo di tutti gli indici di mercato, il solo Dow Jones ha perso quasi mille punti in venti minuti, e generato perdite, recuperate nella stessa seduta ma non necessariamente dalle stesse persone, nell’ordine del trilione di dollari. La storia può essere letta nell’apposito rapporto della SEC; basti qui notare che il fenomeno si è innescato quando alcuni sistemi di HFT hanno eseguito ventisettemila operazioni consecutive su specifici contratti di tipo future (E-Mini S&P 500), in meno di trenta secondi.
I mercati borsistici non sono le uniche arene in cui si cimentano i sistemi di A.I. e che condizionano le nostre esistenze. Queste tecniche vengono oggi applicate anche alla gestione dei mercati delle valute e dei titoli di debito o di credito, dando luogo a vere e proprie guerre «asimmetriche» di natura finanziaria. Ma sono in grado di arrivare a decidere anche del nostro mutuo o del nostro prestito per l’automobile: nel corso dell’audizione presso la Commissione Finanze, l’attuale presidente della Commissione Nazionale per le Società e la Borsa (Consob), Paolo Savona, ha auspicato un maggiore utilizzo degli algoritmi di A.I. per la valutazione da parte delle banche del cosiddetto «merito del credito»di chi chiede l’erogazione di un prestito, in modo da evitare la possibile complicità fra funzionari di banca e richiedenti.
L’algoritmo di Cesare
Gli algoritmi non sono solo fonte di arricchimento, ma soprattutto strumento di potere in un mondo dove il controllo delle informazioni conta più della consistenza di qualunque arsenale bellico, tranne — forse — quello nucleare. Esercitare il possesso e il controllo dei dati è per qualunque nazione una condizione non solo di potenza ma perfino di sussistenza. Questo ascrive d’ufficio i sistemi A.I. al perimetro dei fattori geopolitici primari. Si tratta però di fattori immateriali, dalla consistenza impalpabile, dalla localizzazione incerta e dall’appartenenza volatile.
Il quadro geopolitico dopo la rimozione del Muro di Berlino, nel 1989, vive della competizione per la conquista o il mantenimento del ruolo di super-potenza globale e, in subordine, per quello di potenza regionale nei diversi quadranti del mondo. La scomparsa del mondo bipolare ha scoperchiato le aspettative e le aspirazioni di popoli e civiltà precedentemente ibernati da mezzo secolo di Guerra Fredda.
Se il secolo XX è stato il secolo americano, di chi sarà il XXI? La risposta sembra essere: di chi controlla il sistema nervoso del pianeta, cioè la rete e il suo flusso di dati. La paura dei leader politici è che questo sistema possa prendere vita autonoma e andare in direzioni non previste. In un tempo nel quale la potenza di calcolo conta più della potenza di fuoco la sfera politica teme di perdere il controllo della rete gestita da realtà private, come i GAFA o i BAT, oramai talmente grandi da aspirare a un ruolo di attori politici in prima persona. La voce su una possibile candidatura di Mark Zuckerberg — il dominus di Facebook — alla Casa Bianca, pur se probabilmente irrealistica, ha portato alla ribalta i possibili effetti sugli equilibri politici di chi controlla un social network che, tramite i soliti algoritmi, è in grado di profilare così pervasivamente il corpo elettorale.
In questa partita che è insieme di difesa e di attacco ciascuno dei soggetti geopolitici principali gioca un ruolo in parte peculiare e in parte comune.
Gli USA difendono in primo luogo la propria egemonia storica nel mondo digitale. Questa lotta si svolge su due fronti: quello interno e quello esterno.
Sul fronte interno lo sforzo di tutte le amministrazioni dell’ultimo decennio è stato quello di mantenere al servizio della nazione l’enorme complesso privato che ha sviluppato e gestisce la rete globale «a stelle e strisce»: un rapporto che da sempre è di amore e di odio insieme. Il legame fra i giganti digitali — o i loro precursori — e l’establishment politico-militare statunitense è antico e molto stretto, anche al di là di qualche scontro occasionale. L’intellighentia dei GAFA e della galassia di aziende ad alta tecnologia digitale americana è però nata e cresciuta nei circoli della controcultura dei campus californiani degli anni 1960 e 1970, dove l’utilizzo a scopi militari o d’intelligence delle scoperte tecnologiche era visto molto male. Nei decenni successivi, la necessità di sviluppi e investimenti ha finito con l’avvicinare molte di queste aziende a fondi e a gruppi tecnologici più o meno direttamente legati alle istituzioni militari e di intelligence dell’apparato di difesa degli USA.
L’interesse della difesa americana per il sostegno e il finanziamento discreto agli sviluppi tecnologici del settore universitario e privato nasce dal fatto che la miglior fonte di dati sulle persone oggi sono i giganti digitali ben più delle grandi orecchie o dei grandi occhi dello «spionaggio», tanto che Michael Hayden, ex direttore della National Security Agency (NSA) e della Central Intelligence Agency (CIA), ha affermato che in base ai metadati — i dati con cui si descrivono i dati — raccolti setacciando la rete si sono potuti colpire molti obiettivi sensibili.
Da qui la necessità di cooptare, senza comprometterli troppo, i giganti digitali nella gestione delle politiche di sicurezza che ha finito con il portare i loro manager a diretto contatto con il potere politico e conseguentemente con il coinvolgerli nelle battaglie elettorali interne, come testimonia la lunga scia di polemiche seguite all’utilizzo di tecniche avanzate di profilazione elettorale da parte di tutti i candidati nelle ultime campagne elettorali per la corsa alla presidenza.
Sul fronte esterno gli USA, specialmente durante la presidenza di Donald John Trump, hanno ingaggiato un duro scontro con la Cina per difendere il primato delle proprie tecnologie soprattutto in vista del prossimo upgrade della rete e dei suoi software ai protocolli 5G, cioè di quinta generazione. Gli attacchi sono orientati in due direzioni: da un lato impedire alla Cina di utilizzare, mediante acquisizioni societarie o spionaggio, le tecnologie proprietarie USA, imponendo un embargo tecnologico ad aziende legate all’apparato di Stato cinese come Huawei o ZTE; dall’altro tenere legata a sé la rete di alleati globali dell’America, tentati dall’adozione dei sistemi digitali di comunicazione 5G cinesi a basso costo e gravidi di vantaggi economici collaterali.
La Cina ha dal canto suo obiettivi diversi e opposti. Sul fronte interno la strategia cinese sembra essere orientata all’utilizzo dei dati e degli algoritmi per esercitare un controllo sempre più diretto sugli orientamenti e sui comportamenti della propria popolazione, specialmente quelli delle minoranze più riottose. Su quello della politica estera Pechino non fa mistero di voler utilizzare le tecnologie oramai molto sofisticate come strumenti per l’esercizio del soft power «con caratteristiche cinesi» nei confronti di tutte quelle nazioni disposte ad accoglierlo, cercando di sottrarre alleati tradizionali alla controparte americana: Filippine, Pakistan e moltissimi Paesi africani ma anche Giappone, Regno Unito e Italia.
La volontà cinese di acquisire la leadership dell’A.I. a scapito degli Stati Uniti è palese e ha trovato spazio in una serie ininterrotta di interventi al più alto livello dello Stato, specialmente per bocca del Segretario Generale del Partito Comunista Cinese (PCC) e Presidente della Repubblica Xi Jinping. Già nel maggio del 2014, nel suo discorso di inaugurazione del primo summit sulla BRI (Belt and Road Initiative o Nuove vie della seta), Xi aveva posto l’accento sul balzo tecnologico che la Cina avrebbe dovuto compiere nel campo delle tecnologie avanzate di A.I. Il 20 luglio 2017 veniva pubblicato dal Consiglio di Stato (quindi con l’autorevolezza dei massimi vertici del PCC) uno specifico piano che illustrava la strategia cinese per diventare leader mondiale dell’A.I. nel 2030 con un esborso previsto in dodici anni di 250 miliardi di dollari. Sempre nel 2017 nel chilometrico discorso di apertura del XIX congresso del PCC, destinato a porre le basi del «socialismo nel XXI secolo con caratteristiche cinesi», Xi è ritornato più volte sul tema dell’importanza degli sviluppi dell’A.I. per assicurare la stabilità interna e la proiezione esterna della Cina del futuro. Ancora, in una lettera di congratulazioni indirizzata al World Intelligence Congress, tenutosi a Tianjin nel nord della Cina nel maggio del 2019, il Presidente a vita ha sottolineato che l’A.I. sta avendo e continuerà ad avere un impatto essenziale, positivo e di lunga durata, sullo sviluppo economico e politico della Cina a livello mondiale.
La Cina deve superare un gap tecnologico non indifferente rispetto alla controparte americana, un gap oggi basato soprattutto sulle potenze di calcolo dell’hardware destinato a supportare il funzionamento di software e algoritmi. Per questa ragione per la quale Trump cerca di impedire il definitivo successo delle tecnologie cinesi inibendo l’uso della tecnologia americana dei processori e dei semiconduttori ad alta tecnologia e ciò potrebbe impedire alla Cina di raggiungere il dominio tanto ambito nel prossimo decennio. In ogni caso, anche se non dovesse diventarne leader, Pechino continuerà ad essere il secondo grande attore mondiale di questo perimetro e ne farà un uso spregiudicato sia all’interno che all’esterno dei propri confini.
Anche la Russia sta cercando un posto nell’olimpo dell’Intelligenza Artificiale: in occasione del discorso agli studenti per l’apertura dell’anno scolastico, il 1° settembre 2017, Vladimir Putin ha più volte sottolineato la sua convinzione che chi controllerà l’Intelligenza Artificiale guiderà il mondo. Un concetto ribadito nel saluto da lui rivolto ai partecipanti all’Artificial Intelligence Journey, tenutosi a Mosca il 9 novembre 2019 e che ha visto la partecipazione di cinquemila addetti ai lavori in rappresentanza di più di mille aziende del settore dell’Europa orientale.
In precedenza, il 10 ottobre, Putin ha emanato un ordine esecutivo destinato a dare il via all’attuazione della Strategia Nazionale per lo Sviluppo dell’Intelligenza Artificiale (NSDAI secondo l’acronimo inglese), un documento di venti pagine, pubblicato ufficialmente l’11 ottobre, nel quale si tracciano le linee destinate a portare la Russia fra i player globali del settore nel decennio 2020-2030.
Putin, pur adoperando lo stile enfatico tipico della retorica politica russa, è un leader dotato di spiccato realismo e, quindi, sa bene che difficilmente la Russia potrà insidiare il primato tecnologico americano o la potenza di investimento cinese. Sa però altrettanto bene che se il suo Paese non svilupperà questo tipo di tecnologie al meglio delle sue possibilità non potrà ambire a un ruolo significativo nel quadro geopolitico del futuro. Per queste ragioni nei suoi piani e nei suoi discorsi non dichiara, al contrario di Trump e di Xi, di voler dominare il mondo dell’A.I.: sprona l’industria e la ricerca a fare della Russia un giocatore di questa grande partita con lo scopo di non esserne travolto e di fruire dei vantaggi di crescita che l’applicazione di queste tecnologie sembra promettere al mondo dell’economia, dell’amministrazione pubblica e, non ultimo, della difesa. L’approccio russo a questi temi si caratterizza per un aspetto specifico e caratteristico: l’assoluta autarchia. Anche in questo settore emerge la sindrome da accerchiamento che induce il Cremlino a ritenere che la Russia è e resterà sotto attacco dell’Occidente a guida americana che non gli concederà mai l’accesso a tecnologie in grado di farne una grande potenza. Come nel passato anche nel futuro la Russia sente di dover fare da sola e mettere il resto del mondo davanti al fatto compiuto.
La corsa all’A.I. è animata da molti altri partecipanti, non necessariamente relegabili a ruoli di comprimari. Se (ironia della sorte) cercate su Google l’espressione «National strategy for artificial intelligence» scoprirete che sono ben pochi i siti istituzionali dei governi e delle nazioni del mondo che non riportano un documento, proprio o di altri, relativo a questo tema.
Fra di essi emergono alcuni aspiranti a ruoli di leadership regionali comunque importanti. L’India, nel pieno di una rinascita del sentimento nazionale guidata dal primo ministro Nerendra Modi, si è dotata nel 2018 di un apposito piano per lo sviluppo dell’Intelligenza Artificiale che fa leva sulle grandi capacità nel settore delle scienze matematiche e informatiche dei suoi centri universitari, nonché sulla capacità di attrarre sul suo territorio, grazie al basso costo delle maestranze anche di alto livello, l’attività di ricerca e sviluppo degli Stati più avanzati.
In Europa spicca l’attivismo della Francia, particolarmente focalizzato sugli aspetti militari e di cyber-sicurezza dell’A.I. Il presidente Macron fin dal suo insediamento all’Eliseo ha chiesto e ottenuto un sensibile aumento del budget della difesa a sostegno di una rinnovata grandeur. Una parte di questo aumento è destinato al rinnovo e manutenzione della forza nucleare, un’altra al finanziamento dell’accresciuto impegno nell’Africa Occidentale, ma una terza fetta è andata alla riforma del meccanismo di valutazione ed acquisizione delle tecnologie emergenti. Il progetto è quello di replicare il modello della DARPA statunitense mediante la costituzione di un Innovation Defénse Lab destinato a monitorare e a sostenere gli sviluppi della ricerca innovativa avanzata del settore civile suscettibili di ricadute sulla difesa e la sicurezza, fra le quali primeggia quella sull’A.I.
L’algoritmo di Cerbero
Strettamente connesso al tema dell’utilizzo dell’A.I. per la gestione del potere politico o geopolitico vi è quello del suo impiego per il controllo e la stabilizzazione dei comportamenti delle persone e dei gruppi considerati, giustamente o ingiustamente, dannosi per la collettività o per il potere. Un ribelle di altri tempi lo definirebbe un uso di tecniche invasive per il controllo di polizia sul popolo.
Questo impiego degli algoritmi per l’identificazione di comportamenti criminali ha trovato grande impulso grazie a una motivazione concreta e reale: la lotta al terrorismo dopo l’11 settembre 2001. Come accade spesso, lo strumento è neutro, l’intenzione iniziale è buona ma il problema sta nel limite e in chi lo presidia. Fino a che punto è lecito per lo Stato controllare la vita quotidiana dei propri cittadini? È la domanda che sta suscitando un’enorme produzione normativa specialmente nell’Unione Europea e nei Paesi membri, che vorrebbe limitare e normare queste attività. Sforzo che, vista la complessità e la vastità delle tecniche di raccolta e gestione dei dati, sembra paragonabile al tentativo di contenere il mare con le mani.
L’eterno e forse irrisolvibile dilemma della sicurezza è sempre lo stesso: prevenzione o repressione? Questo binomio rischia un corto circuito quando si prefigge di «reprimere preventivamente», di porre cioè in essere azioni di contrasto sulla base di comportamenti precursori di possibili condotte criminali, come accade spesso con il terrorismo, specie con quello di matrice islamica, dove si opera nel contesto di un’esperienza religiosa.
Può un sistema di A.I. con i suoi algoritmi, dopo aver tracciato il comportamento di un individuo, concludere che quel soggetto porrà in essere un determinato comportamento, per esempio un attentato? Chi sembra rispondere in maniera tassativamente positiva a questa domanda sono le autorità della Repubblica Popolare di Cina.
Nel 2018 l’organizzazione HRW (Human Rights Watch) dichiara di essere venuta in possesso della copia di una app — «application», programma di computer — usata dalle forze di polizia dello Xinjiang — nel nord-ovest della Cina — per controllare la minoranza turcofona degli uiguri, di religione islamica e con una lunga storia di opposizione al regime. Da un’analisi del suo funzionamento è emerso che l’app è il terminale di una piattaforma informatica integrata destinata al controllo di massa, che monitora le caratteristiche biometriche delle persone, la loro attività informatica, i consumi domestici, perfino la percentuale di utilizzo della porta posteriore della propria abitazione. Componendo questi dati, un sistema di A.I. elaborerebbe un livello di pericolosità e, in caso di valore critico, invierebbe una segnalazione agli organi di sicurezza.
Sulla base di queste «conclusioni» centinaia di migliaia di persone sarebbero state avviate ai programmi di recupero sociale nei campi di rieducazione, i noti Laogai, fotografati anche dai satelliti.
Ma la Cina di Xi sta andando oltre l’utilizzo di queste tecnologie per il controllo e la repressione del crimine/dissenso e si appresta a varare un programma, definito opportunamente di «credito sociale», con il quale intende dar corso a un livello superiore di controllo del comportamento sociale dei suoi cittadini, basato — almeno in parte — sulla accettazione da parte dei controllati.
Tale sistema di credito sociale attribuisce un punteggio di merito alle persone mediante un monitoraggio continuo che raccoglie e integra le tracce digitali lasciate dai cittadini nella loro vita pubblica o privata e nel loro rapporto con le istituzioni. Sulla base di tale punteggio viene attribuito alla persona un livello di affidabilità sociale che permette o nega all’interessato l’accesso a servizi (compresi quelli sanitari), cariche, posti di lavoro.
Questo sistema di valutazione del credito sociale è stato attuato fino ad oggi in forma sperimentale e volontaria in alcune città o regioni e se ne prevede l’estensione a livello nazionale entro pochi anni e parallelamente alla «sensorizzazione» del territorio urbano come, ad esempio, l’introduzione del pagamento mediante riconoscimento facciale dei mezzi di trasporto pubblico.
Al fine di rendere più appetibile l’accettazione di queste forme di controllo il governo da alcuni anni coinvolge le grandi aziende private nella formazione, elaborazione e premiazione del punteggio sociale: Alibaba, Tencent (la proprietaria di Wechat), Ant Financial (la finanziaria di Alibaba con cinquecento milioni di clienti), possono monitorare — senza alcuna autorizzazione dell’utente — il comportamento creditizio dell’individuo e, dopo averlo armonizzato con il suo comportamento sui social o il suo profilo sanitario, attribuire un punteggio che va da 350 a 900. Chi ha un punteggio alto viene favorito nell’erogazione dei prestiti, può prenotare alberghi o noleggi senza caparra, può godere di maggiore libertà di movimento, mentre a chi ne ha uno basso o nessuno viene impedito perfino l’acquisto di una cuccetta sui treni.
La cosa attira anche l’interesse di aziende straniere che approfittano di questo sistema di retribuzione dei comportamenti socialmente accettabili per penetrare il mercato cinese: la Ford — per citare un caso emblematico — permette a chi ha un punteggio superiore a settecento di provare gratuitamente per due giorni i modelli in uscita.
Il cerbero cibernetico, come il mitologico guardiano dell’Ade, con le sue tre teste può dispensare condanne, prestiti o buoni sconto con feroce indifferenza.
Conclusione
I problemi posti da questo sconvolgimento nella gestione della conoscenza umana, introdotto dall’uso sempre più vasto dell’A.I., possono essere affrontati in vari modi, alcuni dei quali certamente sbagliati per la palese semplificazione che operano in una materia così complessa. È certamente sbagliato rifugiarsi nel catastrofismo tecnofobico di chi immagina il mondo del futuro come un cumulo di macerie pattugliato da orribili macchine con le orbite fluorescenti, gli arti di titanio e il cervello in silicio, a caccia di quegli insetti sentimentaloidi chiamati «umani». Ma è altrettanto semplicistico — quindi altrettanto sbagliato — liquidare la preoccupazione di taluni ascrivendola all’ordinario disagio che l’ingresso di nuove tecnologie ha sempre generato in chi fatica a distaccarsi dagli stili di vita precedenti.
Qui non si tratta di abituarsi all’idea di una carrozza senza cavalli o di un telefono senza i fili. Già da qualche tempo si sta sviluppando una riflessione sui limiti teorici ed etici della digitalizzazione e dell’archiviazione dell’intera gamma dei comportamenti umani e sull’utilizzo dei risultati di questo lavoro al fine di predire e orientare il loro svolgimento futuro. In questi ultimi mesi ha preso la scena di questo dibattito il libro di Shoshana Zuboff, Il Capitalismo della Sorveglianza, il futuro dell’umanità nell’era dei nuovi poteri, tradotto e pubblicato in Italia dalla Luiss University Press.
Il lungo lavoro di ricerca dell’autrice, la corposità e la densità di riferimenti del testo ne fanno uno dei primi e, a oggi, più completi sforzi di sistematizzazione descrittiva del processo. La tesi di fondo è che si stia sviluppando una nuova forma di capitalismo che utilizza, in maniera parassitaria, le tracce digitali dell’umanità come materia prima di un processo di mercificazione del comportamento che non solo procura enormi guadagni a chi lo gestisce, ma si appresta a diventare la grammatica della vita politica e sociale dell’umanità, soppiantando le istituzioni tradizionali. Un processo simile a quello del capitalismo industriale che, partendo dal dominio e controllo delle tecnologie industriali, è diventato prima sistema economico, poi sistema sociale e infine sistema politico.
L’autrice, che rievoca in taluni toni la critica marxista al primo capitalismo e che cita fra i propri modelli di riferimento Max Weber (1864-1920), Hannah Arendt (1906-1975) e Theodor Adorno (1903-1969), si muove chiaramente all’interno di un quadro ideologico estraneo alla morale cristiana del lavoro e delle relazioni sociali. La sua critica si appunta principalmente sugli aspetti predatori e invasivi della privacy di questa nuova forma di capitalismo. Non mancano tuttavia, come accade anche nell’analisi marxista classica, spunti di riflessione che fanno del «capitalismo della sorveglianza» una categoria nella quale è possibile classificare una parte significativa dell’utilizzo pubblico e privato dei sistemi di A.I.
Alla sfida sulla sopravvivenza e sul ruolo del libero arbitrio nei comportamenti individuali e sociali si sentono naturalmente chiamati la morale e la Dottrina Sociale della Chiesa. Un contributo che non può mancare, come conferma il fatto che anche le migliori analisi di fonte laica evidenziano il limite di non considerare olisticamente la natura umana nella sua doppia dimensione materiale e spirituale. La Chiesa, contrariamente alla vulgata corrente, è da sempre attenta all’incrocio fra potenzialità tecnologiche e sostenibilità morale. La Pontificia Accademia Pro Vita ha organizzato dal 26 al 28 febbraio scorsi un workshop in Vaticano dal titolo: Il «buon» algoritmo? Intelligenza artificiale: etica, diritto e salute, con un discorso di Papa Francesco ai partecipanti. Un’attenzione doverosa a quella che sarà una frontiera importante per la dottrina sociale nel secolo XXI, che i cattolici più consapevoli saranno chiamati a presidiare con tutta la tenacia di un apostolato informato e consapevole.
Per la prima volta nella storia dell’umanità una tecnologia si affianca e, in parte, surroga la capacità umana di astrarre concetti di valore generale dall’osservazione del reale e, sulla base di questa lettura, operare delle scelte libere. Il rischio non è che tali tecnologie si ribellino e ci uccidano ma quello che ci portino inavvertitamente a rinunciare all’esercizio del libero arbitrio o ad appaltarlo a chi le controlla. Le macchine non si costruiscono né si programmano da sole, neppure quelle dotate di Intelligenza Artificiale. All’origine e alla fine del processo vi sono sempre degli esseri umani. Chi sono? Perché lo fanno? Qual è la loro visione del mondo? Il loro progetto sociale e politico? Dalla risposta a queste domande ben più che dallo sforzo normativo degli Stati, che va comunque portato avanti, dipende la compatibilità fra l’Intelligenza Artificiale e quella naturale.
Note:
(1) Reperibile nel sito web <https://www.ilpost.it/2019/03/24/matrix-film-20-anni> (gl’indirizzi Internet dell’intero articolo sono stati consultati il 26-5-2020).
(2) Reperibile nel sito web < https://www.mymovies.it/film/1999/matrix/frasi>.
(3) Reperibile nel sito web <https://www.scmp.com/news/china/politics/article/3026784/chinas-internet-regulator-orders-online-ai-algorithms-promote>.
(4) Reperibile nel sito web <http://www.intelligenzaartificiale.it>.
(5) OECD, Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449, reperibile nel sito web <https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449>.
(6) Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma 2019, p. 17.
(7) Reperibile nel sito web <https://www.koyfin.com/company/FB/ebitda>.
(8) Reperibile nel sito web <https://www.stock-analysis-on.net/NASDAQ/Company/Apple-Inc/Valuation/EV-to-EBITDA>.
(9) Reperibile nel sito web <https://www.macrotrends.net/stocks/charts/GOOGL/alphabet/ebitda>.
(10) Reperibile nel sito web <https://www.radicali.it/rubriche/democrazia/se-gratis-allora-il-prodotto-sei-tu/>.
(11) Reperibile nel sito web <http://www.limesonline.com/cartaceo/se-vincono-gli-algoritmi-perde-lumanita>.
(12) Francesco Vitali, Mobile Payment e identità elettronica: le nuove sfide per la supremazia commerciale e politica, in Nomos & Khaos, Rapporto Nomisma 2012-2013 sulle prospettive economico-strategiche-Osservatorio Scenari Strategici e di Sicurezza, A.G.R.A., Roma 2014, pp. 311-324.
(13) La locuzione peer-to-peer indica gli scambi diretti fra utente e utente, come il passaggio di denaro elettronico tra amici o familiari.
(14) La direttiva 2015/2366/Ue sui servizi di pagamento nel mercato interno apre alla concorrenza il settore dei pagamenti al dettaglio, creando il ruolo dei cosiddetti Tpp (Third Party Payment Services Provider), gli Aisp (Account Information Service Provider) e i Pisp (Payment Initiation Service Provider).
(15) Reperibile nel sito web <https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32015L2366&from=EN>.
(16) Reperibile nel sito web <https://www.ilfoglio.it/esteri/2019/01/26/news/il-pessimismo-tecnologico-ha-contagiato-davos-234769/>.
(17) Nel sito web <https://www.agi.it/economia/facebook_google_soros_davos-3415295/news/2018-01-26/>.
(18) Reperibile nel sito web <http://www.limesonline.com/cartaceo/algotrading-la-finanza-senza-umani>.
(19) Reperibile nel sito web <http://www.consob.it/documents/11973/219968/dp5.pdf/04c93f02-d620-456c-b0a1-868233013f6e>.
(20) Nel sito web <http://gnosis.aisi.gov.it/Gnosis/Rivista20.nsf/ServNavig/17?OpenDocument>.
(21) Reperibile nel sito web <https://www.sec.gov/news/studies/2010/marketevents-report.pdf>.
(22) Reperibile nel sito web <https://st.ilsole24ore.com/art/SoleOnLine4/Editrice/IlSole24Ore/2010/05/07/Economia%20e%20Lavoro/5_A.shtml?refresh_ce=1>.
(23) Ibidem.
(24) Reperibile nel sito web <https://www.radioradicale.it/riascolta?data=2020-01-09>.
(25) Reperibile nel sito web <https://www.nybooks.com/daily/2014/05/10/we-kill-people-based-metadata/>.
(26) Reperibile nel sito web <https://thediplomat.com/2017/07/china-vows-to-become-an-artificial-intelligence-world-leader/>.
(27) Reperibile nel sito web <https://www.chinadaily.com.cn/a/201905/17/WS5cddb746a3104842260bc1f9.html>.
(28) Reperibile nel sito web <http://en.kremlin.ru/events/president/news/62003>.
(29) Reperibile nel sito web <https://www.rt.com/news/401731-ai-rule-world-putin/>.
(30) Reperibile nel sito web <https://jamestown.org/program/russia-adopts-national-strategy-for-development-of-artificial-intelligence/>.
(31) Reperibile nel sito web <https://niti.gov.in/sites/default/files/2019-01/NationalStrategy-for-AI-Discussion-Paper.pdf>.
(32) Nel sito web <https://www.portaledifesa.it/index~phppag,3_id,2278.html>.
(33) Reperibile nel sito web <https://www.hrw.org/news/2019/05/01/interview-chinas-big-brother-app>.
(34) Reperibile nel sito web <https://www.businessinsider.com/how-ijop-works-china-surveillance-app-for-muslim-uighurs-2019-5?IR=T>.
(35) Reperibile nel sito web <https://www.hrw.org/report/2019/05/01/chinas-algorithms-repression/reverse-engineering-xinjiang-police-mass-surveillance>.
(36) Reperibile nel sito web <https://www.europarl.europa.eu/news/it/press-room/20191212IPR68927/la-cina-deve-chiudere-i-campi-di-rieducazione-per-gli-uiguri-nello-xinjiang>.
(37) Reperibile nel sito web <https://foreignpolicy.com/2018/04/03/life-inside-chinas-social-credit-laboratory>.
(38) Reperibile nel sito web <http://www.xinhuanet.com/english/2018-03/06/c_137020082.htm>.
(39) Reperibile nel sito web <http://www.limesonline.com/rubrica/armonia-e-controllo-cosa-e-il-sistema-di-credito-sociale-di-pechino-cina?refresh_ce>.
(40) Reperibile nel sito web <http://www.ecns.cn/2017/03-01/247459.shtml>.
(41) Reperibile nel sito web <https://www.theverge.com/2018/3/26/17163478/ford-alibaba-cat-car-vending-machine-china>.
(42) Cfr. Antonio Casciano, Ripensare l’Intelligenza Artificiale secondo l’antropocentrismo cristiano, alle pp. 13-18 di questo numero.