Roboética, inteligencia artificial y el sentido de la existencia humana

Siamo in un tempo di cambiamento di epoca, ama dire Papa Francesco, per sottolineare la peculiarità di questo inizio di millennio. E’ passaggio inedito che incide profondamente nella storia dell’umanità. E’ sufficiente ricordare che, per la prima volta nella storia dell’umanità, l’uomo ha nelle sue mani il potere di distruggersi. Già dagli anni Quaranta del secolo scorso, con la bomba nucleare, gli uomini possono distruggere la vita nel pianeta. La esplosione nucleare in Giappone ha suscitato una paura così grande da spingere i politici a cercare una intesa. E, in effetti, un accordo si è raggiunto, anche se sembra indebolirsi sempre più. Il pericolo è ancora alle porte. Papa Francesco, nel suo recente viaggio in Giappone, ha sostenuto che è un crimine anche solo il possesso della bomba nucleare.

Vi è stato poi un secondo orizzonte che rischia di distruggere il creato: la distruzione dell’ambiente. Una forsennata corsa allo sfruttamento delle risorse della terra per raggiungere profitti senza freni ci ha portato, come direbbe Hans Jonas, sull’orlo dell’abisso. Ancora una volta, la paura per la distruzione del creato ha convinto i governi – nonostante i successivi ripensamenti –  a ritrovarsi a Parigi per un accordo globale sul clima.

Ora siamo su un terzo fronte. Non è il nucleare e neppure il clima. Ad essere messo a rischio è l’umano come tale. Con la sua lettera Humana Communitas, inviata alla Pontificia Accademia per la Vita, Papa Francesco ha invitato a riflettere sulla “famiglia umana” che ora corre rischi ancor più pericolosi di quelli della “casa comune”. La Pontificia  Accademia per la Vita ha quindi allargato i suoi orizzonti, senza abbandonare, ovviamente, quelli tradizionali della bioetica, come l’eutanasia, il suicidio assistito, le cure palliative, le cellule staminali. Questo comporta un ampliamento del significato semantico del termine “vita umana”. Nella Lettera papa Francesco invita a sviluppare la riflessione sul versante delle nuove tecnologie emergenti e convergenti, come le tecnologie dell’informazione e della comunicazione, le biotecnologie, le nanotecnologie, la robotica. Con i risultati ottenuti dalla fisica, dalla genetica e dalle neuroscienze, come pure della capacità di calcolo di macchine sempre più potenti, è oggi possibile intervenire molto profondamente nell’umano. L’innovazione digitale infatti, tocca tutti gli aspetti della vita, sia sul piano personale che sociale; incide sul nostro modo di comprendere non solo il mondo, ma anche noi stessi. Le decisioni, anche le più importanti come quelle in ambito medico, economico o sociale, sono oggi il frutto sia del volere umano che di una serie di contributi algoritmici. L’atto personale viene a trovarsi così al punto di convergenza tra l’apporto propriamente umano e il calcolo automatico, cosicché risulta sempre più complesso comprenderne l’oggetto, prevederne gli effetti, definirne le responsabilità.

L’Accademia ha affrontato nel 2017 il tema della tutela e promozione della vita umana nell’era tecnologica e quindi nell’orizzonte della bioetica globale. L’anno scorso ci siamo indirizzati sulle questioni etiche poste dalla robotica (la cosiddetta “roboetica”) e quest’anno – in continuità – affronteremo il tema su etica e intelligenza artificiale. Mentre procedevamo nella preparazione di questa Assemblea ha chiesto di vedermi il nuovo presidente di Microsoft, Brad Smith. In sintesi mi dice: “A Microsoft abbiamo potenzialità enormi per il progresso dell’uomo ma anche per la sua radicale alterazione. E’ una enorme responsabilità che pesa sulle nostre spalle. E tra noi ci sono solo ingegneri. Mancano esperti di etica, di filosofia morale e così oltre… Vorremmo chiedere alla Pontificia Accademia per la Vita se siete disposti, conservando ovviamente la vostra piena libertà e la totale autonomia, ad accompagnarci come interlocutori etici nel nostro lavoro. Non abbiamo bisogno di fare qualche convegno con voi, ma di avervi come compagni di viaggio, aiutandoci a porre sempre nel centro del nostro lavoro la dignità dell’uomo”. Fu una richiesta sorprendente. Gli dissi di una ideale Parigi della tecnologia analogamente a quella avvenuta sul clima… Analoga richiesta è venuta dal presidente della IBM. Dopo mesi di lavoro, di incontri, di dibattiti, siamo giunti alla prossima Assemblea Generale al termine della quale è prevista la firma di una Call che poi presentiamo a Papa Francesco e che vorremmo fosse l’inizio di un itinerario per la sua diffusione.

 La tecnologia oggi.

Ma torniamo al cuore del problema, ossia alla questione della tecnica e del suo dominio sulla vita umana e del pianeta. Ho accennato alle “tecnologie dell’informazione” e alle “tecnologie emergenti e convergenti” che intervengono in maniera così profonda sull’umano e sul creato da metterli in serio pericolo. Alcuni studiosi della metà del Novecento hanno avvertito il pericolo di una tecnica che va ben oltre il suo statuto umanistico. Per essi si tratta di una nuova forma di dittatura, alcuni ne parlano come della nuova religione. Heidegger, ad esempio, di fronte all’invasione della tecnica, affermava: “Solo un dio ci può salvare”, non era il Dio cristiano ma la ragione umanistica che doveva riprendere il suo posto di guida della storia umana. Ho accennato a Hans Jonas, ma anche altri studiosi sono intervenuti, Habermas, Virilio, Ellul, e altri ancora. Tutti concordi nell’avvertire la scietà di guardarsi dalla “dittatura della tecnica”.

E’ appena uscito il volume di una economista e psicologa, che insegna nella Harvard Businnes School negli Stati Uniti che ha studiato a fondo le trasformazioni dell’era digitale, Shoshana Zuboff. Nel suo ultimo volume Il capitalismo della sorveglianza, l’autrice descrive con efficacia il pericolo di essere soggetti ad un nuovo potere che minaccia la stessa natura dell’umano. Ella sostiene che dopo il capitalismo industriale, nato dalla spinta della crescita dei mezzi di produzione, se ne sta affermando uno nuovo, quello della sorveglianza che, attraverso un eccezionale sviluppo della tecnologia intacca in profondità l’umano. I proprietari delle nuove grandi aziende tecnologiche, con il possesso dei cosiddetti “big data” (Microsoft, IBM, Google, Amazon…), hanno nelle loro mani il potere sulla nostra vita in maniera senza precedenti. Essi, per dirla in breve, sanno tutto di noi, della nostra vita personale e di quella collettiva. Per di più è impossibile  per noi sapere quello che loro fanno di questa enorme quantità di conoscenze. Le prendono da noi ma non è detto che le usino sempre per noi o per il bene. Possono predire il nostro futuro perché qualcun altro ci guadagni, ma non noi. Insomma, lo sviluppo tecnologico può dare nelle mani di pochi il futuro sia personale che collettivo di tutti. Eric Schmidt, di Google, nel 2010 scriveva agli utenti di Google: “più informazioni ci date su di voi e sui vostri amici, migliore sarà la qualità delle ricerche. Non serve nemmeno che scriviate. Sappiamo dove siete. Sappiamo dove siete stati. Sappiamo più o meno a cosa state pensando”. Insomma: i capitalisti della sorveglianza sanno troppe cose di noi per essere e dirci liberi. E’ ovvio che una concentrazione di conoscenza produce inevitabilmente una concentrazione di potere.

A questo punto le domande diventano incalzanti: verso quel futuro stiamo andando? Quale tipo di società stiamo edificando? Quali tipi di relazioni instauriamo tra noi? E molte altre ancora. E’ comunque urgente comprendere quel che sta accadendo. Aprire gli occhi senza rassegnarci a quel che invece sembra inevitabile. C’è bisogno di intervenire perché, anche in questo tempo di invasione tecnologica, la stella polare dell’esistenza resti la centralità della persona e dell’intera famiglia umana.

Oltre a quanto ho già accennato circa il capitalismo della sorveglianza c’è anche la capacità di intervento della tecnica sulla dimensione biologica della vita umana. Le nuove tecnologie consentono ad esempio una crescente capacità di intervento che non si limita solo al ripristino delle funzioni compromesse, ma può potenziare le prestazioni fisiche e mentali, tanto da prevedere un uomo cosiddetto “potenziato”. Nel campo della sanità viene sconvolto il rapporto tra medico e paziente con un profondo cambiamento dello stesso servizio sanitario. Un programma pilota del Servizio sanitario nazionale britannico che utilizza IA per analizzare tutti i dati dei pazienti in tempo reale, ha fatto diminuire i tassi di riammissione degli ospedali, come anche si sono ridotte le visite per urgenze. Senza parlare poi della ingegneria genetica e del cosiddetto post-umano. Ovviamente restano importantissimi i progressi per aiutare tutti a vivere meglio. In effetti, si possono raggiungere vette altissime di progresso, in tutti i campi. Ci sono riflessi anche sul versante giudiziario. Negli Stati Uniti, ad esempio, si utilizzano algoritmi che assistono le corti nel calcolare i rischi che il soggetto sotto giudizio possa ricommettere in futuro dei crimini. Questi programmi informatici (di riskassessment) sono ampiamente utilizzati in tutto il sistema penale statunitense per individuare, ad esempio, chi può rimanere in libertà durante il processo.

Molti altri esempi si potrebbero portare. Ma qual è il punto delicato della questione e che chiede un supplemento di attenzione. E’ evidente che le tecnologie dell’informazione (ICT), con le “tecnologie emergenti e convergenti” (nanotecnologie, biotecnologie, scienze cognitive…), non sono solo strumenti. Esse trasformano il nostro modo stesso di vivere. E’ qui il tema centrale. E’ la comprensione di noi stessi che va affermandosi: la persona umana è un “organismo informazionale” (inforg), reciprocamente connesso con altri organismi simili ed è parte di un ambiente informazionale (l’infosfera), che condividiamo con altri agenti, naturali e artificiali, che processano informazioni in modo logico e autonomo. Nella realtà “iperconnessa” – nella quale siamo immersi – non ha più neanche senso porre la domanda se si è online o offline, perché attraverso la molteplicità di dispositivi con cui interagiamo e che interagiscono tra loro (spesso a nostra insaputa), sarebbe più corretto dire che siamo onlife: un neologismo che alcuni pensatori usano per dire l’inestricabile intreccio tra vita umana e universo digitale.

Algocrazia e algoretica

All’interno di questo scenario la domanda che ci poniamo è la seguente: quale etica dobbiamo sviluppare per avere un impatto reale sulla tecnologia? Come evitare che l’uomo venga tecnologizzato invece che la tecnica umanizzata? Come non diventare succubi della “algocrazia”, ossia del potere degli algoritmi? Bisogna evitare di assegnare un ruolo dogmatico e dirigistico sia alla gestione politica sia al liberismo tecnocratico dei “data”. E questo è possibile solo attraverso regole etiche che entrino nel processo della stessa tecnologia. Non è sufficiente circoscrivere l’attenzione al controllo dei singoli dispositivi, collegandolo in modo astratto e generico al rispetto dei diritti soggettivi, della dignità e di quei principi che la dottrina sociale della Chiesa sottolinea: dignità, giustizia, sussidiarietà, solidarietà. Si tratta di punti di riferimento irrinunciabili. Ma la complessità del mondo tecnologico contemporaneo ci chiede di elaborarne una interpretazione che possa renderli effettivamente incisivi. Appare ormai chiaro che “l’umano” è condizionato in modo tale da “assecondare” il dispositivo di Intelligenza Artificiale, molto più del contrario: è il dispositivo stesso a plasmare l’utente come “degno” e “libero” di farne uso. Il feed-back caratteristico dell’Intelligenza Artificiale è appunto l’alimentazione e la sofisticazione di questo meccanismo selettivo di conformità sociale al dispositivo. Si potrebbe perciò parlare di “algoretica”, ossia di controllo della moralità degli algoritmi.

Questo è possibile se si individua un modello di monitoraggio inter-disciplinare per un’etica che sia presente nell’intero percorso in cui intervengono le diverse competenze nell’elaborazione degli apparati tecnologici (ricerca, progettazione, produzione, distribuzione, utilizzo individuale e collettivo). Mediazione ormai indispensabile, vista la capacità della strumentazione dell’Intelligenza Artificiale di determinare vere e proprie forme di controllo e orientamento delle abitudini mentali e relazionali, e non solo di potenziamento delle funzioni cognitive e operative. Si tratta di elaborare un modello condiviso che consenta di esaminare dai diversi punti di vista le ricadute prevedibili dei singoli momenti del percorso. L’obiettivo è quello di assicurare una verifica competente e condivisa dei processi secondo cui si integrano i rapporti tra gli esseri umani e le macchine nella nuova era aperta dalla Intelligenza Artificiale. È questo un compito che richiede disponibilità al dialogo e alla collaborazione.

 Una Call su IA e aspetti etici, educatici e giuridici

Il cammino di riflessione intrapreso dalla PAV, con accademici, membri della società civile e aziende produttrici di queste tecnologie, ha portato alla elaborazione, come ho già accennato, alla elaborazione di una Call che sarà presentata e firmata durante la prossima Assemblea Generale di fine febbraio. La Call, dopo un preambolo che ne descrive la ragione, si declina in tre orizzonti tematici. Il primo riguarda l’orizzonte etico, un orizzonte basilare per la realizzazione delle condizioni della vita sia sociale sia personale, che permette tanto ai gruppi quanto ai singoli membri di adoperarsi per raggiungere possibilmente la piena espressione di sé.

Un secondo orizzonte, quello educativo, per  costruire un futuro per e con le nuove generazioni. E’ una responsabilità che va tradotta in un impegno educativo che sviluppi curriculum specifici e interdisciplinari tra materie umanistiche, scientifiche e tecniche, e sappia farsi carico della formazione delle nuove generazioni. L’impegno deve tradursi nel contribuire a migliorare la qualità della formazione dei giovani. L’accesso universale all’educazione deve realizzarsi attraverso principi di solidarietà e giustizia.

Un terzo ambito è quello giuridico. Lo sviluppo dell’Intelligenza Artificiale per essere a servizio dell’umanità e del pianeta deve tradursi in norme e principi che tutelino le persone, specialmente i deboli e gli ultimi, e gli ambienti naturali.

I firmatari che diventano di fatto anche i promotori di questa Call esprimono la loro volontà a lavorare congiuntamente e si impegnano a promuovere una ricerca, uno sviluppo e un uso etico dell’Intelligenza Artificiale.

Con la Call vorremmo avviare riflessioni e iniziative che contribuiscano a trasformare l’innovazione tecnologica in un fattore di autentico sviluppo umano, per la promozione del bene comune. Oltre a quella parte di mondo accademico internazionale che si è unita alla PAV in questo processo e alle due aziende, IBM e Microsoft, che sono coinvolte fin dall’inizio del processo, si sono aggiunte due strutture più politiche, la FAO e il Presidente del Parlamento europeo, che hanno condiviso con l’Accademia alcune prospettive di fondo. La Call, frutto di una serie di contatti e dialoghi avuti in questi anni in una serie di iniziative e confronti internazionali, intende incidere su alcune tecnologie basate sul cloud computing e su servizi cognitivi avanzati (Watson e Azure per fare alcuni esempi) che vedono, le due aziende citate, come leader nella ricerca e nell’applicazione. L’intento della Call è dar vita a un movimento che si allarghi e coinvolga altri soggetti: istituzioni pubbliche, ONG, industrie e gruppi per produrre un indirizzo nello sviluppo e nell’utilizzo delle tecnologie derivate dall’IA. Da questo punto di vista possiamo dire che la prima firma di questa Call non è un punto di arrivo, ma un inizio per un impegno che appare ancora più urgente e importante di quanto fin qui fatto.

Aderire a questa iniziativa comporta per le industrie che firmano un impegno che ha anche una rilevanza in termini di costi e di vincolo industriale nello sviluppo e nella distribuzione dei loro prodotti. Se l’Accademia si sente chiamata a intensificare il proprio impegno per facilitare la conoscenza e la firma di altri soggetti, non di meno, la Call è un primo passo che ne prelude altri.

Il testo della Call si caratterizza anche per essere un primo tentativo nel formulare un insieme di criteri etici con comuni riferimenti di valore, offrendo un contributo all’elaborazione di un linguaggio comune per interpretare quanto è umano. Il suo linguaggio ha il sapore tecnico e industriale per farsi ponte con le tradizioni umanistiche e con valori etici condivisi. La stessa insistenza sulla “intelligenza”, è una scelta che enfatizza un termine che non è per nulla neutrale, ma è carico di valori e di una storia che non di rado ha conosciuto abusi e usi strumentali per giustificare rapporti di potere non sempre giusti. A partire da questo testo sembra comunque urgente sviluppare adeguate riflessioni che sappiano fornire al mondo dell’educazione spunti e strumenti per preparare le nuove generazioni alle sfide che le attendono. L’Accademia si sente chiamata ad approfondire l’impatto specifico che queste tecnologie hanno sul mondo medico sanitario e sulla cura e tutela della vita. L’attività umana in questi settori appare sempre più scomposta in molteplici elementi non facilmente riconducibili al controllo o alla volontà di singoli soggetti. Questa nuova modalità in cui si svolge l’agire personale in un contesto strutturato, sfida particolarmente le professioni mediche e sanitarie che hanno come oggetto valori così fondamentali come quelli connessi alla corporeità e alla vita umana. L’innovazione tecnologica ci sfida anche come Chiesa, la PAV inizia così a prendere posizione e parte in un contesto storico e sociale in profonda e continua trasformazione.

Lima, Perù, 13 febbraio 2020