Quale etica per quale tecnologia

Il tema che mi avete chiesto di affrontare pone una domanda enorme e centrale nella nostra epoca. Siamo infatti in un tempo di rivoluzione tecnica permanente. Se la esaminiamo in modo complessivo, vediamo che coinvolge e trasforma (o sovverte) tutte le dimensioni dell’esistenza umana e delle relazioni sociali. Jacques Ellul, che già nel 1954 identificò chiaramente la questione della tecnica come « enjeudu siècle » (cioè la questione cruciale del secolo), ci aveva preavvertito e non smise di ripeterlo fino al 1989 : « sappiamo bene che tutto dipenderà finalmente dall’esito dell’avventura tecnica » (Nous savons tous que tout dépendra finalement de l’issue de l’aventure technique).

Riprendendo e integrando il titolo – da cui assumo anche il termine “tecnologia” senza entrare in troppe distinzioni rispetto al termine “tecnica” [come ormai ci stiamo abituando a fare sotto l’influsso della lingua inglese…] –, vorrei svolgere il mio intervento in tre punti: 1) quali sono le caratteristiche e le implicazioni della tecnologia con cui oggi ci troviamo a vivere o, in sintesi, la tecnologia oggi; 2) quale etica ci viene chiesto di elaborare per avere un impatto sulla tecnologia e quindi; 3) alcuni criteri secondo cui configurare più concretamente la tecnologia che stiamo realizzando per il futuro o, per riprendere la domanda che già negli anni 90 Dietmar Mieth formulava come titolo del suo libro: Cosa vogliamo potere?

La tecnologia oggi

Sappiamo che nel suo cammino l’umanità ha vissuto numerosi e profondi molti cambiamenti che hanno modificato sia le sue conoscenze sull’universo, sia la propria posizione nel mondo. L’uomo si è trovato sospinto sempre più verso regioni periferiche: con Copernico il nostro pianeta ha perso la sua posizione centrale nel sistema solare; con Darwin la specie umana è stata inscritta nella concatenazione evolutiva delle altre specie animali; con Freud l’Io ha scoperto che quel controllo totale che credeva di avere sulle proprie facoltà era illusorio, si trova in realtà sottomesso a spinte inconsce che influiscono su decisioni e comportamenti. Ognuno di questi passaggi ha comportato non solo trasformazioni sul modo di comprendere la realtà fisica, biologica o psichica, ma anche una nuova comprensione di se stesso o, come dicono i filosofi, una nuova auto-comprensione. Anche la storia della tecnica ha conosciuto vere e proprie rivoluzioni. Pensiamo al campo dell’energia: con la macchina a vapore e poi con l’elettricità si sono prodotti profondi cambiamenti nel modo di vivere e di lavorare dell’intera umanità. Ognuna di queste rivoluzioni ci ha sollecitato a ripensare il concetto stesso di unicità dell’essere umano con nuove categorie.

Anche delle tecnologie dell’informazione (ICT) – come per altre tecnologie che permettono di svolgere tutte le funzioni e non solo alcuni specifici compiti (general purpose) – si deve dire che non sono solo strumenti; esse sono anche forze ambientali che, data la loro pervasività, fanno ormai parte del nostro mondo. Tenendo poi conto della loro stretta connessione con quelle che vengono definite “tecnologie emergenti e convergenti”(NBIC) – che includono: nanotecnologie, biotecnologie e scienze cognitive – risulta più evidente il loro impatto. L’esito complessivo è che esse inducono profonde trasformazioni. A livello di percezione diffusa, ne possiamo evidenziare quattro principali: a) la crescente difficoltà a distinguere tra ambiti reali e ambiti virtuali;  b) lo sfumarsi dei confini tra quanto è umano, quanto è meccanico (o artefatto) e quanto è naturale; c) il passaggio da una situazione di scarsità di informazione a una disponibilità crescente, (sovr)abbondante di dati;  d) lo slittamento da una priorità attribuita alla sussistenza isolata delle cose e alle relazioni binarie, verso la maggiore rilevanza conferita alle interazioni, ai processi e alle reti (L. Floridi, Manitesto on life). Quindi possiamo osservare come questa nuova situazione metta in questione la nostra concezione di noi stessi (chi siamo); le nostre reciproche relazioni (come socializziamo); la nostra concezione della realtà (la nostra metafisica); le interazioni che abbiamo con la realtà (la nostra capacità di agire o agency).

La comprensione di noi stessi che va affermandosi pone l’accento sulla centralità dell’informazione: l’essere umano è un “organismo informazionale” (inforg), reciprocamente connesso con altri organismi simili e parte di un ambiente informazionale (l’infosfera), che condividiamo con altri agenti, naturali e artificiali, che processano informazioni in modo logico e autonomo. Nella realtà “iperconnessa” in cui siamo immersi non ha più neanche senso porre la domanda se si è online o offline, perché attraverso la molteplicità di dispositivi con cui interagiamo e che interagiscono tra loro, spesso a nostra insaputa, sarebbe più corretto dire che siamo onlife: un neologismo che alcuni pensatori usano per dire l’inestricabile intreccio tra vita umana e universo digitale.

Quale etica?

All’interno di questo scenario, che mette in questione coordinate antropologiche fondamentali, siamo sollecitati ad andare oltre un’etica che consideri gli atti umani avulsi dai contesti e dai soggetti agenti, isolandoli dal piano relazionale e sociale. È un percorso che la teologia (morale) ha intrapreso con decisione fin dalla stagione conciliare del Vaticano II, ma che la congiuntura attuale ci sollecita ad approfondire ulteriormente, anche per poter partecipare in modo più adeguato al dibattito pubblico su questi temi. Si tratta di non limitare la nostra attenzione alla sola punta dell’iceberg, ma di prendere in considerazione per quanto possibile anche la base dell’iceberge, ancora più ampiamente, l’oceano in cui galleggia. In questa luce, metto in evidenza due ambiti che ritengo cruciali.

Il primo ambito è quello del linguaggio. L’etica non può importare con disinvoltura nel proprio discorso termini che veicolano nozioni che distorcono la realtà. La stessa terminologia dell’“intelligenza artificiale” è pericolosamente equivoca: anche se non facile da correggere, occorre tuttavia almeno esercitare un controllo critico, che è una delle forme del discernimento. Il papa ce lo ha detto nel discorso tenuto all’ultima Assemblea generale della PAV sulla roboetica: “la denominazione “intelligenza artificiale”, pur certamente di effetto, può rischiare di essere fuorviante. I termini occultano il fatto che – a dispetto dell’utile assolvimento di compiti servili (è il significato originario del termine “robot”) –, gli automatismi funzionali rimangono qualitativamente distanti dalle prerogative umane del sapere e dell’agire. E pertanto possono diventare socialmente pericolosi. È del resto già reale il rischio che l’uomo venga tecnologizzato, invece che la tecnica umanizzata: a cosiddette “macchine intelligenti” vengono frettolosamente attribuite capacità che sono propriamente umane. Dobbiamo comprendere meglio che cosa significano, in questo contesto, l’intelligenza, la coscienza, l’emotività, l’intenzionalità affettiva e l’autonomia dell’agire morale. I dispositivi artificiali che simulano capacità umane, in realtà, sono privi di qualità umana. Occorre tenerne conto per orientare la regolamentazione del loro impiego, e la ricerca stessa, verso una interazione costruttiva ed equa tra gli esseri umani e le più recenti versioni di macchine” (Francesco, Discorso all’Assemblea Generale PAV, 25 febbraio 2019). In effetti questi dispositivi computazionali sono privi di corpo; sono fondamentalmente delle macchine calcolatrici che si limitano a elaborare flussi informativi astratti. E anche nel caso in cui siano munite di sensori, lavorano riducendo certi aspetti del reale a codici binari, escludendo un’infinità di dimensioni che invece la nostra sensibilità coglie e che sfuggono ai principi di una modellizzazione matematica. Quindi questo linguaggio amputa e distorce ciò che è presupposto al processo dell’intelligenza, il quale è inseparabile dalla sua tensione all’apprendimento multisensoriale e non sistematizzabile dell’ambiente esterno: “Per dirla semplicemente, cervello e corpo sono nella stessa barca e insieme rendono possibile la mente”[1].

Un secondo ambito riguarda la riflessione sugli effetti che le nuove tecnologie nel loro complesso esercitano sull’ethos condiviso. Non è sufficiente quindi prescrivere una maggiore educazione per un uso corretto degli strumenti disponibili, proprio perché abbiamo visto che sono molto più che strumenti: essi plasmano il mondo e le coscienze. Occorre assumere responsabilmente questo tema, che riguarda l’educazione umana alle qualità non tecniche della coscienza e l’amore per il bene della comunità anche quando non se ne ricava un vantaggio. Esiste, dunque, una questione politica relativa al potere di legittimazione comunitaria dell’ethos dell’“IA” che non va confuso con il potere di distribuzione dei suoi vantaggi individuali e astrattamente funzionali. In altri termini: non basta semplicemente ragionare sulla sensibilità morale di chi fa ricerca e progetta dispositivi e algoritmi, e affidarci ad essa; occorre invece lavorare per creare corpi sociali intermedi che assicurano rappresentanza alla sensibilità etica degli utilizzatori, in tutte le fasi del processo. Si tratta infatti di evitare, al tempo stesso, di assegnare un ruolo dogmatico e dirigistico da una parte alla gestione politica e dall’altra al liberismo tecnocratico. Rimane aperta naturalmente la ricerca di come realizzare questi obiettivi (su cui dirò qualcosa tra poco a proposito di quanto la PAV ha avviato). Non è saggio quindi lasciarsi sedurre dallo svolgimento più preciso o più efficiente o meno costoso di alcuni compiti, concentrandosi sulla singola prestazione senza mettere bene a fuoco gli effetti complessivi che si producono.

Per quale tecnologia?

Quindi, come nel momento analitico occorre favorire uno sguardo ampio, così sul piano etico non è sufficiente circoscrivere l’attenzione al controllo dei singoli dispositivi, collegandolo in modo astratto e generico al rispetto dei diritti soggettivi, della dignità e di quei principi che la dottrina sociale della Chiesa ci mette molto opportunamente a disposizione. Certamente dignità, giustizia, sussidiarietà, solidarietà sono punti di riferimento irrinunciabili, ma la complessità del mondo tecnologico contemporaneo ci chiede di elaborarne una interpretazione che possa renderli effettivamente incisivi. Abbiamo visto che il nuovo livello dell’intermediazione tecnologica cosiddetta “intelligente” taglia fuori la valutazione del singolo circa la dignità del suo uso. In questa fase, appare ormai chiaro che “l’umano” è condizionato in modo tale da “assecondare” il dispositivo AI, molto più del contrario: è il dispositivo stesso a plasmare l’utente come “degno” e “libero” di farne uso. Il feed-back caratteristico dell’AI è appunto l’alimentazione e la sofisticazione di questo meccanismo selettivo di conformità sociale al dispositivo. Si mantiene così un circuito che, con lo scopo di condizionare e dirigere i comportamenti, trae vantaggio proprio dall’inconsapevole assoggettamento dell’utente che lo alimenta, che diventa succube di una vera e propria “algocrazia” (dominio dell’algoritmo). È una problematica pone un nuovo paradigma, per l’inquadramento della eticità praticabile in questo campo.

Il compito che si profila è di individuare un modello di monitoraggio inter-disciplinare per la ricerca condivisa di un’etica a proposito dell’intero percorso in cui intervengono le diverse competenze nell’elaborazione degli apparati tecnologici (ricerca, progettazione, produzione, distribuzione, utilizzo individuale e collettivo). Mediazione ormai indispensabile, vista la capacità della strumentazione AI di determinare vere e proprie forme di controllo e orientamento delle abitudini mentali e relazionali, e non solo di potenziamento delle funzioni cognitive e operative. Si tratta di elaborare un modello condiviso che consenta di esaminare dai diversi punti di vista le ricadute prevedibili dei singoli momenti del percorso. L’obiettivo è quello di assicurare una verifica competente e condivisa dei processi secondo cui si integrano i rapporti tra gli esseri umani e le macchine nella nuova era aperta dalla IA. È questo un compito che richiede disponibilità al dialogo e alla collaborazione. Non mancano segni di attenzione e di impegno su questo fronte. Un esempio che vorrei citare è quello di “ingegneri senza frontiere”, che hanno proposto un manifesto perché gli ingegneri (che hanno in queste attività un ruolo strategico) assumano responsabilità anche per le dimensioni sociali del loro lavoro. Essi hanno così elaborato proposte concrete fin dal curriculum universitario, sostenendo la formazione al pensiero critico, che renda capaci di riconoscere la non neutralità della tecnologia, la sua rilevanza politica e l’esigenza del dialogo pluralista e interdisciplinare su questi temi (cfr sito: https://www.isf-france.org/node/1211).

È in questa linea che la PAV ha raccolto la sollecitazione di alcuni importanti operatori nel campo delle tecnologie digitali (fra cui Microsoft e IBM) per approfondire la comprensione delle trasformazioni in atto e per poter assumere le corrispondenti responsabilità. Stiamo elaborando una Call for Ethics che conduca a un valutazione critica degli effetti di queste tecnologie, dei rischi che comportano, di possibili vie di regolamentazione, anche sul piano educativo. Si tratta di esaminare tutto il percorso di elaborazione, che parte dalla ricerca e dalla progettazione, fino all’uso che ne possono fare le istituzioni o singoli utenti.

L’obiettivo è di garantire un effettivo esercizio della libertà e riconoscimento della dignità, anche nelle situazioni concrete. Questo non sarà possibile se non ci sono valide alternative per chi decide di non usare certi dispositivi di assistenza perché non li considera consoni alla propria concezione della persona e delle relazioni umane. Così come la libertà viene impedita se non potrò scegliere una badanteche mi curi, anche rinunciando a qualche efficienza, in cambio di umanità, perché la ASL mi fornirà obbligatoriamente robottini da prendere-o-lasciare. Analogamente potremmo argomentare riguardo ai big data: occorre garantire a tutti una qualche modalità praticabile di accesso ai big data più o meno analoga a quella che oggi consente anche ai nonni di accedere a Internet per avere una loro informazione e interazione. Il rischio è che con lo sviluppo di IA, l’accesso e l’elaborazione diventino selettivamente riservate alle grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica. In altri termini, è in gioco l’equità nella ricerca di informazioni o nel mantenere i contatti con gli altri, se la sofisticazione dei servizi sarà automaticamente sottratta a chi non appartiene a gruppi privilegiati o non dispone di particolari competenze.

Considerando poi la famiglia umana nel suo complesso, dobbiamo considerare come possono essere rispettate le differenze tra comunità. Occorre evitare che l’IA ne tenga conto solo in funzione dell’affinamento dei suoi dispositivi regolativi, ma insistere perché sia garantito lo spazio di intervento perché il soggetto comunitario possa determinare gli effetti collettivi di un’automazione sofisticata e auto-gestita dei prodotti, delle funzioni, dei servizi. Certo “di diritto” è giusto proclamare l’uguaglianza, la razionalità, la coscienza, la libertà, come dimensioni paritetiche e universali della dignità e della legalità, che riguardano ogni singolo senza distinzioni. “Di fatto” però, le diversità non sono accessori dell’umano, sono pur sempre componenti della sua esistenza reale. Ci sono diversità indesiderabili (deficit intellettivi, deprivazioni sociali, vuoti educativi, vulnerabilità sistemiche). Ma ci sono diversità delle quali viviamo (la nostra rete famigliare, la nostra dedizione religiosa, il nostro lavoro, il nostro ruolo, il nostro habitat). Confondere queste diversità è sbagliato, né può essere ignorata la distinzione tra quanto è svantaggioso per la vita e quanto è invece proprio della condizione umana. Tale possibile confusione espone il discorso etico, giuridico, politico a una pericolosa astrattezza. Va favorito l’impegno a costruire modi di vita che non puntino all’eliminazione di ogni vulnerabilità, con l’intento immaginario di liberarci dalle nostre affezioni a vantaggio di un’organizzazione ideale delle cose, inseguendo una forma di perfezione tanto compiuta quanto illusoria. È invece importante garantire lo spazio per il riconoscimento e l’assunzione riconciliata con la fondamentale finitudine (e imperfezione)propria dell’esistenza, celebrando al contempo la diversità degli individui, l’autonomia responsabile della volontà, la nostra capacità di apprendimento multisensoriale della realtà, ed edificando modalità di stare insieme nel reciproco riconoscimento.

In questa linea potremo parlare di autentico sviluppo, che comporta una qualificazione ben precisa del progresso – come ha detto molto bene ieri al Gemelli Mons. Edgar Peña Parra, al convegno sull’IA in sanità: “Fare scelte etiche oggi significa cercare di trasformare il progresso in sviluppo. Significa [cioè] indirizzare la tecnologia verso e per lo sviluppo e non semplicemente cercare un progresso fine a se stesso [peraltro inattuabile]. Sebbene non sia possibile pensare e realizzare la tecnologia senza delle forme di razionalità specifiche (il pensiero tecnico e scientifico), porre al centro dell’interesse lo sviluppo significa dire che il pensiero tecnico-scientifico non basta a se stesso. Servono diversi approcci complementari. Servono diverse discipline”[2]. È a questo sviluppo umano integrale che dobbiamo insieme puntare.

[1] Antonio Damasio, Lo strano ordine delle cose, trad. it. di Silvio Ferraresi, Adelphi, Milano 2018, p. 274.

[2] Frasi precedenti: Lo sviluppo umano è da intendersi […] come un fine e non come un mezzo che caratterizza il progresso definendo delle priorità e dei criteri. Parlare di sviluppo significa, quindi, non mettere la capacità tecnica al centro dell’attenzione bensì tenere l’uomo al centro della riflessione e come fine che qualifica il progresso”. Frasi successive: “Serve anche il contributo di quello che si chiamano, in inglese, le humanities. La tecnologia ci spinge a decisioni urgenti. L’etica ci impone di pretendere e realizzare lo sviluppo umano integrale”.

Ospedale Bambino Gesù
12 dicembre 2019