Quale etica per quale tecnologia?

Nel contesto del vostro convegno “Uomo on-life: tecnologia al servizio o persona bannata?” vorrei per parte mia offrire un contributo che leghi le nuove teconologie emergenti e convergenti con la dimensione etico-umanistica. L’orizzonte che abbiamo davanti è quello di un cambiamento d’epoca, come ama dire papa Francesco, al cui interno assistiamo ad una rivoluzione tecnica permanente. Se la esaminiamo in modo complessivo, vediamo che coinvolge e trasforma (o sovverte) tutte le dimensioni dell’esistenza umana e delle relazioni sociali. Jacques Ellul, che già nel 1954 identificò chiaramente la questione della tecnica come “enjeu du siècle” (cioè la questione cruciale del secolo), ci aveva preavvertito e non smise di ripeterlo: “sappiamo bene che tutto dipenderà finalmente dall’esito dell’avventura tecnica”.

Non mancano studi che continuano ad avvertirci, preoccupati per il futuro della società. C’è chi si interroga – come abbiamo ascoltato dal video – “casa o esilio? Padroni o schiavi?” Non ci troviamo di fronte ad un nuovo capitalismo? Il “capitalismo della sorveglianza”? I capitalisti della sorveglianza sanno tutto di noi, mentre per noi è impossibile sapere quello che fanno. Accumulano un’infinità di nuove conoscenze da noi ma non sempre per noi. Predicono il nostro futuro perché qualcun altro ci guadagni, ma non noi. Come si può intuire è urgente comprendere quanto sta avvenendo già sotto i nostri occhi: dobbiamo aprirli meglio, non rassegnarci all’inevitabile, al contrario intervenire perché la stella polare resti sempre la centralità della persona umana.  Svolgerei questo mio intervento in quattro punti:

1) caratteristiche e implicazioni della tecnologia oggi;
2) quale etica per avere un impatto sulla tecnologia;
3) tra algocrazia e algoretica configurare la tecnologia per il futuro;
4) Call su AI aspetti etici, educativi e giuridici

La tecnologia oggi

Nel suo cammino l’umanità ha visto profondi molti cambiamenti che hanno modificato sia le sue conoscenze sull’universo, sia la propria posizione nel mondo. L’uomo si è trovato sospinto sempre più verso regioni periferiche: con Copernico il nostro pianeta ha perso la sua posizione centrale nel sistema solare; con Darwin la specie umana è stata inscritta nella concatenazione evolutiva delle altre specie animali; con Freud l’Io ha scoperto che quel controllo totale che credeva di avere sulle proprie facoltà era illusorio, si trova in realtà sottomesso a spinte inconsce che influiscono su decisioni e comportamenti. Ognuno di questi passaggi ha comportato non solo trasformazioni sul modo di comprendere la realtà fisica, biologica o psichica, ma anche una nuova comprensione di se stesso o, come dicono i filosofi, una nuova auto-comprensione.

Anche la storia della tecnica ha conosciuto vere e proprie rivoluzioni. Pensiamo al campo dell’energia: con la macchina a vapore e poi con l’elettricità si sono prodotti profondi cambiamenti nel modo di vivere e di lavorare dell’intera umanità. Ognuna di queste rivoluzioni ci ha sollecitato a ripensare il concetto stesso di unicità dell’essere umano con nuove categorie.

Anche delle tecnologie dell’informazione (ICT) si deve dire che non sono solo strumenti; esse trasformano il nostro modo stesso di vivere. Se poi si legano alle cosiddette “tecnologie emergenti e convergenti” (nanotecnologie, biotecnologie, scienze cognitive…), si comprende ancor più la forza di trasformazione del vissuto umano. Indico quattro prospettive di questa trasformazione:

1)  la crescente difficoltà a distinguere tra ambiti reali e ambiti virtuali;

2) lo sfumarsi dei confini tra umano, meccanico e quanto è naturale;

3) da una scarsità di informazione ad una (sovr)abbondante di dati;

4) la rilevanza delle connessioni in rete che rivoluziona la concezione che abbiamo di noi stessi (chi siamo), delle nostre relazioni (come socializziamo) e della nostra realtà (la nostra metafisica).

La comprensione di noi stessi che va affermandosi pone l’accento sulla centralità dell’informazione: l’essere umano è un “organismo informazionale” (inforg), reciprocamente connesso con altri organismi simili e parte di un ambiente informazionale (l’infosfera), che condividiamo con altri agenti, naturali e artificiali, che processano informazioni in modo logico e autonomo. Nella realtà “iperconnessa” in cui siamo immersi non ha più neanche senso porre la domanda se si è online o offline, perché attraverso la molteplicità di dispositivi con cui interagiamo e che interagiscono tra loro, spesso a nostra insaputa, sarebbe più corretto dire che siamo onlife: un neologismo che alcuni pensatori usano per dire l’inestricabile intreccio tra vita umana e universo digitale.

Quale etica?

All’interno di questo scenario, siamo sollecitati ad andare oltre un’etica che consideri gli atti umani avulsi dal loro contesto, isolandoli dalla situazione. In realtà già il Concilio Vaticano II ci ha sollecitato ad approfondire una visione olistica della vita umana. Insomma, non possiamo considerare i nostri atti in maniera isolata. Essi sono solo la punta dell’iceberg. Bisogna tener presente anche la base dell’iceberg, anzi l’oceano in cui galleggia. In questa luce, metto in evidenza due ambiti che ritengo cruciali.

Il primo ambito è quello del linguaggio.

Le parole hanno un loro senso e non possono essere equivoche. Ecco perché la stessa terminologia dell’“intelligenza artificiale” va presa con attenzione. Il papa ce lo ha detto nel discorso tenuto all’ultima Assemblea generale della PAV sulla roboetica: “la denominazione “intelligenza artificiale”, pur certamente di effetto, può rischiare di essere fuorviante. I termini occultano il fatto che – a dispetto dell’utile assolvimento di compiti servili (è il significato originario del termine “robot”) –, gli automatismi funzionali rimangono qualitativamente distanti dalle prerogative umane del sapere e dell’agire. E pertanto possono diventare socialmente pericolosi. È del resto già reale il rischio che l’uomo venga tecnologizzato, invece che la tecnica umanizzata: a cosiddette “macchine intelligenti” vengono frettolosamente attribuite capacità che sono propriamente umane. Dobbiamo comprendere meglio che cosa significano, in questo contesto, l’intelligenza, la coscienza, l’emotività, l’intenzionalità affettiva e l’autonomia dell’agire morale. I dispositivi artificiali che simulano capacità umane, in realtà, sono privi di qualità umana. Occorre tenerne conto per orientare la regolamentazione del loro impiego, e la ricerca stessa, verso una interazione costruttiva ed equa tra gli esseri umani e le più recenti versioni di macchine” (Francesco, Discorso all’Assemblea Generale PAV, 25 febbraio 2019).

In effetti questi dispositivi computazionali sono privi di corpo; sono fondamentalmente delle macchine calcolatrici che si limitano a elaborare flussi informativi astratti. E anche nel caso in cui siano munite di sensori, lavorano riducendo certi aspetti del reale a codici binari, escludendo un’infinità di dimensioni che invece la nostra sensibilità coglie e che sfuggono ai principi di una modellizzazione matematica. Quindi questo linguaggio amputa e distorce ciò che è presupposto al processo dell’intelligenza, il quale è inseparabile dalla sua tensione all’apprendimento multisensoriale e non sistematizzabile dell’ambiente esterno: “per dirla semplicemente: cervello e corpo sono nella stessa barca e insieme rendono possibile la mente” (A.Damasio, Lo strano ordine delle cose, Milano 2018, p.274).

Un secondo ambito riguarda la riflessione sugli effetti che le nuove tecnologie nel loro complesso esercitano sull’ethos condiviso. Non è sufficiente quindi prescrivere una maggiore educazione per un uso corretto degli strumenti disponibili, proprio perché abbiamo visto che sono molto più che strumenti: essi plasmano il mondo e le coscienze. Occorre assumere responsabilmente questo tema, che riguarda l’educazione umana alle qualità non tecniche della coscienza e l’amore per il bene della comunità anche quando non se ne ricava un vantaggio. Esiste, dunque, una questione politica relativa al potere di legittimazione comunitaria dell’ethos dell’“IA” che non va confuso con il potere di distribuzione dei suoi vantaggi individuali e astrattamente funzionali. In altri termini: non basta semplicemente ragionare sulla sensibilità morale di chi fa ricerca e progetta dispositivi e algoritmi, e affidarci ad essa; occorre invece lavorare per creare corpi sociali intermedi che assicurano rappresentanza alla sensibilità etica degli utilizzatori, in tutte le fasi del processo. Si tratta infatti di evitare, al tempo stesso, di assegnare un ruolo dogmatico e dirigistico da una parte alla gestione politica e dall’altra al liberismo tecnocratico. Rimane aperta naturalmente la ricerca di come realizzare questi obiettivi (su cui dirò qualcosa tra poco a proposito di quanto la PAV ha avviato). Non è saggio quindi lasciarsi sedurre dallo svolgimento più preciso o più efficiente o meno costoso di alcuni compiti, concentrandosi sulla singola prestazione senza mettere bene a fuoco gli effetti complessivi che si producono.

Tra algocrazia e algoretica

Quindi, come nel momento analitico occorre favorire uno sguardo ampio, così sul piano etico non è sufficiente circoscrivere l’attenzione al controllo dei singoli dispositivi, collegandolo in modo astratto e generico al rispetto dei diritti soggettivi, della dignità e di quei principi che la dottrina sociale della Chiesa ci mette molto opportunamente a disposizione. Certamente dignità, giustizia, sussidiarietà, solidarietà sono punti di riferimento irrinunciabili, ma la complessità del mondo tecnologico contemporaneo ci chiede di elaborarne una interpretazione che possa renderli effettivamente incisivi. Abbiamo visto che il nuovo livello dell’intermediazione tecnologica cosiddetta “intelligente” taglia fuori la valutazione del singolo circa la dignità del suo uso. In questa fase, appare ormai chiaro che “l’umano” è condizionato in modo tale da “assecondare” il dispositivo AI, molto più del contrario: è il dispositivo stesso a plasmare l’utente come “degno” e “libero” di farne uso. Il feed-back caratteristico dell’AI è appunto l’alimentazione e la sofisticazione di questo meccanismo selettivo di conformità sociale al dispositivo. Si mantiene così un circuito che, con lo scopo di condizionare e dirigere i comportamenti, trae vantaggio proprio dall’inconsapevole assoggettamento dell’utente che lo alimenta, che diventa succube di una vera e propria “algocrazia” (dominio dell’algoritmo). È una problematica pone un nuovo paradigma, per l’inquadramento della eticità praticabile in questo campo.

Il compito che si profila è di individuare un modello di monitoraggio inter-disciplinare per la ricerca condivisa di un’etica a proposito dell’intero percorso in cui intervengono le diverse competenze nell’elaborazione degli apparati tecnologici (ricerca, progettazione, produzione, distribuzione, utilizzo individuale e collettivo). Mediazione ormai indispensabile, vista la capacità della strumentazione AI di determinare vere e proprie forme di controllo e orientamento delle abitudini mentali e relazionali, e non solo di potenziamento delle funzioni cognitive e operative. Si tratta di elaborare un modello condiviso che consenta di esaminare dai diversi punti di vista le ricadute prevedibili dei singoli momenti del percorso. L’obiettivo è quello di assicurare una verifica competente e condivisa dei processi secondo cui si integrano i rapporti tra gli esseri umani e le macchine nella nuova era aperta dalla IA. È questo un compito che richiede disponibilità al dialogo e alla collaborazione. Non mancano segni di attenzione e di impegno su questo fronte. Un esempio che vorrei citare è quello di “ingegneri senza frontiere”, che hanno proposto un manifesto perché gli ingegneri (che hanno in queste attività un ruolo strategico) assumano responsabilità anche per le dimensioni sociali del loro lavoro. Essi hanno così elaborato proposte concrete fin dal curriculum universitario, sostenendo la formazione al pensiero critico, che renda capaci di riconoscere la non neutralità della tecnologia, la sua rilevanza politica e l’esigenza del dialogo pluralista e interdisciplinare su questi temi (https://www.isf-france.org/node/1211).

Una Call su IA e aspetti etici, educatici e giuridici

È in questa linea che la PAV ha raccolto la sollecitazione di alcuni importanti operatori nel campo delle tecnologie digitali (Microsoft e IBM) per approfondire la comprensione delle trasformazioni in atto e per poter assumere le corrispondenti responsabilità. Stiamo elaborando una Call for Ethics che conduca a un valutazione critica degli effetti di queste tecnologie, dei rischi che comportano, di possibili vie di regolamentazione, anche sul piano educativo. Si tratta di esaminare tutto il percorso di elaborazione, che parte dalla ricerca e dalla progettazione, fino all’uso che ne possono fare le istituzioni o singoli utenti.

L’obiettivo è di garantire un effettivo esercizio della libertà e riconoscimento della dignità, anche nelle situazioni concrete. Questo non sarà possibile se non ci sono valide alternative per chi decide di non usare certi dispositivi di assistenza perché non li considera consoni alla propria concezione della persona e delle relazioni umane. Così come la libertà viene impedita se non potrò scegliere una badante che mi curi, anche rinunciando a qualche efficienza, in cambio di umanità, perché la ASL mi fornirà obbligatoriamente robottini da prendere-o-lasciare. Analogamente potremmo argomentare riguardo ai big data: occorre garantire a tutti una qualche modalità praticabile di accesso ai big data più o meno analoga a quella che oggi consente anche ai nonni di accedere a Internet per avere una loro informazione e interazione.

Il rischio è che con lo sviluppo di IA, l’accesso e l’elaborazione diventino selettivamente riservate alle grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica. In altri termini, è in gioco l’equità nella ricerca di informazioni o nel mantenere i contatti con gli altri, se la sofisticazione dei servizi sarà automaticamente sottratta a chi non appartiene a gruppi privilegiati o non dispone di particolari competenze.

Considerando poi la famiglia umana nel suo complesso, dobbiamo considerare come possono essere rispettate le differenze tra comunità. Occorre evitare che l’IA ne tenga conto solo in funzione dell’affinamento dei suoi dispositivi regolativi, ma insistere perché sia garantito lo spazio di intervento perché il soggetto comunitario possa determinare gli effetti collettivi di un’automazione sofisticata e auto-gestita dei prodotti, delle funzioni, dei servizi. Certo “di diritto” è giusto proclamare l’uguaglianza, la razionalità, la coscienza, la libertà, come dimensioni paritetiche e universali della dignità e della legalità, che riguardano ogni singolo senza distinzioni. “Di fatto” però, le diversità non sono accessori dell’umano, sono pur sempre componenti della sua esistenza reale. Ci sono diversità indesiderabili (deficit intellettivi, deprivazioni sociali, vuoti educativi, vulnerabilità sistemiche). Ma ci sono diversità delle quali viviamo (la nostra rete famigliare, la nostra dedizione religiosa, il nostro lavoro, il nostro ruolo, il nostro habitat). Confondere queste diversità è sbagliato, né può essere ignorata la distinzione tra quanto è svantaggioso per la vita e quanto è invece proprio della condizione umana.

Tale possibile confusione espone il discorso etico, giuridico, politico a una pericolosa astrattezza. Va favorito l’impegno a costruire modi di vita che non puntino all’eliminazione di ogni vulnerabilità, con l’intento immaginario di liberarci dalle nostre affezioni a vantaggio di un’organizzazione ideale delle cose, inseguendo una forma di perfezione tanto compiuta quanto illusoria. È invece importante garantire lo spazio per il riconoscimento e l’assunzione riconciliata con la fondamentale finitudine (e imperfezione) propria dell’esistenza, celebrando al contempo la diversità degli individui, l’autonomia responsabile della volontà, la nostra capacità di apprendimento multisensoriale della realtà, ed edificando modalità di stare insieme nel reciproco riconoscimento.

Fare scelte etiche oggi significa cercare di trasformare il progresso in sviluppo. Significa indirizzare la tecnologia verso un umanesimo che sia centrato, appunto, sempre sulla dignità della persona umana.

Avezzano, 24 gennaio 2020