{"id":25482,"date":"2019-12-12T12:57:39","date_gmt":"2019-12-12T11:57:39","guid":{"rendered":"http:\/\/www.vincenzopaglia.it\/?p=25482"},"modified":"2019-12-12T12:58:48","modified_gmt":"2019-12-12T11:58:48","slug":"quale-etica-per-quale-tecnologia","status":"publish","type":"post","link":"https:\/\/www.vincenzopaglia.it\/index.php\/quale-etica-per-quale-tecnologia.html","title":{"rendered":"Quale etica per quale tecnologia"},"content":{"rendered":"<p>Il tema che mi avete chiesto di affrontare pone una domanda enorme e centrale nella nostra epoca. Siamo infatti in un tempo di rivoluzione tecnica permanente. Se la esaminiamo in modo complessivo, vediamo che coinvolge e trasforma (o sovverte) tutte le dimensioni dell\u2019esistenza umana e delle relazioni sociali. Jacques Ellul, che gi\u00e0 nel 1954 identific\u00f2 chiaramente la questione della tecnica come <em>\u00ab enjeudu si\u00e8cle \u00bb<\/em> (cio\u00e8 la questione cruciale del secolo), ci aveva preavvertito e non smise di ripeterlo fino al 1989 : <em>\u00ab <\/em>sappiamo bene che tutto dipender\u00e0 finalmente dall\u2019esito dell\u2019avventura tecnica\u00a0\u00bb (<em>Nous savons tous que tout d\u00e9pendra finalement de l\u2019issue de l\u2019aventure technique<\/em>)<em>.<\/em><\/p>\n<p>Riprendendo e integrando il titolo \u2013 da cui assumo anche il termine \u201ctecnologia\u201d senza entrare in troppe distinzioni rispetto al termine \u201ctecnica\u201d [come ormai ci stiamo abituando a fare sotto l\u2019influsso della lingua inglese\u2026] \u2013, vorrei svolgere il mio intervento in tre punti: 1) quali sono le caratteristiche e le implicazioni della tecnologia con cui oggi ci troviamo a vivere o, in sintesi, la tecnologia oggi; 2) quale etica ci viene chiesto di elaborare per avere un impatto sulla tecnologia e quindi; 3) alcuni criteri secondo cui configurare pi\u00f9 concretamente la tecnologia che stiamo realizzando per il futuro o, per riprendere la domanda che gi\u00e0 negli anni 90 Dietmar Mieth formulava come titolo del suo libro: <em>Cosa vogliamo potere?<\/em><\/p>\n<p><em>La tecnologia oggi<\/em><\/p>\n<p>Sappiamo che nel suo cammino l\u2019umanit\u00e0 ha vissuto numerosi e profondi molti cambiamenti che hanno modificato sia le sue conoscenze sull\u2019universo, sia la propria posizione nel mondo. L\u2019uomo si \u00e8 trovato sospinto sempre pi\u00f9 verso regioni periferiche: con Copernico il nostro pianeta ha perso la sua posizione centrale nel sistema solare; con Darwin la specie umana \u00e8 stata inscritta nella concatenazione evolutiva delle altre specie animali; con Freud l\u2019Io ha scoperto che quel controllo totale che credeva di avere sulle proprie facolt\u00e0 era illusorio, si trova in realt\u00e0 sottomesso a spinte inconsce che influiscono su decisioni e comportamenti. Ognuno di questi passaggi ha comportato non solo trasformazioni sul modo di comprendere la realt\u00e0 fisica, biologica o psichica, ma anche una nuova comprensione di se stesso o, come dicono i filosofi, una nuova auto-comprensione. Anche la storia della tecnica ha conosciuto vere e proprie rivoluzioni. Pensiamo al campo dell\u2019energia: con la macchina a vapore e poi con l\u2019elettricit\u00e0 si sono prodotti profondi cambiamenti nel modo di vivere e di lavorare dell\u2019intera umanit\u00e0. Ognuna di queste rivoluzioni ci ha sollecitato a ripensare il concetto stesso di unicit\u00e0 dell\u2019essere umano con nuove categorie.<\/p>\n<p>Anche delle tecnologie dell\u2019informazione (ICT) \u2013 come per altre tecnologie che permettono di svolgere tutte le funzioni e non solo alcuni specifici compiti (<em>general purpose<\/em>) \u2013 si deve dire che non sono solo strumenti; esse sono anche forze ambientali che, data la loro pervasivit\u00e0, fanno ormai parte del nostro mondo. Tenendo poi conto della loro stretta connessione con quelle che vengono definite \u201ctecnologie emergenti e convergenti\u201d(NBIC) \u2013 che includono: nanotecnologie, biotecnologie e scienze cognitive \u2013 risulta pi\u00f9 evidente il loro impatto. L\u2019esito complessivo \u00e8 che esse inducono profonde trasformazioni. A livello di percezione diffusa, ne possiamo evidenziare quattro principali: a) la crescente difficolt\u00e0 a distinguere tra ambiti reali e ambiti virtuali; \u00a0b) lo sfumarsi dei confini tra quanto \u00e8 umano, quanto \u00e8 meccanico (o artefatto) e quanto \u00e8 naturale; c) il passaggio da una situazione di scarsit\u00e0 di informazione a una disponibilit\u00e0 crescente, (sovr)abbondante di dati; \u00a0d) lo slittamento da una priorit\u00e0 attribuita alla sussistenza isolata delle cose e alle relazioni binarie, verso la maggiore rilevanza conferita alle interazioni, ai processi e alle reti (L. Floridi, <em>Manitesto on life<\/em>). Quindi possiamo osservare come questa nuova situazione metta in questione la nostra concezione di noi stessi (chi siamo); le nostre reciproche relazioni (come socializziamo); la nostra concezione della realt\u00e0 (la nostra metafisica); le interazioni che abbiamo con la realt\u00e0 (la nostra capacit\u00e0 di agire o <em>agency<\/em>).<\/p>\n<p>La comprensione di noi stessi che va affermandosi pone l\u2019accento sulla centralit\u00e0 dell\u2019informazione: l\u2019essere umano \u00e8 un \u201corganismo informazionale\u201d (<em>inforg<\/em>), reciprocamente connesso con altri organismi simili e parte di un ambiente informazionale (l\u2019infosfera), che condividiamo con altri agenti, naturali e artificiali, che processano informazioni in modo logico e autonomo. Nella realt\u00e0 \u201ciperconnessa\u201d in cui siamo immersi non ha pi\u00f9 neanche senso porre la domanda se si \u00e8 <em>online<\/em> o <em>offline<\/em>, perch\u00e9 attraverso la molteplicit\u00e0 di dispositivi con cui interagiamo e che interagiscono tra loro, spesso a nostra insaputa, sarebbe pi\u00f9 corretto dire che siamo <em>onlife<\/em>: un neologismo che alcuni pensatori usano per dire l\u2019inestricabile intreccio tra vita umana e universo digitale.<\/p>\n<p><em>Quale etica?<\/em><\/p>\n<p>All\u2019interno di questo scenario, che mette in questione coordinate antropologiche fondamentali, siamo sollecitati ad andare oltre un\u2019etica che consideri gli atti umani avulsi dai contesti e dai soggetti agenti, isolandoli dal piano relazionale e sociale. \u00c8 un percorso che la teologia (morale) ha intrapreso con decisione fin dalla stagione conciliare del Vaticano II, ma che la congiuntura attuale ci sollecita ad approfondire ulteriormente, anche per poter partecipare in modo pi\u00f9 adeguato al dibattito pubblico su questi temi. Si tratta di non limitare la nostra attenzione alla sola punta dell\u2019<em>iceberg<\/em>, ma di prendere in considerazione per quanto possibile anche la base dell\u2019<em>iceberg<\/em>e, ancora pi\u00f9 ampiamente, l\u2019oceano in cui galleggia. In questa luce, metto in evidenza due ambiti che ritengo cruciali.<\/p>\n<p>Il primo ambito \u00e8 quello del linguaggio. L\u2019etica non pu\u00f2 importare con disinvoltura nel proprio discorso termini che veicolano nozioni che distorcono la realt\u00e0. La stessa terminologia dell\u2019\u201cintelligenza artificiale\u201d \u00e8 pericolosamente equivoca: anche se non facile da correggere, occorre tuttavia almeno esercitare un controllo critico, che \u00e8 una delle forme del discernimento. Il papa ce lo ha detto nel discorso tenuto all\u2019ultima Assemblea generale della PAV sulla roboetica: \u201cla denominazione \u201cintelligenza artificiale\u201d, pur certamente di effetto, pu\u00f2 rischiare di essere fuorviante. I termini occultano il fatto che \u2013 a dispetto dell\u2019utile assolvimento di compiti servili (\u00e8 il significato originario del termine \u201crobot\u201d) \u2013, gli automatismi funzionali rimangono qualitativamente distanti dalle prerogative umane del sapere e dell\u2019agire. E pertanto possono diventare socialmente pericolosi. \u00c8 del resto gi\u00e0 reale il rischio che l\u2019uomo venga tecnologizzato, invece che la tecnica umanizzata: a cosiddette \u201cmacchine intelligenti\u201d vengono frettolosamente attribuite capacit\u00e0 che sono propriamente umane. Dobbiamo comprendere meglio che cosa significano, in questo contesto, l\u2019intelligenza, la coscienza, l\u2019emotivit\u00e0, l\u2019intenzionalit\u00e0 affettiva e l\u2019autonomia dell\u2019agire morale. I dispositivi artificiali che simulano capacit\u00e0 umane, in realt\u00e0, sono privi di qualit\u00e0 umana. Occorre tenerne conto per orientare la regolamentazione del loro impiego, e la ricerca stessa, verso una interazione costruttiva ed equa tra gli esseri umani e le pi\u00f9 recenti versioni di macchine\u201d (Francesco, <em>Discorso all\u2019Assemblea Generale PAV<\/em>, 25 febbraio 2019). In effetti questi dispositivi computazionali sono privi di corpo; sono fondamentalmente delle macchine calcolatrici che si limitano a elaborare flussi informativi astratti. E anche nel caso in cui siano munite di sensori, lavorano riducendo certi aspetti del reale a codici binari, escludendo un\u2019infinit\u00e0 di dimensioni che invece la nostra sensibilit\u00e0 coglie e che sfuggono ai principi di una modellizzazione matematica. Quindi questo linguaggio amputa e distorce ci\u00f2 che \u00e8 presupposto al processo dell\u2019intelligenza, il quale \u00e8 inseparabile dalla sua tensione all\u2019apprendimento multisensoriale e non sistematizzabile dell\u2019ambiente esterno: \u201cPer dirla semplicemente, cervello e corpo sono nella stessa barca e insieme rendono possibile la mente\u201d<a href=\"#_ftn1\" name=\"_ftnref1\">[1]<\/a>.<\/p>\n<p>Un secondo ambito riguarda la riflessione sugli effetti che le nuove tecnologie nel loro complesso esercitano sull\u2019ethos condiviso. Non \u00e8 sufficiente quindi prescrivere una maggiore educazione per un uso corretto degli strumenti disponibili, proprio perch\u00e9 abbiamo visto che sono molto pi\u00f9 che strumenti: essi plasmano il mondo e le coscienze. Occorre assumere responsabilmente questo tema, che riguarda l\u2019educazione umana alle qualit\u00e0 non tecniche della coscienza e l\u2019amore per il bene della comunit\u00e0 anche quando non se ne ricava un vantaggio. Esiste, dunque, una questione politica relativa al potere di legittimazione comunitaria dell\u2019ethos dell\u2019\u201cIA\u201d che non va confuso con il potere di distribuzione dei suoi vantaggi individuali e astrattamente funzionali. In altri termini: non basta semplicemente ragionare sulla sensibilit\u00e0 morale di chi fa ricerca e progetta dispositivi e algoritmi, e affidarci ad essa; occorre invece lavorare per creare corpi sociali intermedi che assicurano rappresentanza alla sensibilit\u00e0 etica degli utilizzatori, in tutte le fasi del processo. Si tratta infatti di evitare, al tempo stesso, di assegnare un ruolo dogmatico e dirigistico da una parte alla gestione politica e dall\u2019altra al liberismo tecnocratico. Rimane aperta naturalmente la ricerca di come realizzare questi obiettivi (su cui dir\u00f2 qualcosa tra poco a proposito di quanto la PAV ha avviato). Non \u00e8 saggio quindi lasciarsi sedurre dallo svolgimento pi\u00f9 preciso o pi\u00f9 efficiente o meno costoso di alcuni compiti, concentrandosi sulla singola prestazione senza mettere bene a fuoco gli effetti complessivi che si producono.<\/p>\n<p><em>Per quale tecnologia? <\/em><\/p>\n<p>Quindi, come nel momento analitico occorre favorire uno sguardo ampio, cos\u00ec sul piano etico non \u00e8 sufficiente circoscrivere l\u2019attenzione al controllo dei singoli dispositivi, collegandolo in modo astratto e generico al rispetto dei diritti soggettivi, della dignit\u00e0 e di quei principi che la dottrina sociale della Chiesa ci mette molto opportunamente a disposizione. Certamente dignit\u00e0, giustizia, sussidiariet\u00e0, solidariet\u00e0 sono punti di riferimento irrinunciabili, ma la complessit\u00e0 del mondo tecnologico contemporaneo ci chiede di elaborarne una interpretazione che possa renderli effettivamente incisivi. Abbiamo visto che il nuovo livello dell\u2019intermediazione tecnologica cosiddetta \u201cintelligente\u201d taglia fuori la valutazione del singolo circa la dignit\u00e0 del suo uso. In questa fase, appare ormai chiaro che \u201cl\u2019umano\u201d \u00e8 condizionato in modo tale da \u201cassecondare\u201d il dispositivo AI, molto pi\u00f9 del contrario: \u00e8 il dispositivo stesso a plasmare l\u2019utente come \u201cdegno\u201d e \u201clibero\u201d di farne uso. Il feed-back caratteristico dell\u2019AI \u00e8 appunto l\u2019alimentazione e la sofisticazione di questo meccanismo selettivo di conformit\u00e0 sociale al dispositivo. Si mantiene cos\u00ec un circuito che, con lo scopo di condizionare e dirigere i comportamenti, trae vantaggio proprio dall\u2019inconsapevole assoggettamento dell\u2019utente che lo alimenta, che diventa succube di una vera e propria \u201calgocrazia\u201d (dominio dell\u2019algoritmo). \u00c8 una problematica pone un nuovo paradigma, per l\u2019inquadramento della eticit\u00e0 praticabile in questo campo.<\/p>\n<p>Il compito che si profila \u00e8 di individuare un modello di monitoraggio inter-disciplinare per la ricerca condivisa di un\u2019etica a proposito dell\u2019intero percorso in cui intervengono le diverse competenze nell\u2019elaborazione degli apparati tecnologici (ricerca, progettazione, produzione, distribuzione, utilizzo individuale e collettivo). Mediazione ormai indispensabile, vista la capacit\u00e0 della strumentazione AI di determinare vere e proprie forme di controllo e orientamento delle abitudini mentali e relazionali, e non solo di potenziamento delle funzioni cognitive e operative. Si tratta di elaborare un modello condiviso che consenta di esaminare dai diversi punti di vista le ricadute prevedibili dei singoli momenti del percorso. L\u2019obiettivo \u00e8 quello di assicurare una verifica competente e condivisa dei processi secondo cui si integrano i rapporti tra gli esseri umani e le macchine nella nuova era aperta dalla IA. \u00c8 questo un compito che richiede disponibilit\u00e0 al dialogo e alla collaborazione. Non mancano segni di attenzione e di impegno su questo fronte. Un esempio che vorrei citare \u00e8 quello di \u201cingegneri senza frontiere\u201d, che hanno proposto un manifesto perch\u00e9 gli ingegneri (che hanno in queste attivit\u00e0 un ruolo strategico) assumano responsabilit\u00e0 anche per le dimensioni sociali del loro lavoro. Essi hanno cos\u00ec elaborato proposte concrete fin dal curriculum universitario, sostenendo la formazione al pensiero critico, che renda capaci di riconoscere la non neutralit\u00e0 della tecnologia, la sua rilevanza politica e l\u2019esigenza del dialogo pluralista e interdisciplinare su questi temi (cfr sito: <a href=\"https:\/\/www.isf-france.org\/node\/1211\">https:\/\/www.isf-france.org\/node\/1211<\/a>).<\/p>\n<p>\u00c8 in questa linea che la PAV ha raccolto la sollecitazione di alcuni importanti operatori nel campo delle tecnologie digitali (fra cui Microsoft e IBM) per approfondire la comprensione delle trasformazioni in atto e per poter assumere le corrispondenti responsabilit\u00e0. Stiamo elaborando una <em>Call for Ethics<\/em> che conduca a un valutazione critica degli effetti di queste tecnologie, dei rischi che comportano, di possibili vie di regolamentazione, anche sul piano educativo. Si tratta di esaminare tutto il percorso di elaborazione, che parte dalla ricerca e dalla progettazione, fino all\u2019uso che ne possono fare le istituzioni o singoli utenti.<\/p>\n<p>L\u2019obiettivo \u00e8 di garantire un effettivo esercizio della libert\u00e0 e riconoscimento della dignit\u00e0, anche nelle situazioni concrete. Questo non sar\u00e0 possibile se non ci sono valide alternative per chi decide di non usare certi dispositivi di assistenza perch\u00e9 non li considera consoni alla propria concezione della persona e delle relazioni umane. Cos\u00ec come la libert\u00e0 viene impedita se non potr\u00f2 scegliere una badanteche mi curi, anche rinunciando a qualche efficienza, in cambio di umanit\u00e0, perch\u00e9 la ASL mi fornir\u00e0 obbligatoriamente robottini da prendere-o-lasciare. Analogamente potremmo argomentare riguardo ai <em>big data<\/em>: occorre garantire a tutti una qualche modalit\u00e0 praticabile di accesso ai <em>big data <\/em>pi\u00f9 o meno analoga a quella che oggi consente anche ai nonni di accedere a Internet per avere una loro informazione e interazione. Il rischio \u00e8 che con lo sviluppo di IA, l\u2019accesso e l\u2019elaborazione diventino selettivamente riservate alle grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica. In altri termini, \u00e8 in gioco l\u2019equit\u00e0 nella ricerca di informazioni o nel mantenere i contatti con gli altri, se la sofisticazione dei servizi sar\u00e0 automaticamente sottratta a chi non appartiene a gruppi privilegiati o non dispone di particolari competenze.<\/p>\n<p>Considerando poi la famiglia umana nel suo complesso, dobbiamo considerare come possono essere rispettate le differenze tra comunit\u00e0. Occorre evitare che l\u2019IA ne tenga conto solo in funzione dell\u2019affinamento dei suoi dispositivi regolativi, ma insistere perch\u00e9 sia garantito lo spazio di intervento perch\u00e9 il soggetto comunitario possa determinare gli effetti collettivi di un\u2019automazione sofisticata e auto-gestita dei prodotti, delle funzioni, dei servizi. Certo \u201cdi diritto\u201d \u00e8 giusto proclamare l\u2019uguaglianza, la razionalit\u00e0, la coscienza, la libert\u00e0, come dimensioni paritetiche e universali della dignit\u00e0 e della legalit\u00e0, che riguardano ogni singolo senza distinzioni. \u201cDi fatto\u201d per\u00f2, le diversit\u00e0 non sono accessori dell\u2019umano, sono pur sempre componenti della sua esistenza reale. Ci sono diversit\u00e0 indesiderabili (<em>deficit<\/em> intellettivi, deprivazioni sociali, vuoti educativi, vulnerabilit\u00e0 sistemiche). Ma ci sono diversit\u00e0 delle quali viviamo (la nostra rete famigliare, la nostra dedizione religiosa, il nostro lavoro, il nostro ruolo, il nostro <em>habitat<\/em>). Confondere queste diversit\u00e0 \u00e8 sbagliato, n\u00e9 pu\u00f2 essere ignorata la distinzione tra quanto \u00e8 svantaggioso per la vita e quanto \u00e8 invece proprio della condizione umana. Tale possibile confusione espone il discorso etico, giuridico, politico a una pericolosa astrattezza. Va favorito l\u2019impegno a costruire modi di vita che non puntino all\u2019eliminazione di ogni vulnerabilit\u00e0, con l\u2019intento immaginario di liberarci dalle nostre affezioni a vantaggio di un\u2019organizzazione ideale delle cose, inseguendo una forma di perfezione tanto compiuta quanto illusoria. \u00c8 invece importante garantire lo spazio per il riconoscimento e l\u2019assunzione riconciliata con la fondamentale finitudine (e imperfezione)propria dell\u2019esistenza, celebrando al contempo la diversit\u00e0 degli individui, l\u2019autonomia responsabile della volont\u00e0, la nostra capacit\u00e0 di apprendimento multisensoriale della realt\u00e0, ed edificando modalit\u00e0 di stare insieme nel reciproco riconoscimento.<\/p>\n<p>In questa linea potremo parlare di autentico sviluppo, che comporta una qualificazione ben precisa del progresso \u2013 come ha detto molto bene ieri al Gemelli Mons. Edgar Pe\u00f1a\u00a0Parra, al convegno sull\u2019IA in sanit\u00e0: \u201cFare scelte etiche oggi significa cercare di trasformare il progresso in sviluppo. Significa [cio\u00e8] indirizzare la tecnologia verso e per lo sviluppo e non semplicemente cercare un progresso fine a se stesso [peraltro inattuabile]. Sebbene non sia possibile pensare e realizzare la tecnologia senza delle forme di razionalit\u00e0 specifiche (il pensiero tecnico e scientifico), porre al centro dell\u2019interesse lo sviluppo significa dire che il pensiero tecnico-scientifico non basta a se stesso. Servono diversi approcci complementari. Servono diverse discipline\u201d<a href=\"#_ftn2\" name=\"_ftnref2\">[2]<\/a>. \u00c8 a questo sviluppo umano integrale che dobbiamo insieme puntare.<\/p>\n<p><a href=\"#_ftnref1\" name=\"_ftn1\">[1]<\/a> Antonio Damasio, Lo strano ordine delle cose, trad. it. di Silvio Ferraresi, Adelphi, Milano 2018, p. 274.<\/p>\n<p><a href=\"#_ftnref2\" name=\"_ftn2\">[2]<\/a> Frasi precedenti: Lo sviluppo umano \u00e8 da intendersi [\u2026] come un fine e non come un mezzo che caratterizza il progresso definendo delle priorit\u00e0 e dei criteri. Parlare di sviluppo significa, quindi, non mettere la capacit\u00e0 tecnica al centro dell\u2019attenzione bens\u00ec tenere l\u2019uomo al centro della riflessione e come fine che qualifica il progresso\u201d. Frasi successive: \u201cServe anche il contributo di quello che si chiamano, in inglese, le <em>humanities<\/em>. La tecnologia ci spinge a decisioni urgenti. L\u2019etica ci impone di pretendere e realizzare lo sviluppo umano integrale\u201d.<\/p>\n<p><strong>Ospedale Bambino Ges\u00f9<\/strong><br \/>\n<strong>12 dicembre 2019<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il tema che mi avete chiesto di affrontare pone una domanda enorme e centrale nella nostra epoca. Siamo infatti in un tempo di rivoluzione tecnica permanente. Se la esaminiamo in modo complessivo, vediamo che coinvolge e trasforma (o sovverte) tutte le dimensioni dell\u2019esistenza umana e delle relazioni sociali. Jacques Ellul, che gi\u00e0 nel 1954 identific\u00f2 [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":25483,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[3,8],"tags":[],"class_list":["post-25482","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-interventi","category-news"],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/www.vincenzopaglia.it\/wp-content\/uploads\/2019\/12\/Ingresso-San-Paolo-OPBG_RID-e1576151918949.jpg?fit=500%2C372&ssl=1","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p5mkxU-6D0","_links":{"self":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts\/25482","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/comments?post=25482"}],"version-history":[{"count":1,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts\/25482\/revisions"}],"predecessor-version":[{"id":25484,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts\/25482\/revisions\/25484"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/media\/25483"}],"wp:attachment":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/media?parent=25482"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/categories?post=25482"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/tags?post=25482"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}