{"id":27247,"date":"2023-03-16T12:50:51","date_gmt":"2023-03-16T11:50:51","guid":{"rendered":"https:\/\/www.vincenzopaglia.it\/?p=27247"},"modified":"2023-03-16T12:56:41","modified_gmt":"2023-03-16T11:56:41","slug":"intelligenza-artificiale-una-sfida-per-linformazione","status":"publish","type":"post","link":"https:\/\/www.vincenzopaglia.it\/index.php\/intelligenza-artificiale-una-sfida-per-linformazione.html","title":{"rendered":"Intelligenza artificiale: una sfida per l\u2019informazione"},"content":{"rendered":"<p>Care amiche e cari amici,<\/p>\n<p>dedicare una giornata di studio e di formazione professionale per giornalisti a un tema come l\u2019intelligenza artificiale \u00e8 un ottimo segnale. Ci troviamo in un campo nel quale le cose si stanno muovendo con grande velocit\u00e0 e voi, che date forma e sostanza all\u2019informazione, avete il diritto e il dovere di conoscere tutti gli aspetti che riguardano questo tema, per poterli condividere con la societ\u00e0 e rendere partecipe il pubblico del cambiamento radicale che sta accadendo attorno a noi.<\/p>\n<p>Tre anni fa, nel discorso ai partecipanti all\u2019assemblea plenaria della Pontificia Accademia per la Vita, il Papa Francesco ci disse: \u201cla galassia digitale, e in particolare la cosiddetta intelligenza artificiale, si trova proprio al cuore del cambiamento d\u2019epoca che stiamo attraversando\u201d. Le sue parole, all\u2019epoca, erano dedicate a salutare la prima sottoscrizione della <em>Rome Call for AI Ethics<\/em>, una iniziativa della Pontificia Accademia &#8211; di cui a breve vi parler\u00f2 \u2013 e servivano per dare un primo contorno a una situazione assai complessa.<\/p>\n<p>Permettetemi di iniziare questa mia breve comunicazione con due ricordi personali, legati alla vita della Pontificia Accademia per la Vita. In una riflessione con feci con un amico, anziano magistrato e politico della sinistra italiano, affrontammo il tema delle nuove tecnologie e il loro rapporto con la vita umana. Mi consigli\u00f2 di visitare l\u2019Istituto di Ricerca Scientifica di Genova. Fui sbalordito nel visitare l\u2019Istituto e i diversi ambiti di ricerca, compresi quelli relativi alla medina, alla robotica, e cos\u00ec oltre. Era guidato dal dott. Roberto Cingolani. Tornato a Roma, decisi che un ingegnere robotico dioveve afr parte dei membri dell\u2019Accademia. E scelsi proprio Cingolani. Al momento della decisione, due cardinali, vedendo il titolo di \u201cingegnere robotico\u201d, mi dissero: \u201cMa cosa c\u2019entra la robotica con la vita? Il Papa lo nomin\u00f2. E organizzammo una prima Assemblea Generale sulla robotica (vi porto un volume degli Atti), ove invitai un famoso scienziato giapponese, Hishiguro, che si era costruito un clone-robot che a volte mandava in sua vece a qualche convegno. Ci\u00f2 che stup\u00ec i partecipanti al Convegno fu la sua affermazione: \u201cNoi siamo l\u2019ultima generazione organica. La prossima sar\u00e0 al litio\u201d. Tale affermazione, per noi inimmaginabile, per la filosofia scintoista \u2013 che vede l\u2019anima anche nella materia e nelle cose \u2013 \u00e8 comprensibile. Ma, ci chiediamo: dov\u2019\u00e8 l\u2019umano?<\/p>\n<p>Il secondo ricordo segue il Congresso. Alcuni mesi dopo ricevo la telefonata del nuovo presidente di Microsoft, Bred Smith, il quale mi chiede se ho una mezz\u2019ora per riceverlo. Aveva avuto gli echi del Congresso. Quando ci vediamo, in sintesi, mi dice: \u201cNel centro Microsoft di Seattle, siamo cinquantamila ingegneri. E solo ingegneri. Per restare sul mercato siamo costretti ogni settimana a produrre nuove realizzazioni. Possiamo creare artefatti straordinari per lo sviluppo umano, ma anche terribili interventi distruttivi. Tra noi non c\u2019\u00e8 un moralista, un bioeticista, un filosofo, un teologo. Ecco, lei \u00e8 disposto ad accompagnarci nel nostro quotidiano per metterci sull\u2019avviso del \u201climite\u201d insuperabile dell\u2019umano? Non voglio un convegno una volta tanto, ma un accompagnamento continuativo\u201d. E\u2019 di qui che \u00e8 nata la Rome call for IA ethics di cui vi parler\u00f2 tra poco.<\/p>\n<p>Vengo al tema sulla intelligenza artificiale. L\u2019Unione Europea definisce l\u2019intelligenza artificiale (AI) come l\u2019abilit\u00e0 di una macchina di mostrare capacit\u00e0 umane quali il ragionamento, l\u2019apprendimento, la pianificazione e la creativit\u00e0. L\u2019AI permette quindi ad un manufatto tecnologico di comprendere il proprio ambiente, di mettersi in relazione con ci\u00f2 che percepisce e di risolvere problemi, e soprattutto di agire verso un obiettivo specifico. Il meccanismo sembra semplice e consiste nell\u2019immettere nel computer i dati (gi\u00e0 predisposti oppure raccolti tramite sensori specifici, come una videocamera). Il computer li processa e fornisce una risposta. Il fulcro del dibattito che investe l\u2019intelligenza artificiale \u2013 ossia ci\u00f2 che rende questa specifica tecnologia unica ed enormemente potente \u2013 \u00e8 la sua capacit\u00e0 di agire da sola: l\u2019AI adatta il proprio comportamento a seconda della situazione, analizza gli effetti delle proprie azioni precedenti e lavora <em>in autonomia<\/em>. I progressi nella potenza dei computer, la disponibilit\u00e0 di enormi quantit\u00e0 di dati e lo sviluppo di nuovi algoritmi, hanno portato l\u2019intelligenza artificiale, negli ultimi anni, a compiere balzi in avanti di dimensioni epocali.<\/p>\n<p>Ma attenzione. I rischi sono molti e di diversa natura. Vorrei anzitutto fare una osservazione preliminare che riguarda la stessa dizione \u201cintelligenza artificiale\u201d: \u00e8 certamente di effetto, ma rischia di essere fuorviante se non si tiene conto del valore dei due termini. Essi infatti, messi l\u2019uno di seguito all\u2019altro, nascondono il fatto che \u2013 a dispetto dell\u2019utile assolvimento di compiti servili (\u00e8 il significato originario del termine \u201crobot\u201d) \u2013, gli automatismi funzionali rimangono qualitativamente distanti dalle prerogative umane del sapere e dell\u2019agire. Dobbiamo comprendere meglio che cosa significano, in questo contesto, l\u2019intelligenza, la coscienza, l\u2019emotivit\u00e0, l\u2019intenzionalit\u00e0 affettiva e l\u2019autonomia dell\u2019agire morale. I dispositivi artificiali che simulano capacit\u00e0 umane, in realt\u00e0, sono privi di qualit\u00e0 umana.<\/p>\n<p>Una seconda osservazione riguarda la pervasivit\u00e0 dell\u2019influenza della Intelligenza artificiale, di cui pochi sono totalmente consapevoli. Viene infatti utilizzata giornalmente nella pubblicit\u00e0 e nello shopping in rete, per fornire suggerimenti basati, ad esempio, su acquisti precedenti, su ricerche e su altri comportamenti registrati online; nella traduzione automatica; nello sviluppo di veicoli a guida autonoma; nella cybersicurezza, per riconoscere tendenze nel continuo flusso di dati; nell\u2019individuazione di fake news e disinformazione, per individuare parole o espressioni sospette; e ancora nei trasporti, nelle fabbriche, nella filiera agricola e alimentare, nell\u2019amministrazione pubblica e nei servizi.<\/p>\n<p>In tale orizzonte \u00e8 bene leggere il volume di Susanna Zuboff, Il capitalismo della sorveglianza, nel quale l\u2019autrice mostra il potere enorme sulle nostre vite di coloro che detengono i dati raccolti ed elaborati attraverso l\u2019intelligenza artificiale sulla vita di ciascuno di noi. \u201cIl capitalismo della sorveglianza opera sfruttando un\u2019asimmetria senza precedenti della conoscenza e del suo potere. I capitalisti della sorveglianza sanno tutto <em>di noi<\/em>, mentre <em>per noi<\/em> \u00e8 impossibile sapere quello che fanno. Accumulano un\u2019infinit\u00e0 di dati e di conoscenze <em>da noi<\/em>, ma non <em>per noi<\/em>. Predicono il nostro futuro perch\u00e9 qualcun altro ci guadagni, ma non noi. Finch\u00e9 il capitalismo della sorveglianza e il suo mercato dei comportamenti futuri potranno prosperare, la propriet\u00e0 dei nuovi mezzi di modifica dei comportamenti eclisser\u00e0 i mezzi di produzione come fonte della ricchezza e del potere nel XXI secolo\u201d(p.21). Come il capitalismo industriale era spinto dalla continua crescita dei mezzi di produzione, cos\u00ec il capitalismo della sorveglianza e i suoi operatori di mercato sono costretti ad accrescere continuamente i mezzi per la modifica dei comportamenti e il potere strumentalizzante. Non vado oltre, ma gi\u00e0 questi brevi cenni indicano la delicatezza del tema.<\/p>\n<p>Gli utilizzi che ho appena menzionati sono gi\u00e0 reali e attivi in molte parti del pianeta. Esistono poi abilit\u00e0 di frontiera che attirano l\u2019interesse dei giornali: penso alla creazione di opere d\u2019arte, alla vittoria del computer sull\u2019uomo nel gioco degli scacchi, alla scrittura di una sceneggiatura teatrale. Questi sono esempi realmente accaduti \u2013 e nell\u2019ultimo periodo molti di voi hanno parlato del protagonista pi\u00f9 recente delle luci della ribalta, ovvero di quella forma avanzatissima di intelligenza artificiale che rientra nella galassia di Open AI.<\/p>\n<p>Ecco, io credo che sia necessario accogliere tutto ci\u00f2 con la dovuta criticit\u00e0, per evitare i due eccessi o di condanna o di esaltazione. Ad esempio, parlando di questi nuovi dispositivi impieghiamo, senza rendercene tanto conto, termini che normalmente vengono riferiti a esseri umani: si parla di robot che hanno esperienze percettive o cognitive, intelligenze collettive condivise nel <em>cloud<\/em>, capacit\u00e0 di prendere decisioni. In realt\u00e0 la questione dirimente \u00e8 che questi dispositivi non hanno il corpo. Sono macchine che possono elaborare flussi astratti di dati. Ma solo macchine. Il fatto che noi percepiamo comportamenti o effetti di processi dotati di automazione, ci induce a trascurare che le macchine vi giungono attraverso processi molto diversi. Essi sono una imitazione delle apparenze. Quando, nel 2011, la Apple ha immesso sul mercato Siri, lo ha presentato come un \u00abassistente intelligente che ti aiuta a fare le cose semplicemente chiedendo\u00bb: ci abbiamo creduto, senza sapere come funziona, semplicemente perch\u00e9 funziona e risponde al nostro comando \u00abEhi Siri\u00bb. La creazione delle chat-bot, che oltre a eseguire molteplici funzioni, sono in grado di stabilire una sorta di conversazione personalizzata, con il singolo utente, ha accelerato il convincimento che si sia di fronte realmente a una qualche forma di intelligenza.<\/p>\n<p>Le nuove tecnologie, infatti, sviluppano in modo esponenziale le dimensioni simulative delle attivit\u00e0 umane, dandoci l\u2019idea di ottenere un servizio personalizzato, sebbene siano macchine collettive che \u201capprendono\u201d ed elaborano miliardi di dati attraverso un\u2019analisi statistica in grado di generare, sotto la supervisione dei tecnici, mappe linguistiche sempre pi\u00f9 sofisticate. Il linguaggio antropomorfo con cui siamo abituati a descrivere questi processi logico-formali, a struttura statistica, rischia di farci dimenticare che, in realt\u00e0, domandare, ascoltare, capire, rispondere, obbedire, sono esperienze molto complesse che poco hanno a che fare con le operazioni attuate dalle nuove tecnologie. In realt\u00e0, le macchine non ci parlano, non ci ascoltano, non ci rispondono, semplicemente perch\u00e9 non sanno nemmeno che esistiamo e non capiscono che cosa ci stanno dicendo. A nessuno di noi verrebbe in mente di affermare che il semaforo rosso ci dice di fermarci o che il suono della sveglia ci dice che \u00e8 ora di alzarci. Ma la simulazione della voce umana, la rimodulazione di segnali sonori che noi comprendiamo alla stregua di un dialogo, ha trasformato in modo radicale il nostro rapporto con i nuovi artefatti tecnologici e ha dilatato l\u2019aspetto fiduciario nei confronti dei dati e dei risultati che ci forniscono.<\/p>\n<p>Le macchine, per semplificare al massimo, mettono insieme una sequenza di segni alfabetici che per noi sono per\u00f2 \u201cparole\u201d dense di significato e infatti siamo in grado di valutare se le risposte sono vere o false: per i sistemi tecnologici, questi termini sono per\u00f2 insensati, perch\u00e9 il loro risultato \u00e8 semplicemente esatto rispetto alla coerenza formale con cui sono stati elaborati i dati acquisiti. Per questo le macchine non mentono e non sbagliano, perch\u00e9 non sanno e non scelgono: eseguono i diversi percorsi resi possibili dai loro programmatori. Ma per esse vale sempre l\u2019antico adagio: se ai software si forniscono dati spazzatura, si ottengono risultati spazzatura. Pensare di accedere alla verit\u00e0 attraverso processi logico-formali \u00e8, non dimentichiamolo, il grande sogno di una parte della filosofia, che affonda le radici nella costruzione dei modelli sillogistici. Ma tradurre il linguaggio in segni univoci, formule, numeri da assemblare, per quanto utilissimo in molti contesti del sapere, ci priva della comprensione delle sfumature della realt\u00e0 e della nostra esperienza, che sono il fondamento delle domande di senso dell\u2019esistere.<\/p>\n<p>Lascio ad altri il compito di descrivere quello scenario, e passo a raccontarvi cosa abbiamo pensato e fatto noi della PAV. Ci siamo chiesti: lo sviluppo sfrenato della tecnologia pu\u00f2 permettersi di perdere di vista la dimensione umana? \u00c8 possibile, in nome del mero tornaconto, dimenticare la dignit\u00e0 umana? E ci siamo risposti: no, questo non deve accadere. \u00c8 questa la ragione per cui la Pontificia Accademia per la Vita, nel 2020, ha organizzato il convegno \u201cRenAIssance. Per un&#8217;Intelligenza Artificiale umanistica\u201d, e ha promosso congiuntamente, il 28 febbraio dello stesso anno, a Roma, la firma di un appello di responsabilit\u00e0.<\/p>\n<p>Questo appello prende il nome di <em>Rome Call for AI Ethics<\/em>, ed \u00e8 stato sottoscritto in prima battuta da me, come presidente della Pontificia Accademia; da Brad Smith, presidente di Microsoft; da John Kelly III, vicedirettore esecutivo di IBM; da Qu Dongyu, direttore generale della Fao; e dall\u2019allora Ministro per l&#8217;innovazione tecnologica e la digitalizzazione Paola Pisano per il governo italiano. Abbiamo all\u2019epoca potuto contare anche sulla presenza e il plauso dell\u2019allora presidente del Parlamento Europeo, David Sassoli.<\/p>\n<p>L\u2019idea alla base della Rome Call nasce dalla consapevolezza che le nuove tecnologie, per quanto potenti, non possono essere considerate solo strumenti per svolgere alcune funzioni in modo pi\u00f9 rapido ed efficiente. Per orientare le sfide dell&#8217;AI verso il rispetto della dignit\u00e0 di ogni essere umano, la <em>Rome Call<\/em> propone un\u2019<em>algoretica<\/em>, ossia un\u2019etica degli algoritmi, capace di agire non come strumento di contenimento bens\u00ec come indirizzo e guida. Dice il Papa a proposito dell\u2019<em>algoretica<\/em>: essa \u201cintende assicurare una verifica competente e condivisa dei processi secondo cui si integrano i rapporti tra gli esseri umani e le macchine nella nostra era. Nella comune ricerca di questi obiettivi, i principi della Dottrina Sociale della Chiesa offrono un contributo decisivo: dignit\u00e0 della persona, giustizia, sussidiariet\u00e0 e solidariet\u00e0. Essi esprimono l\u2019impegno di mettersi al servizio di ogni persona nella sua integralit\u00e0 e di tutte le persone, senza discriminazioni n\u00e9 esclusioni. Ma la complessit\u00e0 del mondo tecnologico ci chiede una elaborazione etica pi\u00f9 articolata, per rendere questo impegno realmente incisivo\u201d.<\/p>\n<p>Destinatari sono la societ\u00e0 tutta, le organizzazioni, i governi, le istituzioni, le <em>tech companies<\/em> internazionali: ognuno \u00e8 necessario per condividere un senso di responsabilit\u00e0 che garantisca all\u2019umanit\u00e0 tutta un futuro nel quale l\u2019innovazione digitale e il progresso tecnologico mettono al centro l\u2019essere umano.<\/p>\n<p>Puntando a una nuova algoretica e condividendone i valori, i firmatari si impegnano a richiedere lo sviluppo di un\u2019intelligenza artificiale che non abbia come mero scopo la realizzazione di maggiori profitti o la graduale sostituzione dell\u2019uomo in ambito lavorativo; chi firma si impegna altres\u00ec a seguire sei principi fondamentali. Il primo \u00e8 la <em>Trasparenza<\/em>: in linea di principio i sistemi di intelligenza artificiale devono essere comprensibili; <em>Inclusione<\/em>: devono essere prese in considerazione le esigenze di tutti gli esseri umani in modo che tutti possano beneficiare e che a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi; <em>Responsabilit\u00e0<\/em>: coloro che progettano e implementano soluzioni di intelligenza artificiale devono procedere con responsabilit\u00e0 e trasparenza; <em>Imparzialit\u00e0<\/em>: non creare o agire secondo il pregiudizio, salvaguardando cos\u00ec l&#8217;equit\u00e0 e la dignit\u00e0 umana; <em>Affidabilit\u00e0<\/em>: i sistemi di Intelligenza Artificiale devono essere in grado di funzionare in modo affidabile; <em>Sicurezza e privacy<\/em>: i sistemi di Intelligenza Artificiale devono funzionare in modo sicuro e rispettare la privacy degli utenti.<\/p>\n<p>La prima firma della Rome Call, nel 2020, \u00e8 stata un atto storico, ma anche un inizio. All\u2019appello hanno partecipato partner istituzionali, come portatori di valore; tecnologici, che realizzano soluzioni; e politici, che regolano i limiti di utilizzo e di gestione del mondo digitale. Su questo ordito ha preso forma la trama della Call. Aver condiviso aspirazioni di dignit\u00e0 della persona, giustizia, sussidiariet\u00e0 e solidariet\u00e0 con partner capaci di fare la differenza \u00e8 un fondamentale primo passo.<\/p>\n<p>La Rome Call, per\u00f2, non \u00e8 solamente un momento simbolico di incontro e sottoscrizione; \u00e8 anzitutto un movimento culturale che vuole produrre un cambiamento, e l\u2019ha dimostrato nel periodo pandemico, nonostante le innumerevoli difficolt\u00e0 causate dal distanziamento forzato e dalla impossibilit\u00e0 di incontri fisici tra realt\u00e0 diverse.<\/p>\n<p>Nonostante le difficolt\u00e0 imposte dalla pandemia siamo riusciti a realizzare, lo scorso mese, un evento al quale ci siamo dedicati per quasi due anni \u2013 tanta \u00e8 stata la sua complessit\u00e0: la firma interreligiosa della Rome Call. Per dire al mondo che la dignit\u00e0 dell\u2019uomo va salvaguardata e protetta sempre, in ogni circostanza, ci siamo uniti ai nostri fratelli ebrei e musulmani. Cos\u00ec il 10 di gennaio di quest\u2019anno, davanti al Papa, ci siamo presentati assieme ai rappresentanti del Forum per la Pace di Abu Dhabi (Emirati Arabi) e della Commissione per il dialogo interreligioso del Gran Rabbinato di Israele. Nello stesso giorno, dopo che i primi firmatari della Rome Call avevano confermato il proprio impegno per l\u2019ideazione e la realizzazione di un\u2019intelligenza artificiale che ne segua i principi, abbiamo riunito relatori di spicco che hanno analizzato l\u2019argomento sia in prospettiva religiosa che secolare.<\/p>\n<p>Perch\u00e9 tutto questo? Qual \u00e8 il contributo delle religioni a questo tipo di dibattito? Le religioni hanno svolto e continueranno a svolgere un ruolo cruciale nel plasmare un mondo in cui l&#8217;essere umano \u00e8 al centro del concetto di sviluppo. Per questa ragione, uno sviluppo etico dell&#8217;intelligenza artificiale deve essere affrontato anche da una prospettiva interreligiosa. Nel nostro evento di gennaio, le tre religioni abramitiche si sono unite per fornire una guida per la ricerca di senso dell&#8217;umanit\u00e0 in questa nuova era.<\/p>\n<p>Il nostro lavoro non \u00e8 finito. Ora stiamo lavorando per coinvolgere in questo movimento anche le religioni orientali: nel 2024 saremo in Giappone per ribadire, unendo la nostra voce a quella dei nostri fratelli di altre tradizioni religiose, che le conquiste tecnologiche possono essere utilizzate a beneficio di tutti, e possono promuovere la dignit\u00e0 umana, l&#8217;equit\u00e0 e la giustizia. Strumenti come i social media o le loro future versioni possono essere utilizzati per promuovere valori condivisi come la fratellanza umana, anzich\u00e9 la divisione e la sfiducia.<\/p>\n<p>Per fare questo per\u00f2 la societ\u00e0 umana deve adottare un\u2019algoretica, ossia lo sviluppo etico degli algoritmi, progettato, discusso e concordato da tutte le persone di buona volont\u00e0. Questo nostro movimento potr\u00e0 avere successo anche grazie al vostro aiuto. Se anche voi, come spero, credete nella possibilit\u00e0 di rendere il mondo pi\u00f9 giusto, per tutti, parlare di queste tematiche e della nostra iniziativa che vuole difendere la dignit\u00e0 di ogni essere umano \u00e8 un modo per contribuire alla causa.<\/p>\n<p>Grazie del vostro ascolto, e buon lavoro.<\/p>\n<p><em>Universit\u00e0 Santa Croce, 15 marzo 2023<\/em><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Care amiche e cari amici, dedicare una giornata di studio e di formazione professionale per giornalisti a un tema come l\u2019intelligenza artificiale \u00e8 un ottimo segnale. Ci troviamo in un campo nel quale le cose si stanno muovendo con grande velocit\u00e0 e voi, che date forma e sostanza all\u2019informazione, avete il diritto e il dovere [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":27248,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3,8],"tags":[],"class_list":["post-27247","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-interventi","category-news"],"jetpack_featured_media_url":"https:\/\/www.vincenzopaglia.it\/wp-content\/uploads\/2023\/03\/unicroce-e1678967582404.jpg","_links":{"self":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts\/27247","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/comments?post=27247"}],"version-history":[{"count":1,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts\/27247\/revisions"}],"predecessor-version":[{"id":27249,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts\/27247\/revisions\/27249"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/media\/27248"}],"wp:attachment":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/media?parent=27247"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/categories?post=27247"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/tags?post=27247"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}