{"id":25743,"date":"2020-03-10T01:17:53","date_gmt":"2020-03-10T00:17:53","guid":{"rendered":"http:\/\/www.vincenzopaglia.it\/?p=25743"},"modified":"2020-03-10T04:02:21","modified_gmt":"2020-03-10T03:02:21","slug":"appello-per-unetica-dellintelligenza-artificiale","status":"publish","type":"post","link":"https:\/\/www.vincenzopaglia.it\/index.php\/appello-per-unetica-dellintelligenza-artificiale.html","title":{"rendered":"Appello per un\u2019etica dell\u2019intelligenza artificiale"},"content":{"rendered":"<blockquote><p>Pontificia Accademia per la Vita, Microsoft, \u00a0IBM, la FAO, il Governo italiano, hanno firmato il 28 febbraio 2020 la\u00a0<em>Call for an AI Ethics<\/em>, documento nato per sostenere un approccio etico all\u2019Intelligenza Artificiale e promuovere tra organizzazioni, governi e istituzioni un senso di responsabilit\u00e0 condivisa con l\u2019obiettivo di garantire un futuro in cui l\u2019innovazione digitale e il progresso tecnologico siano al servizio del genio e della creativit\u00e0 umana e non la loro graduale sostituzione.<\/p><\/blockquote>\n<p>I primi tre firmatari della\u00a0<em>Call<\/em>\u00a0esprimono cos\u00ec il desiderio di lavorare insieme, in questo contesto e a livello nazionale e internazionale, per promuovere una \u201calgor-etica\u201d, ovvero lo sviluppo e l\u2019utilizzo dell\u2019Intelligenza Artificiale secondo i seguenti principi, fondamentali di una buona innovazione:\u00a0<strong>Trasparenza<\/strong>, in linea di principio i sistemi di intelligenza artificiale devono essere comprensibili; dell\u2019<strong>Inclusione<\/strong>, devono essere prese in considerazione le esigenze di tutti gli esseri umani\u00a0 in modo che tutti possano beneficiare e che a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi;\u00a0<strong>Responsabilit\u00e0<\/strong>: coloro che progettano e implementano soluzioni di Intelligenza Artificiale devono procedere con responsabilit\u00e0 e trasparenza; imparzialit\u00e0: non creare o agire secondo il pregiudizio, salvaguardando cos\u00ec l\u2019equit\u00e0 e la dignit\u00e0 umana;\u00a0<strong>Affidabilit\u00e0<\/strong>: i sistemi di Intelligenza Artificiale devono essere in grado di funzionare in modo affidabile;\u00a0<strong>Sicurezza e privacy<\/strong>: i sistemi di Intelligenza Artificiale devono funzionare in modo sicuro e rispettare la privacy degli utenti.<\/p>\n<p>Primi firmatari: mons. Vincenzo Paglia, presidente della Pontificia Accademia per la Vita \u00a0(sponsor dell\u2019iniziativa); dr. Brad Smith, presidente Microsoft; dr. John Kelly III, vice presidente esecutivo IBM; dr. Dongyu Qu, direttore generale della FAO; il ministro Paola Pisano per il Governo italiano. All\u2019appuntamento della mattina ha partecipato il dr. Davide Sassoli, presidente del Parlamento Europeo, che ha portato il suo saluto.<\/p>\n<h4>Appello per un\u2019etica dell\u2019Intelligenza artificiale<\/h4>\n<h5>Introduzione<\/h5>\n<p>L\u2019\u201cintelligenza artificiale\u201d (IA) sta portando profondi cambiamenti nella vita degli esseri umani e continuer\u00e0 a farlo. L\u2019intelligenza artificiale offre un potenziale enorme quando si tratta di migliorare la convivenza sociale e il benessere personale, aumentare le capacit\u00e0 umane e consentire o facilitare molti compiti che possono essere svolti in modo pi\u00f9 efficiente ed efficace. Tuttavia, questi risultati non sono affatto garantiti. Le trasformazioni attualmente in corso non sono solo quantitative. Sono soprattutto qualitativi, perch\u00e9 influenzano il modo in cui questi compiti vengono svolti e il modo in cui percepiamo la realt\u00e0 e la natura umana stessa, tanto che possono influenzare le nostre abitudini mentali e interpersonali. Le nuove tecnologie devono essere ricercate e prodotte secondo criteri che garantiscano che siano realmente al servizio dell\u2019intera \u201cfamiglia umana\u201d (Preambolo,\u00a0<em>Dichiarazione universale dei diritti dell\u2019uomo<\/em>), rispettando la dignit\u00e0 costitutiva di ciascuno dei suoi membri e di tutti gli ambienti naturali e tenendo conto delle esigenze di coloro che sono pi\u00f9 vulnerabili. L\u2019obiettivo non \u00e8 solo quello di garantire che nessuno sia escluso, ma anche di espandere quelle aree di libert\u00e0 che potrebbero essere minacciate dal condizionamento algoritmico.<\/p>\n<p>Data la natura innovativa e complessa delle domande poste dalla trasformazione digitale, \u00e8 essenziale che tutte le parti interessate lavorino insieme e che siano rappresentati tutti i bisogni interessati dall\u2019intelligenza artificiale. Questo appello \u00e8 un passo avanti nell\u2019ottica di crescere nella comprensione comune e la ricerca di un linguaggio e di soluzioni che possiamo condividere. Sulla base di ci\u00f2, possiamo riconoscere e accettare responsabilit\u00e0 che tengono conto dell\u2019intero processo di innovazione tecnologica, dalla progettazione alla distribuzione e all\u2019utilizzo, incoraggiando un reale impegno in una serie di scenari pratici. A lungo termine, i valori e i principi che siamo in grado di infondere nell\u2019intelligenza artificiale aiuteranno a stabilire un quadro che regola e agisce come punto di riferimento per l\u2019etica digitale, guidando le nostre azioni e promuovendo l\u2019uso della tecnologia a beneficio dell\u2019umanit\u00e0 e dell\u2019ambiente.<\/p>\n<p>Ora pi\u00f9 che mai, dobbiamo garantire una prospettiva in cui l\u2019IA sia sviluppata con il focus non sulla tecnologia, ma piuttosto sul bene dell\u2019umanit\u00e0 e dell\u2019ambiente, della nostra casa comune e condivisa e dei suoi abitanti umani, che sono indissolubilmente connessi. In altre parole, una visione in cui gli esseri umani e la natura sono al centro di come si sviluppa l\u2019innovazione digitale, supportata, piuttosto che gradualmente sostituita, da tecnologie che si comportano come attori razionali ma non sono affatto umani. \u00c8 tempo di iniziare a prepararsi a un futuro pi\u00f9 tecnologico in cui le macchine avranno un ruolo pi\u00f9 importante nella vita degli esseri umani, ma anche un futuro in cui \u00e8 chiaro che il progresso tecnologico afferma lo splendore della razza umana e rimane dipendente dalla sua integrit\u00e0 morale.<\/p>\n<h5>Etica<\/h5>\n<p>Tutti gli esseri umani sono nati liberi e uguali in dignit\u00e0 e diritti. Sono dotati di ragione e coscienza e dovrebbero agire l\u2019uno verso l\u2019altro in uno spirito di comunione (cf. Art. 1,\u00a0<em>Dichiarazione universale dei diritti dell\u2019uomo<\/em>). Questa condizione fondamentale di libert\u00e0 e dignit\u00e0 deve anche essere protetta e garantita durante la produzione e l\u2019utilizzo di sistemi di intelligenza artificiale. Ci\u00f2 deve essere fatto salvaguardando i diritti e la libert\u00e0 delle persone in modo che non vengano discriminati da algoritmi a causa della loro \u201crazza, colore, sesso, lingua, religione, opinione politica o di altro genere, origine nazionale o sociale, propriet\u00e0, nascita o altro status\u201d (Art. 2,\u00a0<em>Dichiarazione universale dei diritti dell\u2019uomo<\/em>).<\/p>\n<p>I sistemi di intelligenza artificiale devono essere concepiti, progettati e implementati per servire e proteggere gli esseri umani e l\u2019ambiente in cui vivono. Questa visione fondamentale deve tradursi nell\u2019impegno a creare condizioni di vita (sia sociali sia personali) che consentano sia ai gruppi sia ai singoli membri di tentare di esprimersi pienamente ove possibile.<\/p>\n<p>Affinch\u00e9 il progresso tecnologico si allinei con veri progressi per la razza umana e il rispetto per il pianeta, deve soddisfare tre requisiti. Deve includere ogni essere umano, senza discriminare alcuno; deve avere il bene dell\u2019umanit\u00e0 e il bene di ogni essere umano al centro; infine, deve essere consapevole della complessa realt\u00e0 del nostro ecosistema ed essere caratterizzato dal modo in cui si prende cura e protegge il pianeta (la nostra \u201ccasa comune e condivisa\u201d) con un approccio altamente sostenibile, che include anche l\u2019uso dell\u2019IA nel garantire sistemi alimentari sostenibili in futuro. Inoltre, ogni persona deve essere consapevole quando sta interagendo con una macchina.<\/p>\n<p>La tecnologia basata sull\u2019intelligenza artificiale non deve mai essere utilizzata per sfruttare le persone in alcun modo, in particolare quelle pi\u00f9 vulnerabili. Invece, deve essere usato per aiutare le persone a sviluppare le proprie capacit\u00e0 (potenziamento \/ abilitazione) e per sostenere il pianeta.<\/p>\n<h5>Formazione<\/h5>\n<p>Trasformare il mondo attraverso l\u2019innovazione dell\u2019IA significa impegnarsi a costruire un futuro per e con le generazioni pi\u00f9 giovani. Questa impresa deve riflettersi in un impegno per la formazione, lo sviluppo di curricula specifici che abbracciano diverse discipline \u2013 umanistiche, scientifiche e tecnologiche \u2013 e assumersi la responsabilit\u00e0 di educare le giovani generazioni. Questo impegno significa lavorare per migliorare la qualit\u00e0 dell\u2019istruzione che i giovani ricevono; essa deve essere fornita attraverso metodi accessibili a tutti, che non discriminino e che possano offrire uguaglianza di opportunit\u00e0 e trattamento. L\u2019accesso universale all\u2019istruzione deve essere raggiunto attraverso principi di solidariet\u00e0 ed equit\u00e0.<\/p>\n<p>L\u2019accesso all\u2019apprendimento permanente deve essere garantito anche agli anziani, ai quali deve essere offerta l\u2019opportunit\u00e0 di accedere ai servizi\u00a0<em>offline<\/em>\u00a0durante la transizione digitale e tecnologica. Inoltre, queste tecnologie possono rivelarsi estremamente utili nell\u2019aiutare le persone con disabilit\u00e0 a imparare e diventare pi\u00f9 indipendenti: l\u2019educazione inclusiva significa quindi anche usare l\u2019IA per supportare e integrare ogni persona, offrendo aiuto e opportunit\u00e0 per la partecipazione sociale (ad es. lavoro a distanza per le persone con mobilit\u00e0 limitata, supporto tecnologico per le persone con disabilit\u00e0 cognitive ecc.).<\/p>\n<p>L\u2019impatto delle trasformazioni causate dall\u2019IA nella societ\u00e0, nel lavoro e nell\u2019istruzione ha reso essenziale la revisione dei curricula scolastici al fine di rendere il motto educativo \u201cnessuno lasciato indietro\u201d una realt\u00e0. Nel settore dell\u2019istruzione sono necessarie riforme per stabilire standard elevati e obiettivi che possano migliorare i risultati individuali. Questi standard non dovrebbero limitarsi allo sviluppo delle competenze digitali, ma dovrebbero concentrarsi invece sull\u2019assicurare che ogni persona possa esprimere appieno le proprie capacit\u00e0 e sul lavoro per il bene della comunit\u00e0, anche quando da questo non si ottengono benefici personali.<\/p>\n<p>Mentre progettiamo e pianifichiamo la societ\u00e0 di domani, l\u2019uso dell\u2019IA deve seguire forme di azione socialmente orientate, creative, connettive, produttive, responsabili e capaci di avere un impatto positivo sulla vita personale e sociale delle giovani generazioni. L\u2019impatto sociale ed etico dell\u2019IA deve essere anche al centro delle attivit\u00e0 educative dell\u2019IA.<\/p>\n<p>L\u2019obiettivo principale di questa formazione deve essere quello di sensibilizzare sulle opportunit\u00e0 e anche sulle possibili questioni critiche poste dall\u2019intelligenza artificiale dal punto di vista dell\u2019inclusione sociale e del rispetto individuale.<\/p>\n<h5>Diritti<\/h5>\n<p>Lo sviluppo dell\u2019IA al servizio dell\u2019umanit\u00e0 e del pianeta deve riflettersi in regolamenti e principi che proteggono le persone \u2013 in particolare i deboli e i meno privilegiati \u2013 e gli ambienti naturali. L\u2019impegno etico di tutte le parti interessate \u00e8 un punto di partenza cruciale; per trasformare questo futuro in realt\u00e0, valori, principi e, in alcuni casi, norme legali sono assolutamente indispensabili per supportare, strutturare e guidare questo processo.<\/p>\n<p>Per sviluppare e implementare sistemi di intelligenza artificiale a beneficio dell\u2019umanit\u00e0 e del pianeta, agendo come strumenti per costruire e mantenere la pace internazionale, lo sviluppo dell\u2019IA deve andare di pari passo con solide misure di sicurezza digitale.<\/p>\n<p>Affinch\u00e9 l\u2019IA funga da strumento per il bene dell\u2019umanit\u00e0 e del pianeta, dobbiamo porre al centro del dibattito pubblico il tema della protezione dei diritti umani nell\u2019era digitale. \u00c8 giunto il momento di chiedersi se nuove forme di automazione e attivit\u00e0 algoritmica richiedano lo sviluppo di responsabilit\u00e0 pi\u00f9 forti. In particolare, sar\u00e0 essenziale considerare una qualche forma di un \u201cdovere di spiegazione\u201d: dobbiamo pensare a rendere comprensibili non solo i criteri decisionali degli agenti algoritmici basati sull\u2019intelligenza artificiale, ma anche il loro scopo e obiettivi. Questi dispositivi devono essere in grado di offrire agli individui informazioni sulla logica alla base degli algoritmi utilizzati per prendere decisioni. Ci\u00f2 aumenter\u00e0 la trasparenza, la tracciabilit\u00e0 e la responsabilit\u00e0, rendendo pi\u00f9 valido il processo decisionale assistito dal computer.<\/p>\n<p>Nuove forme di regolamentazione devono essere incoraggiate per promuovere la trasparenza e il rispetto dei principi etici, in particolare per le tecnologie avanzate che hanno un rischio maggiore di incidere sui diritti umani, come il riconoscimento facciale.<\/p>\n<p>Per raggiungere questi obiettivi, dobbiamo partire fin dall\u2019inizio dello sviluppo di ciascun algoritmo con una visione \u201calgoretica\u201d, ovvero un approccio etico alla base della progettazione. La progettazione e pianificazione di sistemi di intelligenza artificiale di cui possiamo fidarci implica la ricerca di un consenso tra decisori politici, agenzie di sistema delle Nazioni Unite e altre organizzazioni intergovernative, ricercatori, mondo accademico e rappresentanti di organizzazioni non governative in merito ai principi etici che dovrebbero essere integrati in questi tecnologie. Per questo motivo, i promotori dell\u2019Appello esprimono il loro desiderio di lavorare insieme, in questo contesto e a livello nazionale e internazionale, per promuovere \u201calgoretica\u201d, ovvero l\u2019uso etico dell\u2019IA come definito dai seguenti principi:<\/p>\n<ol>\n<li><strong>Trasparenza<\/strong>: in linea di principio, i sistemi di intelligenza artificiale devono essere spiegabili.<\/li>\n<li><strong>Inclusione<\/strong>: i bisogni di tutti gli esseri umani devono essere presi in considerazione in modo che tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi.<\/li>\n<li><strong>Responsabilit\u00e0<\/strong>: coloro che progettano e implementano l\u2019uso dell\u2019IA devono procedere con responsabilit\u00e0 e trasparenza.<\/li>\n<li><strong>Imparzialit\u00e0<\/strong>: non creare o agire in base al pregiudizio, salvaguardando cos\u00ec l\u2019equit\u00e0 e la dignit\u00e0 umana.<\/li>\n<li><strong>Affidabilit\u00e0<\/strong>: i sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile.<\/li>\n<li><strong>Sicurezza e privacy<\/strong>: i sistemi di intelligenza artificiale devono funzionare in modo sicuro e rispettare la privacy degli utenti.<\/li>\n<\/ol>\n<p>Questi principi sono elementi fondamentali di una buona innovazione.<\/p>\n<p><em>Roma, 28 febbraio 2020<\/em><\/p>\n<h5>Discorso rivolto ai partecipanti da papa Francesco<\/h5>\n<p>Distinte Autorit\u00e0, illustri Signori e Signore, cari fratelli e sorelle!<\/p>\n<p>Vi saluto cordialmente in occasione dell\u2019Assemblea generale della Pontificia Accademia per la Vita e ringrazio Mons. Paglia per le sue cortesi parole. Sono grato per la loro presenza al Presidente del Parlamento Europeo, al Direttore Generale della FAO, alle altre autorit\u00e0 e alle personalit\u00e0 nel campo della tecnologia informatica. Saluto inoltre quanti partecipano dall\u2019Auditorium Conciliazione e mi rallegro per la presenza numerosa, anche di giovani: \u00e8 un segno di speranza.<\/p>\n<p>Le tematiche che avete affrontato in questi giorni riguardano uno dei cambiamenti pi\u00f9 importanti che caratterizzano il mondo di oggi. Anzi, potremmo dire che la \u201cgalassia digitale\u201d, e in particolare la cosiddetta \u201cintelligenza artificiale\u201d, si trova proprio al cuore del cambiamento d\u2019epoca che stiamo attraversando. L\u2019innovazione digitale, infatti, tocca tutti gli aspetti della vita, sia personali sia sociali. Essa incide sul nostro modo di comprendere il mondo e anche noi stessi. \u00c8 sempre pi\u00f9 presente nell\u2019attivit\u00e0 e perfino nelle decisioni umane, e cos\u00ec sta cambiando il modo in cui pensiamo e agiamo. Le decisioni, anche le pi\u00f9 importanti come quelle in ambito medico, economico o sociale, sono oggi frutto di volere umano e di una serie di contributi algoritmici. L\u2019atto personale viene a trovarsi al punto di convergenza tra l\u2019apporto propriamente umano e il calcolo automatico, cosicch\u00e9 risulta sempre pi\u00f9 complesso comprenderne l\u2019oggetto, prevederne gli effetti, definirne le responsabilit\u00e0.<\/p>\n<p>Certo, l\u2019umanit\u00e0 ha gi\u00e0 vissuto nella sua storia sconvolgimenti profondi, come, ad esempio, quando \u00e8 stata introdotta la macchina a vapore, o l\u2019elettricit\u00e0, o l\u2019invenzione della stampa che ha rivoluzionato il modo di conservare e trasmettere informazioni. Oggi la convergenza tra diversi saperi scientifici e tecnologici ha un effetto di amplificazione e consente di intervenire su fenomeni di grandezza infinitesimale e di portata planetaria, fino al punto di rendere labili confini finora considerati ben distinguibili: tra materia inorganica e organica, tra reale e virtuale, tra identit\u00e0 stabili ed eventi in continua relazione tra loro.<\/p>\n<p>Sul piano personale, l\u2019epoca digitale cambia la percezione dello spazio, del tempo e del corpo. Infonde un senso di espansione di s\u00e9 che sembra non incontrare pi\u00f9 limiti e l\u2019omologazione si afferma come criterio prevalente di aggregazione: riconoscere e apprezzare la differenza diventa sempre pi\u00f9 difficile. Sul piano socio-economico, gli utenti sono spesso ridotti a \u201cconsumatori\u201d, asserviti a interessi privati concentrati nelle mani di pochi. Dalle tracce digitali disseminate in internet, gli algoritmi estraggono dati che consentono di controllare abitudini mentali e relazionali, per fini commerciali o politici, spesso a nostra insaputa. Questa asimmetria, per cui alcuni pochi sanno tutto di noi, mentre noi non sappiamo nulla di loro, intorpidisce il pensiero critico e l\u2019esercizio consapevole della libert\u00e0. Le disuguaglianze si amplificano a dismisura, la conoscenza e la ricchezza si accumulano in poche mani, con gravi rischi per le societ\u00e0 democratiche. Questi pericoli non devono per\u00f2 nasconderci le grandi potenzialit\u00e0 che le nuove tecnologie ci offrono. Siamo davanti a un dono di Dio, cio\u00e8 a una risorsa che pu\u00f2 portare frutti di bene.<\/p>\n<p>Anche i temi di cui la vostra Accademia si \u00e8 occupata fin dalla sua nascita si presentano oggi in modo nuovo. Le scienze biologiche si avvalgono sempre pi\u00f9 largamente dei dispositivi resi disponibili dalla \u201cintelligenza artificiale\u201d. Questo sviluppo induce mutazioni profonde nel modo di interpretare e gestire gli esseri viventi e le caratteristiche proprie della vita umana, che \u00e8 nostro impegno tutelare e promuovere, non solo nella sua costitutiva dimensione\u00a0<em>biologica<\/em>, ma anche nella sua irriducibile qualit\u00e0\u00a0<em>biografica<\/em>. La correlazione e l\u2019integrazione fra la vita vivente e la vita vissuta non possono essere rimosse a vantaggio di un semplice calcolo ideologico delle prestazioni funzionali e dei costi sostenibili. Gli interrogativi etici che emergono dal modo in cui i nuovi dispositivi possono \u2013 appunto \u2013 \u201cdisporre\u201d della nascita e del destino delle persone richiedono un rinnovato impegno per la qualit\u00e0 umana dell\u2019intera storia comunitaria della vita.<\/p>\n<p>Sono quindi grato alla Pontificia Accademia per la Vita per il cammino che ha intrapreso sviluppando una seria riflessione, che ha favorito il dialogo tra discipline scientifiche diverse e indispensabili per affrontare fenomeni cos\u00ec complessi.<\/p>\n<p>Noto con soddisfazione che l\u2019incontro di quest\u2019anno vede la presenza di persone che hanno importanti e differenti ruoli di responsabilit\u00e0 internazionali, sul piano scientifico, industriale e politico. Ne sono lieto e ve ne ringrazio. Come credenti infatti non abbiamo nozioni gi\u00e0 prestabilite con cui rispondere alle domande inedite che la storia oggi ci pone. Il nostro compito \u00e8 piuttosto di camminare insieme agli altri, ascoltando con attenzione e mettendo in collegamento esperienza e riflessione. Dobbiamo lasciarci interpellare come credenti, perch\u00e9 la Parola e la Tradizione della fede ci aiutino a interpretare i fenomeni del nostro mondo, individuando cammini di umanizzazione, e pertanto di amorevole evangelizzazione, da percorrere insieme. Cos\u00ec potremo dialogare in maniera proficua con tutti coloro che sono alla ricerca dello sviluppo umano, mantenendo al centro della conoscenza e delle pratiche sociali la persona in tutte le sue dimensioni, incluse quelle spirituali. Siamo di fronte a un compito che coinvolge la famiglia umana nel suo complesso.<\/p>\n<p>Alla luce di quanto detto, non basta la semplice educazione all\u2019uso corretto delle nuove tecnologie: non sono infatti strumenti \u201cneutrali\u201d, perch\u00e9, come abbiamo visto, plasmano il mondo e impegnano le coscienze sul piano dei valori. C\u2019\u00e8 bisogno di un\u2019azione educativa pi\u00f9 ampia. Occorre maturare motivazioni forti per perseverare nella ricerca del bene comune, anche quando non ne deriva un immediato tornaconto. Esiste una dimensione politica nella produzione e nell\u2019uso della cosiddetta \u201cIntelligenza Artificiale\u201d, che non riguarda solo la distribuzione dei suoi vantaggi individuali e astrattamente funzionali. In altri termini: non basta semplicemente affidarci alla sensibilit\u00e0 morale di chi fa ricerca e progetta dispositivi e algoritmi; occorre invece creare corpi sociali intermedi che assicurino rappresentanza alla sensibilit\u00e0 etica degli utilizzatori e degli educatori.<\/p>\n<p>Sono molte le competenze che intervengono nel processo di elaborazione degli apparati tecnologici (ricerca, progettazione, produzione, distribuzione, utilizzo individuale e collettivo), e ognuna comporta una specifica responsabilit\u00e0. Si intravede una nuova frontiera che potremmo chiamare \u201calgor-etica\u201d (cf.\u00a0<em>Discorso ai partecipanti al Congresso \u201cChild Dignity in the Digital World\u201d<\/em>, 14 novembre 2019). Essa intende assicurare una verifica competente e condivisa dei processi secondo cui si integrano i rapporti tra gli esseri umani e le macchine nella nostra era. Nella comune ricerca di questi obiettivi, i principi della Dottrina Sociale della Chiesa offrono un contributo decisivo: dignit\u00e0 della persona, giustizia, sussidiariet\u00e0 e solidariet\u00e0. Essi esprimono l\u2019impegno di mettersi al servizio di ogni persona nella sua integralit\u00e0 e di tutte le persone, senza discriminazioni n\u00e9 esclusioni. Ma la complessit\u00e0 del mondo tecnologico ci chiede una elaborazione etica pi\u00f9 articolata, per rendere questo impegno realmente incisivo.<\/p>\n<p>L\u2019 \u201calgor-etica\u201d potr\u00e0 essere un ponte per far s\u00ec che i principi si inscrivano concretamente nelle tecnologie digitali, attraverso un effettivo dialogo transdisciplinare. Inoltre, nell\u2019incontro tra diverse visioni del mondo, i diritti umani costituiscono un importante punto di convergenza per la ricerca di un terreno comune. Nel momento presente, peraltro, sembra necessaria una riflessione aggiornata sui diritti e i doveri in questo ambito. Infatti, la profondit\u00e0 e l\u2019accelerazione delle trasformazioni dell\u2019era digitale sollevano inattese problematiche, che impongono nuove condizioni all\u2019ethos individuale e collettivo. Certamente la\u00a0<em>Call<\/em>\u00a0che oggi avete firmato \u00e8 un passo importante in questa direzione, con le tre fondamentali coordinate su cui camminare: l\u2019etica, l\u2019educazione e il diritto.<\/p>\n<p>Cari amici, vi esprimo il mio sostegno per la generosit\u00e0 e il dinamismo con cui vi siete impegnati ad avviare un processo di ripensamento cos\u00ec impegnativo e coraggioso. Vi invito a proseguirlo con audacia e discernimento, alla ricerca delle vie di un coinvolgimento sempre pi\u00f9 ampio di tutti coloro che hanno a cuore il bene della famiglia umana. Invoco su di voi la benedizione di Dio, perch\u00e9 il vostro cammino possa svolgersi con serenit\u00e0 e pace, in spirito di collaborazione. Vi assista la Vergine Madre e vi accompagni la mia benedizione. E per favore, non dimenticatevi di pregare per me. Grazie.<\/p>\n<p>Papa Francesco<\/p>\n<blockquote><p>In proposito mons. Vincenzo Paglia ha notato che \u00abl\u2019intento della Call \u00e8 dar vita a un movimento che si allarghi e coinvolga altri soggetti: istituzioni pubbliche, ONG, industrie e gruppi per produrre un indirizzo nello sviluppo e nell\u2019utilizzo delle tecnologie derivate dall\u2019IA. Da questo punto di vista possiamo dire che la prima firma di questa call non \u00e8 un punto di arrivo, ma un inizio per un impegno che appare ancora pi\u00f9 urgente e importante di quanto fin qui fatto. Aderire a questa iniziativa comporta per le industrie che firmano un impegno che ha anche una rilevanza in termini di costi e di impegno industriale nello sviluppo e nella distribuzione dei loro prodotti. Se l\u2019Accademia si sente chiamata a intensificare il proprio impegno per facilitare la conoscenza e la firma di altri soggetti, non di meno, la Call \u00e8 un primo passo che ne prelude altri. Il testo della Call si caratterizza anche per essere un primo tentativo nel formulare un insieme di criteri etici con comuni riferimenti di valore, offrendo un contributo all\u2019elaborazione di un linguaggio comune per interpretare quanto \u00e8 umano\u00bb.<\/p>\n<p>\u201cMicrosoft \u00e8 orgogliosa di firmare la Rome Call for AI Ethics, che rappresenta un importante passo in avanti nella promozione di un dibattito pensato, rispettoso e inclusivo sul rapporto tra Intelligenza Artificiale ed Etica. L\u2019impegno e il valore apportato da Sua Santit\u00e0 in questo dialogo \u00e8 per me fonte di ispirazione. Ringrazio il Pontefice, la Pontificia Accademia per la Vita e gli altri rappresentanti della Santa Sede per l\u2019importante annuncio di oggi\u201d ha commentato Brad Smith, Presidente Microsoft.<\/p>\n<p>Il Vice Presidente di IBM, John Kelly III ha commentato che \u201cL\u2019intelligenza artificiale \u00e8 una tecnologia incredibilmente promettente che pu\u00f2 aiutarci a rendere il mondo pi\u00f9 smart, pi\u00f9 sano e pi\u00f9 prospero. A patto che, fin dall\u2019inizio, sia sviluppata secondo interessi e valori umani. La Call for AI Ethics di Roma ci ricorda che dobbiamo pensare con attenzione alle esigenze di chi beneficer\u00e0 dell\u2019IA e investire significativamente sulle competenze necessarie. La societ\u00e0 avr\u00e0 pi\u00f9 fiducia nell\u2019IA quando ciascuno potr\u00e0 vedere che il suo sviluppo \u00e8 basato su principi etici e che le aziende che se ne occupano stanno affrontando direttamente tutte le questioni legate alla fiducia e alla responsabilit\u00e0\u201d.<\/p><\/blockquote>\n","protected":false},"excerpt":{"rendered":"<p>Pontificia Accademia per la Vita, Microsoft, \u00a0IBM, la FAO, il Governo italiano, hanno firmato il 28 febbraio 2020 la\u00a0Call for an AI Ethics, documento nato per sostenere un approccio etico all\u2019Intelligenza Artificiale e promuovere tra organizzazioni, governi e istituzioni un senso di responsabilit\u00e0 condivisa con l\u2019obiettivo di garantire un futuro in cui l\u2019innovazione digitale e [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":25744,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7],"tags":[],"class_list":["post-25743","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-rassegna"],"jetpack_featured_media_url":"https:\/\/www.vincenzopaglia.it\/wp-content\/uploads\/2020\/03\/call2.jpg","_links":{"self":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts\/25743","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/comments?post=25743"}],"version-history":[{"count":1,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts\/25743\/revisions"}],"predecessor-version":[{"id":25745,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/posts\/25743\/revisions\/25745"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/media\/25744"}],"wp:attachment":[{"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/media?parent=25743"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/categories?post=25743"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.vincenzopaglia.it\/index.php\/wp-json\/wp\/v2\/tags?post=25743"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}