D
Documenti
Documenti, 1/2024, 01/01/2024, pag. 1

Intelligenza artificiale e pace

Messaggio per la 57a Giornata mondiale della pace

Francesco

«La dignità intrinseca di ogni persona e la fraternità che ci lega come membri dell’unica famiglia umana devono stare alla base dello sviluppo di nuove tecnologie e servire come criteri indiscutibili per valutarle prima del loro impiego, in modo che il progresso digitale possa avvenire nel rispetto della giustizia e contribuire alla causa della pace. Gli sviluppi tecnologici che non portano a un miglioramento della qualità di vita di tutta l’umanità, ma al contrario aggravano le disuguaglianze e i conflitti, non potranno mai essere considerati vero progresso». Il tema di fondo del messaggio di papa Francesco per la 57a Giornata mondiale della pace (1.1.2024), che è stato pubblicato il 14 dicembre, è quello dell’intelligenza artificiale, che secondo il pontefice fa parte dei «prodotti straordinari» del «potenziale creativo» dell’intelligenza umana, a patto però di essere al servizio della dignità intrinseca dell’uomo e della promozione della giustizia e della fraternità. 

Il messaggio è intitolato Intelligenza artificiale e pace, e indica la «necessità di un dialogo interdisciplinare finalizzato a uno sviluppo etico degli algoritmi – l’algor-etica – in cui siano i valori a orientare i percorsi delle nuove tecnologie».

 

Stampa (14.12.2023) da sito web www.vatican.va.

 

 

All’inizio del nuovo anno, tempo di grazia che il Signore dona a ciascuno di noi, vorrei rivolgermi al popolo di Dio, alle nazioni, ai capi di stato e di governo, ai rappresentanti delle diverse religioni e della società civile, a tutti gli uomini e le donne del nostro tempo per porgere i miei auguri di pace.

 

 

  1. Il progresso della scienza e della tecnologia come via verso la pace

 

     La sacra Scrittura attesta che Dio ha donato agli uomini il suo Spirito affinché abbiano «saggezza, intelligenza e scienza in ogni genere di lavoro» (Es 35,31). L’intelligenza è espressione della dignità donataci dal Creatore, che ci ha fatti a sua immagine e somiglianza (cf. Gen 1,26) e ci ha messo in grado di rispondere al suo amore attraverso la libertà e la conoscenza. La scienza e la tecnologia manifestano in modo particolare tale qualità fondamentalmente relazionale dell’intelligenza umana: sono prodotti straordinari del suo potenziale creativo.

     Nella costituzione pastorale Gaudium et spes, il concilio Vaticano II ha ribadito questa verità, dichiarando che «col suo lavoro e col suo ingegno l’uomo ha cercato sempre di sviluppare la propria vita».[1] Quando gli esseri umani, «con l’aiuto della tecnica», si sforzano affinché la terra «diventi una dimora degna di tutta la famiglia umana»,[2] agiscono secondo il disegno di Dio e cooperano con la sua volontà di portare a compimento la creazione e di diffondere la pace tra i popoli. Anche il progresso della scienza e della tecnica, nella misura in cui contribuisce a un migliore ordine della società umana, ad accrescere la libertà e la comunione fraterna, porta dunque al miglioramento dell’uomo e alla trasformazione del mondo.

     Giustamente ci rallegriamo e siamo riconoscenti per le straordinarie conquiste della scienza e della tecnologia, grazie alle quali si è posto rimedio a innumerevoli mali che affliggevano la vita umana e causavano grandi sofferenze. Allo stesso tempo i progressi tecnico-scientifici, rendendo possibile l’esercizio di un controllo finora inedito sulla realtà, stanno mettendo nelle mani dell’uomo una vasta gamma di possibilità, alcune delle quali possono rappresentare un rischio per la sopravvivenza e un pericolo per la casa comune.[3]

     I notevoli progressi delle nuove tecnologie dell’informazione, specialmente nella sfera digitale, presentano dunque entusiasmanti opportunità e gravi rischi, con serie implicazioni per il perseguimento della giustizia e dell’armonia tra i popoli. È pertanto necessario porsi alcune domande urgenti. Quali saranno le conseguenze, a medio e a lungo termine, delle nuove tecnologie digitali? E quale impatto avranno sulla vita degli individui e della società, sulla stabilità internazionale e sulla pace?

 

 

  1. Il futuro dell’intelligenza artificiale tra promesse e rischi

 

     I progressi dell’informatica e lo sviluppo delle tecnologie digitali negli ultimi decenni hanno già iniziato a produrre profonde trasformazioni nella società globale e nelle sue dinamiche. I nuovi strumenti digitali stanno cambiando il volto delle comunicazioni, della pubblica amministrazione, dell’istruzione, dei consumi, delle interazioni personali e di innumerevoli altri aspetti della vita quotidiana.

     Inoltre le tecnologie che impiegano una molteplicità di algoritmi possono estrarre, dalle tracce digitali lasciate su Internet, dati che consentono di controllare le abitudini mentali e relazionali delle persone a fini commerciali o politici, spesso a loro insaputa, limitandone il consapevole esercizio della libertà di scelta. Infatti in uno spazio come il web, caratterizzato da un sovraccarico di informazioni, possono strutturare il flusso di dati secondo criteri di selezione non sempre percepiti dall’utente.

     Dobbiamo ricordare che la ricerca scientifica e le innovazioni tecnologiche non sono disincarnate dalla realtà e «neutrali»,[4] ma soggette alle influenze culturali. In quanto attività pienamente umane, le direzioni che prendono riflettono scelte condizionate dai valori personali, sociali e culturali di ogni epoca. Dicasi lo stesso per i risultati che conseguono: essi, proprio in quanto frutto di approcci specificamente umani al mondo circostante, hanno sempre una dimensione etica, strettamente legata alle decisioni di chi progetta la sperimentazione e indirizza la produzione verso particolari obiettivi.

     Questo vale anche per le forme di intelligenza artificiale. Di essa, a oggi, non esiste una definizione univoca nel mondo della scienza e della tecnologia. Il termine stesso, ormai entrato nel linguaggio comune, abbraccia una varietà di scienze, teorie e tecniche volte a far sì che le macchine riproducano o imitino, nel loro funzionamento, le capacità cognitive degli esseri umani. Parlare al plurale di «forme di intelligenza» può aiutare a sottolineare soprattutto il divario incolmabile che esiste tra questi sistemi, per quanto sorprendenti e potenti, e la persona umana: essi sono, in ultima analisi, «frammentari», nel senso che possono solo imitare o riprodurre alcune funzioni dell’intelligenza umana. L’uso del plurale evidenzia inoltre che questi dispositivi, molto diversi tra loro, vanno sempre considerati come «sistemi socio-tecnici». Infatti il loro impatto, al di là della tecnologia di base, dipende non solo dalla progettazione, ma anche dagli obiettivi e dagli interessi di chi li possiede e di chi li sviluppa, nonché dalle situazioni in cui vengono impiegati.

     L’intelligenza artificiale, quindi, deve essere intesa come una galassia di realtà diverse e non possiamo presumere a priori che il suo sviluppo apporti un contributo benefico al futuro dell’umanità e alla pace tra i popoli. Tale risultato positivo sarà possibile solo se ci dimostreremo capaci di agire in modo responsabile e di rispettare valori umani fondamentali come «l’inclusione, la trasparenza, la sicurezza, l’equità, la riservatezza e l’affidabilità».[5]

     Non è sufficiente nemmeno presumere, da parte di chi progetta algoritmi e tecnologie digitali, un impegno ad agire in modo etico e responsabile. Occorre rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni eti-che emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati.[6]

     L’immensa espansione della tecnologia deve quindi essere accompagnata da un’adeguata formazione alla responsabilità per il suo sviluppo. La libertà e la convivenza pacifica sono minacciate quando gli esseri umani cedono alla tentazione dell’egoismo, dell’interesse personale, della brama di profitto e della sete di potere. Abbiamo perciò il dovere di allargare lo sguardo e di orientare la ricerca tecnico-scientifica al perseguimento della pace e del bene comune, al servizio dello sviluppo integrale dell’uomo e della comunità.[7]

     La dignità intrinseca di ogni persona e la fraternità che ci lega come membri dell’unica famiglia umana devono stare alla base dello sviluppo di nuove tecnologie e servire come criteri indiscutibili per valutarle prima del loro impiego, in modo che il progresso digitale possa avvenire nel rispetto della giustizia e contribuire alla causa della pace. Gli sviluppi tecnologici che non portano a un miglioramento della qualità di vita di tutta l’umanità, ma al contrario aggravano le disuguaglianze e i conflitti, non potranno mai essere considerati vero progresso.[8]

     L’intelligenza artificiale diventerà sempre più importante. Le sfide che pone sono tecniche, ma anche antropologiche, educative, sociali e politiche. Promette, ad esempio, un risparmio di fatiche, una produzione più efficiente, trasporti più agevoli e mercati più dinamici, oltre a una rivoluzione nei processi di raccolta, organizzazione e verifica dei dati. Occorre essere consapevoli delle rapide trasformazioni in atto e gestirle in modo da salvaguardare i diritti umani fondamentali, rispettando le istituzioni e le leggi che promuovono lo sviluppo umano integrale. L’intelligenza artificiale dovrebbe essere al servizio del migliore potenziale umano e delle nostre più alte aspirazioni, non in competizione con essi.

 

  1. La tecnologia del futuro:
    macchine che imparano da sole

 

     Nelle sue molteplici forme l’intelligenza artificiale, basata su tecniche di apprendimento automatico (machine learning), pur essendo ancora in fase pionieristica, sta già introducendo notevoli cambiamenti nel tessuto delle società, esercitando una profonda influenza sulle culture, sui comportamenti sociali e sulla costruzione della pace.

     Sviluppi come il machine learning o come l’apprendimento profondo (deep learning) sollevano questioni che trascendono gli ambiti della tecnologia e dell’ingegneria e hanno a che fare con una comprensione strettamente connessa al significato della vita umana, ai processi basilari della conoscenza e alla capacità della mente di raggiungere la verità.

     L’abilità di alcuni dispositivi nel produrre testi sintatticamente e semanticamente coerenti, ad esempio, non è garanzia di affidabilità. Si dice che possano «allucinare», cioè generare affermazioni che a prima vista sembrano plausibili, ma che in realtà sono infondate o tradiscono pregiudizi. Questo pone un serio problema quando l’intelligenza artificiale viene impiegata in campagne di disinformazione che diffondono notizie false e portano a una crescente sfiducia nei confronti dei mezzi di comunicazione. La riservatezza, il possesso dei dati e la proprietà intellettuale sono altri ambiti in cui le tecnologie in questione comportano gravi rischi, a cui si aggiungono ulteriori conseguenze negative legate a un loro uso improprio, come la discriminazione, l’interferenza nei processi elettorali, il prendere piede di una società che sorveglia e controlla le persone, l’esclusione digitale e l’inasprimento di un individualismo sem-
ri rischiano di alimentare i conflitti e di ostacolare la pace.

 

  1. Il senso del limite nel paradigma tecnocratico

 

     Il nostro mondo è troppo vasto, vario e complesso per essere completamente conosciuto e classificato. La mente umana non potrà mai esaurirne la ricchezza, nemmeno con l’aiuto degli algoritmi più avanzati. Questi, infatti, non offrono previsioni garantite del futuro, ma solo approssimazioni statistiche. Non tutto può essere pronosticato, non tutto può essere calcolato; alla fine «la realtà è superiore all’idea»[9] e, per quanto prodigiosa possa essere la nostra capacità di calcolo, ci sarà sempre un residuo inaccessibile che sfugge a qualsiasi tentativo di misurazione.

     Inoltre la grande quantità di dati analizzati dalle intelligenze artificiali non è di per sé garanzia di imparzialità. Quando gli algoritmi estrapolano informazioni, corrono sempre il rischio di distorcerle, replicando le ingiustizie e i pregiudizi degli ambienti in cui esse hanno origine. Più diventano veloci e complessi, più è difficile comprendere perché abbiano prodotto un determinato risultato.

     Le macchine «intelligenti» possono svolgere i compiti loro assegnati con sempre maggiore efficienza, ma lo scopo e il significato delle loro operazioni continueranno a essere determinati o abilitati da esseri umani in possesso di un proprio universo di valori. Il rischio è che i criteri alla base di certe scelte diventino meno chiari, che la responsabilità decisionale venga nascosta e che i produttori possano sottrarsi all’obbligo di agire per il bene della comunità. In un certo senso ciò è favorito dal sistema tecnocratico, che allea l’economia con la tecnologia e privilegia il criterio dell’efficienza, tendendo a ignorare tutto ciò che non è legato ai suoi interessi immediati.[10]

     Questo deve farci riflettere su un aspetto tanto spesso trascurato nella mentalità attuale, tecnocratica ed efficientista, quanto decisivo per lo sviluppo personale e sociale: il «senso del limite». L’essere umano, infatti, mortale per definizione, pensando di travalicare ogni limite in virtù della tecnica, rischia, nell’ossessione di voler controllare tutto, di perdere il controllo su se stesso; nella ricerca di una libertà assoluta, di cadere nella spirale di una dittatura tecnologica. Riconoscere e accettare il proprio limite di creatura è per l’uomo condizione indispensabile per conseguire, o meglio, accogliere in dono la pienezza. Invece nel contesto ideologico di un paradigma tecnocratico, animato da una prometeica presunzione di autosufficienza, le disuguaglianze potrebbero crescere a dismisura, e la conoscenza e la ricchezza accumularsi nelle mani di pochi, con gravi rischi per le società democratiche e la coesistenza pacifica.[11]

 

  1. Temi scottanti per l’etica

 

     In futuro l’affidabilità di chi richiede un mutuo, l’idoneità di un individuo a un lavoro, la possibilità di recidiva di un condannato o il diritto a ricevere asilo politico o assistenza sociale potrebbero essere determinati da sistemi di intelligenza artificiale. La mancanza di diversificati livelli di mediazione che questi sistemi introducono è particolarmente esposta a forme di pregiudizio e discriminazione: gli errori sistemici possono facilmente moltiplicarsi, producendo non solo ingiustizie in singoli casi ma anche, per effetto domino, vere e proprie forme di disuguaglianza sociale.

     Talvolta, inoltre, le forme di intelligenza artificiale sembrano in grado di influenzare le decisioni degli individui attraverso opzioni predeterminate associate a stimoli e dissuasioni, oppure mediante sistemi di regolazione delle scelte personali basati sull’organizzazione delle informazioni. Queste forme di manipolazione o di controllo sociale richiedono un’attenzione e una supervisione accurate, e implicano una chiara responsabilità legale da parte dei produttori, di chi le impiega e delle autorità governative.

     L’affidamento a processi automatici che categorizzano gli individui, ad esempio attraverso l’uso pervasivo della vigilanza o l’adozione di sistemi di credito sociale, potrebbe avere ripercussioni profonde anche sul tessuto civile, stabilendo improprie graduatorie tra i cittadini. E questi processi artificiali di classificazione potrebbero portare anche a conflitti di potere, non riguardando solo destinatari virtuali, ma persone in carne e ossa. Il rispetto fondamentale per la dignità umana postula di rifiutare che l’unicità della persona venga identificata con un insieme di dati. Non si deve permettere agli algoritmi di determinare il modo in cui intendiamo i diritti umani, di mettere da parte i valori essenziali della compassione, della misericordia e del perdono o di eliminare la possibilità che un individuo cambi e si lasci alle spalle il passato.

     In questo contesto non possiamo fare a meno di considerare l’impatto delle nuove tecnologie in ambito lavorativo: mansioni che un tempo erano appannaggio esclusivo della manodopera umana vengono rapidamente assorbite dalle applicazioni industriali dell’intelligenza artificiale. Anche in questo caso c’è il rischio sostanziale di un vantaggio sproporzionato per pochi a scapito dell’impoverimento di molti. Il rispetto della dignità dei lavoratori e l’importanza dell’occupazione per il benessere economico delle persone, delle famiglie e delle società, la sicurezza degli impieghi e l’equità dei salari dovrebbero costituire un’alta priorità per la comunità internazionale, mentre queste forme di tecnologia penetrano sempre più profondamente nei luoghi di lavoro.

 

  1. Trasformeremo le spade in vomeri?

     In questi giorni, guardando il mondo che ci circonda, non si può sfuggire alle gravi questioni etiche legate al settore degli armamenti. La possibilità di condurre operazioni militari attraverso sistemi di controllo remoto ha portato a una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a un approccio ancora più freddo e distaccato all’immensa tragedia della guerra. La ricerca sulle tecnologie emergenti nel settore dei cosiddetti «sistemi d’arma autonomi letali», incluso l’utilizzo bellico dell’intelligenza artificiale, è un grave motivo di preoccupazione etica. I sistemi d’arma autonomi non potranno mai essere soggetti moralmente responsabili: l’esclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina che, per quanto «intelligente», rimane pur sempre una macchina. Per questo motivo è imperativo garantire una supervisione umana adeguata, significativa e coerente dei sistemi d’arma.

     Non possiamo nemmeno ignorare la possibilità che armi sofisticate finiscano nelle mani sbagliate, facilitando, ad esempio, attacchi terroristici o interventi volti a destabilizzare istituzioni di governo legittime. Il mondo, insomma, non ha proprio bisogno che le nuove tecnologie contribuiscano all’iniquo sviluppo del mercato e del commercio delle armi, promuovendo la follia della guerra. Così facendo non solo l’intelligenza, ma il cuore stesso dell’uomo correrà il rischio di diventare sempre più «artificiale». Le più avanzate applicazioni tecniche non vanno impiegate per agevolare la risoluzione violenta dei conflitti, ma per pavimentare le vie della pace.

     In un’ottica più positiva, se l’intelligenza artificiale fosse utilizzata per promuovere lo sviluppo umano integrale, potrebbe introdurre importanti innovazioni nell’agricoltura, nell’istruzione e nella cultura, un miglioramento del livello di vita di intere nazioni e popoli, la crescita della fraternità umana e dell’amicizia sociale. In definitiva, il modo in cui la utilizziamo per includere gli ultimi, cioè i fratelli e le sorelle più deboli e bisognosi, è la misura rivelatrice della nostra umanità.

     Uno sguardo umano e il desiderio di un futuro migliore per il nostro mondo portano alla necessità di un dialogo interdisciplinare finalizzato a uno sviluppo etico degli algoritmi – l’algor-etica –, in cui siano i valori a orientare i percorsi delle nuove tecnologie.[12] Le questioni etiche dovrebbero essere tenute in considerazione fin dall’inizio della ricerca, così come nelle fasi di sperimentazione, progettazione, produzione, distribuzione e commercializzazione. Questo è l’approccio dell’etica della progettazione, in cui le istituzioni educative e i responsabili del processo decisionale hanno un ruolo essenziale da svolgere.

 

  1. Sfide
    per l’educazione

 

     Lo sviluppo di una tecnologia che rispetti e serva la dignità umana ha chiare implicazioni per le istituzioni educative e per il mondo della cultura. Moltiplicando le possibilità di comunicazione, le tecnologie digitali hanno permesso di incontrarsi in modi nuovi. Tuttavia rimane la necessità di una riflessione continua sul tipo di relazioni a cui ci stanno indirizzando. I giovani stanno crescendo in ambienti culturali pervasi dalla tecnologia e questo non può non mettere in discussione i metodi di insegnamento e formazione.

     L’educazione all’uso di forme di intelligenza artificiale dovrebbe mirare soprattutto a promuovere il pensiero critico. È necessario che gli utenti di ogni età, ma soprattutto i giovani, sviluppino una capacità di discernimento nell’uso di dati e contenuti raccolti sul web o prodotti da sistemi di intelligenza artificiale. Le scuole, le università e le società scientifiche sono chiamate ad aiutare gli studenti e i professionisti a fare propri gli aspetti sociali ed etici dello sviluppo e dell’utilizzo della tecnologia.

     La formazione all’uso dei nuovi strumenti di comunicazione dovrebbe tenere conto non solo della disinformazione, delle fake news, ma anche dell’inquietante recrudescenza di «paure ancestrali (…) che hanno saputo nascondersi e potenziarsi dietro nuove tecnologie».[13] Purtroppo ancora una volta ci troviamo a dover combattere «la tentazione di fare una cultura dei muri, di alzare muri per impedire l’incontro con altre culture, con altra gente»[14] e lo sviluppo di una coesistenza pacifica e fraterna.

 

 

  1. Sfide per lo sviluppo
    del diritto internazionale

 

     La portata globale dell’intelligenza artificiale rende evidente che, accanto alla responsabilità degli stati sovrani di disciplinarne l’uso al proprio interno, le organizzazioni internazionali possono svolgere un ruolo decisivo nel raggiungere accordi multilaterali e nel coordinarne l’applicazione e l’attuazione.[15] A tale proposito esorto la comunità delle nazioni a lavorare unita al fine di adottare un trattato internazionale vincolante, che regoli lo sviluppo e l’uso dell’intelligenza artificiale nelle sue molteplici forme. L’obiettivo della regolamentazione, naturalmente, non dovrebbe essere solo la prevenzione delle cattive pratiche, ma anche l’incoraggiamento delle buone pratiche, stimolando approcci nuovi e creativi e facilitando iniziative personali e collettive.[16]

     In definitiva, nella ricerca di modelli normativi che possano fornire una guida etica agli sviluppatori di tecnologie digitali, è indispensabile identificare i valori umani che dovrebbero essere alla base dell’impegno delle società per formulare, adottare e applicare necessari quadri legislativi. Il lavoro di redazione di linee guida etiche per la produzione di forme di intelligenza artificiale non può prescindere dalla considerazione di questioni più profonde riguardanti il significato dell’esistenza umana, la tutela dei diritti umani fondamentali, il perseguimento della giustizia e della pace.

     Questo processo di discernimento etico e giuridico può rivelarsi un’occasione preziosa per una riflessione condivisa sul ruolo che la tecnologia dovrebbe avere nella nostra vita individuale e comunitaria e su come il suo utilizzo possa contribuire alla creazione di un mondo più equo e umano. Per questo motivo, nei dibattiti sulla regolamentazione dell’intelligenza artificiale, si dovrebbe tenere conto della voce di tutte le parti interessate, compresi i poveri, gli emarginati e altri che spesso rimangono inascoltati nei processi decisionali globali.

 

     Spero che questa riflessione incoraggi a far sì che i progressi nello sviluppo di forme di intelligenza artificiale servano, in ultima analisi, la causa della fraternità umana e della pace. Non è responsabilità di pochi, ma dell’intera famiglia umana. La pace, infatti, è il frutto di relazioni che riconoscono e accolgono l’altro nella sua inalienabile dignità, e di cooperazione e impegno nella ricerca dello sviluppo integrale di tutte le persone e di tutti i popoli.

     La mia preghiera all’inizio del nuovo anno è che il rapido sviluppo di forme di intelligenza artificiale non accresca le troppe disuguaglianze e ingiustizie già presenti nel mondo, ma contribuisca a porre fine a guerre e conflitti, e ad alleviare molte forme di sofferenza che affliggono la famiglia umana. Possano i fedeli cristiani, i credenti di varie religioni e gli uomini e le donne di buona volontà collaborare in armonia per cogliere le opportunità e affrontare le sfide poste dalla rivoluzione digitale, e consegnare alle generazioni future un mondo più solidale, giusto e pacifico.

 

      Dal Vaticano, 8 dicembre 2023.

 

Francesco

 

[1] Concilio ecumenico Vaticano II, cost. past. Gaudium et spes (GS) sulla Chiesa nel mondo contemporaneo, n. 33; EV 1/1423.

[2]GS 57; EV 1/1505.

[3] Cf. Francesco, lett. enc. Laudato si’ sulla cura della casa comune, 24.5.2015, n.104; EV 31/685.

[4] Cf. ivi, n. 114; EV 31/694.

[5] Francesco, Udienza ai partecipanti all’incontro «Minerva Dialogues», 27.3.2023.

[6] Cf. ivi.

[7] Cf. Messaggio al presidente esecutivo del World economic forum a Davos-Klosters, 12.1.2018; https://bit.ly/41lYT23.

[8] Francesco, Laudato si’, n. 194; EV 31/774; Francesco, Discorso ai partecipanti al seminario «Il bene comune nell’era digitale», 27.9.2019.

 

[9] Francesco, Evangelii gaudium, n. 233; EV 29/2339.

[10] Cf. Francesco, lett. enc. Laudato si’, n. 54; EV 31/634.

[11] Cf. Discorso ai partecipanti alla Plenaria della Pontificia accademia per la vita, 28.2.2020.

[12] Cf. ivi.

[13] Francesco, lett. enc. Fratelli tutti, 3.10.2020, n. 27; Regno-doc. 17,2020,527.

[14] Cf. ivi.

[15] Cf. ivi, nn. 170-175; Regno-doc. 17,2020,552ss.

[16] Cf. Francesco, Laudato si’, n. 177.

Tipo Documento
Tema Francesco Pace - Guerra
Area
Nazioni

Leggi anche

Attualità, 2024-22

Francesco - Notre-Dame: segno di rinnovamento

Francesco

In occasione della riapertura della cattedrale di Notre-Dame papa Francesco ha inviato all’arcivescovo di Parigi, Laurent Ulrich, questo messaggio.

Documenti, 2024-21

Il papa: il Documento finale è magistero

Francesco

Il 25 novembre la Sala stampa vaticana ha pubblicato una Nota di accompagnamento del Documento finale della XVI Assemblea generale ordinaria del Sinodo dei vescovi, firmata da papa Francesco (www.vatican.va). Essa formalizza quanto già era stato detto nella conferenza stampa di pubblicazione il 26 ottobre: il Documento finale «partecipa del magistero ordinario del successore di Pietro (…) e come tale chiedo che venga accolto».

Documenti, 2024-21

Alla ricerca della verità

Viaggio apostolico in Lussemburgo e Belgio (26-29 settembre 2024)

Francesco

Nel viaggio apostolico che ha portato papa Francesco in Lussemburgo e in Belgio dal 26 al 29 settembre, i centri d’attenzione sono stati principalmente due: la questione delle violenze sessuali nella Chiesa belga, che negli ultimi vent’anni ha portato una tempestosa stagione di scandali, mea culpa e un processo di autoriforma ecclesiale; e la questione del rapporto con l’Università cattolica di Lovanio, il più antico ateneo cattolico, dove papa Francesco ha incontrato i docenti (sezione fiamminga) e gli studenti (sezione francofona).

In entrambi questi incontri Francesco ha sottolineato il tema della verità e della vocazione dell’università a «mantenere accesa la fiamma della ricerca e a rimanere una finestra aperta al mondo di oggi», contro i rischi del relativismo e del razionalismo. Nell’incontro con gli studenti è stata letta al papa una lettera (bit.ly/4eKZK17) sulle radici filosofiche e teologiche della crisi climatica, il posto delle emozioni e dell’impegno, la questione delle disuguaglianze, il ruolo delle donne e gli atteggiamenti della sobrietà e della solidarietà di fronte all’emergenza climatica. La risposta del papa ha portato a una contestazione sul ruolo della donna nella società, che ha preso la forma di un comunicato stampa dell’Università il 30 novembre (cf. riquadro a p. 697).