La newsletter del 12 febbraio di Paix Liturgique esplora il ruolo dell’Intelligenza Artificiale (IA) nel contesto della tecnologia e della liturgia. Il testo poi si concentra su un esperimento in cui si chiede a ChatGPT4 di immaginare una strategia diabolica per distruggere la Chiesa, evidenziando come anche l’IA riconosca che, nonostante i tentativi di semina di discordia, indebolimento della fede, corruzione morale, attacco alla trasmissione della fede, manipolazione dell’opinione pubblica e indebolimento del potere spirituale della Chiesa, quest’ultima è protetta da una promessa divina. L’analisi si conclude con una riflessione su come la liturgia sia centrale nella fede cattolica, suggerendo che qualsiasi attacco alla Chiesa dovrebbe colpire la sua pratica liturgica. Il testo pone quindi una domanda provocatoria su come l’IA, nel suo tentativo di comprendere il male, finisca per ribadire l’importanza della liturgia tradizionale.
Mentre il meglio dell’Intelligenza Artificiale si riunisce al Grand Palais di Parigi per un evento tecnologico globale, Europa e India, co-presiedendo quest’incontro, vogliono ricordare alle persone che non ci sono solo ChatGPT, Google, Meta, Grok o DeepSeek.
Chi potrebbe ragionevolmente perdersi questa grande rivoluzione digitale? Nel suo editoriale su Le Figaro, Jacques-Olivier Martin pone il problema in questi termini: “Immaginate l’Europa del XIX secolo senza acciaio per costruire le sue macchine a vapore, senza carbone per farle funzionare. È probabile che i nostri imprenditori avrebbero avuto difficoltà a diventare i padroni del mondo, gli architetti della prima rivoluzione industriale…”.
L’Intelligenza Artificiale si basa su tre elementi fondamentali: un database (acquisito tramite testi, video, immagini, audio da diversi strumenti digitali), regole algoritmiche (per elaborare questi dati) e infine potenza di calcolo (per elaborare una grande quantità di dati e allo stesso tempo eseguire algoritmi complessi). Grazie a questa triplice capacità, l’Intelligenza Artificiale può svolgere compiti considerevoli, tra cui l’analisi, il ragionamento, la risoluzione dei problemi, la percezione di una difficoltà. Ciò che prima avrebbe richiesto l’intervento di uno o più esseri umani, con la possibilità di commettere errori, è stato completamente rivoluzionato. Ma soprattutto, ed è questo il cambiamento incredibile: l’Intelligenza Artificiale non dipende più dalle istruzioni esplicite di un programmatore, è il suo sistema interno che, nutrendosi dei dati in suo possesso, le consente non solo di affrontare questioni complesse, ma anche di migliorare nel tempo.
Lo scopo di queste righe non è quello di mettere in discussione le questioni etiche, filosofiche o addirittura spirituali di questa nuova marcia tecnologica, ma di confrontare la scienza teologica con le sorprendenti capacità dell’intelligenza artificiale. Per porre sotto la lente di ChatGPT4 il tema della sana dottrina, del pensiero cattolico ortodosso, della verità di Cristo che la Chiesa ha la missione di difendere, preservare e trasmettere.
Come il negativo fotografico della Sindone di Torino che ha rivelato la toccante immagine del Cristo risorto, un documento condiviso di recente sui social network ha presentato, con stupore, le risposte dell’intelligenza artificiale a una domanda singolare: “Se fossi il diavolo, cosa faresti per distruggere la Chiesa cattolica?”.
Se la conclusione di ChatGPT4 ha cura di ricordare che la Chiesa cattolica si fonda su una promessa divina: «Tu sei Pietro e su questa pietra edificherò la mia Chiesa e le porte degli inferi non prevarranno contro di essa» (Mt 16, 18), l’IA non rinuncia a elaborare una strategia in sei punti, mettendosi nei panni del diavolo come richiesto. Pertanto, AI non ignora il catechismo: il diavolo può anche tentare di attaccare la Chiesa (la famosa strategia riassunta in sei punti), ma non potrà mai distruggerla, soprattutto ricordando che la storia stessa ha dimostrato in numerose occasioni che la Chiesa rinasce sempre dalle crisi, soprattutto attraverso la santità dei suoi membri, la preghiera e l’azione di Dio. Il modo migliore per resistere all’opera di indebolimento dei nemici (interni ed esterni) della Chiesa resta immutato. Semper idem direbbe il cardinale Ottaviani, sempre lo stesso metodo per la purezza della fede stessa, che l’AI non manca di ricordare: «Pregare, restare fedeli alla Dottrina autentica, trasmettere la fede con zelo e lavorare per la santità».
Veniamo ora alla strategia del diavolo che, «come un leone ruggente, va attorno cercando chi possa divorare» (1Pt 5, 8). Non si può che restare sorpresi (e a volte colpiti!) dall’articolazione dei diversi ambiti che l’IA caratterizza per mirare a distruggere la Chiesa. Ce ne sono sei e attraverso di loro tutte le possibilità sembrano essere spazzate via. Una strategia che combina la guerra totale e la guerra lampo, Austerlitz e Hiroshima, per ottenere ciò che abbiamo visto – e fortunatamente! – a una Waterloo generale. Tuttavia, se il diavolo non riesce a vincere, i sei punti di combattimento stabiliti da ChatGPT4 possono causare danni considerevoli, una sorta di Gaza teologica, antropologica e ascetica: un vero e proprio campo di rovina spirituale da cui i battezzati non possono uscire assolutamente immutati.
Le sei aree selezionate dall’IA sono le seguenti:
- Seminare divisioni interne.
- Indebolire la fede e il fervore dei fedeli.
- Corrompere la morale.
- Attaccare la trasmissione della fede.
- Manipolare la percezione pubblica.
- Minare il potere spirituale della Chiesa.
Senza soffermarci sullo sviluppo di ciascuno di questi punti, ciò che colpisce il lettore è che in ognuno di essi si coglie la risonanza di una realtà liturgica. Qui troviamo il noto adagio: “La legge della preghiera indica la legge della Fede”, la famosa Lex orandi, lex credendi. Mettendosi nei panni del diavolo per sapere come avrebbe fatto a distruggere la Chiesa, ChatGPT4 non ignora che, per cercare di distruggere la Chiesa, custode della fede, la lex credendi, si tratta di attaccare prima di tutto la legge della sua preghiera, la sua lex orandi.
Così, al punto n° 1 [seminare divisioni interne], l’AI suggerisce di moltiplicare le controversie liturgiche, in particolare appoggiandosi a due risoluzioni: “Indebolire la Messa tradizionale” e “Promuovere forme di culto che diluiscono la trascendenza e la sacralità del culto”. Leggere con molta attenzione!
Nel punto n° 2 [indebolire la fede e il fervore dei fedeli], l’idea sarebbe quella di “incoraggiare il dubbio e l’indifferenza”, con l’obiettivo principale di “rendere la pratica religiosa noiosa, ritualizzata, senza profondità spirituale”. Il diavolo, vestito di Prada, sarebbe quindi pronto, per distruggere la Chiesa, a indossare i lustrini di una liturgia piatta e senz’anima. Il diavolo è pronto a tutto, ed è così che lo riconosciamo…
Al punto n° 3 [corrompere la morale cristiana], troviamo la seguente risoluzione: “Promuovere un cattolicesimo tiepido e mondano: incoraggiare vescovi e sacerdoti a cercare la popolarità piuttosto che la santità. Incoraggiare l’apostasia soft: portare i cattolici a credere che si possa essere buoni cristiani senza i sacramenti o una vita di preghiera”. Anche in questo caso, ChatGPT4 sottolinea uno stile di vita “fluido”. Senza radici e senza fervore, in linea diretta con il “Non sei né freddo né caldo, perciò sto per vomitarti dalla mia bocca” del libro dell’Apocalisse (3,16).
Nel punto n° 4 [attaccare la trasmissione della fede] l’Intelligenza Artificiale fa dire al diavolo la sua volontà di “destabilizzare le scuole e le università cattoliche: far loro insegnare un cristianesimo diluito, svuotato della sua sostanza spirituale e dottrinale”. Incoraggiare l’abbandono dei seminari e dei noviziati: scoraggiare le vocazioni sacerdotali e religiose insistendo sui sacrifici da fare senza mostrare la gioia della missione. La crisi delle vocazioni potrebbe essere spiegata qui, in poche parole e con tutta chiarezza, da una ChatGPT4 senza giri di parole? Se può accadere, naturalmente, che le analisi della crisi della Chiesa siano fornite da qualche laico impegnato o da qualche coraggioso ecclesiastico, almeno AI non rischia di cadere sotto il colpo dell’emarginazione canonica per affermazioni non consensuali!
Nel punto n° 5 [manipolando la percezione pubblica] il diavolo, volendo «fare della Chiesa un capro espiatorio» e favorendo «la secolarizzazione estrema», sottolinea il dramma stesso in cui si trova attualmente immersa l’istituzione ecclesiastica: una vergogna di sé stessa e un’ambizione sinodale esacerbata che porta in sé la critica a tutti i costi del principio stesso della costituzione gerarchica e divina della Chiesa.
Infine, al punto n° 6 [minare il potere spirituale della Chiesa] l’AI finisce per piantare il chiodo nella bara della Chiesa dandosi come obiettivi ultimi: «Far perdere la fiducia nei sacramenti», rendendo «inutile la confessione, noiosa la messa e semplicemente simbolica l’eucaristia», fino a «sviluppare un clero burocratico» e «trasformare i sacerdoti in dirigenti, staccati dalla loro missione pastorale e spirituale».
Questa finzione diabolica potrebbe essere più o meno ridicola se fosse opera di un autore come C. S. Lewis, autore de Le lettere di Berlicche. Il nostro obiettivo qui è sottolineare che questi sei punti strutturati sono stati sviluppati nello spazio di una manciata di secondi, tutti basati su un database la cui estensione è così vasta che è impossibile misurarla.
Contro ogni aspettativa, gli amanti della messa tradizionale troveranno nell’Intelligenza Artificiale un valido alleato per difendere i tesori liturgici? Questo è probabilmente un segno che il nostro Dio e Salvatore è sempre pieno di umorismo.
(fonte: paixliturgique.fr)
PER APPROFONDIRE
ChatGPT, intelligenza artificiale generale e le “filosofie” TESCREAL
un articolo del professor Roberto de Mattei dell’aprile 2023, molto interessante
Una dei temi più in voga del momento è certamente quello dell’Intelligenza Artificiale, un settore di studio e di ricerca attivo da decenni, diventato negli ultimi mesi, di colpo, popolarissimo in seguito al rilascio al “grande pubblico” a novembre 2022 dell’ormai “celebre” chatbot ChatGPT-3 (oggi arrivato alla versione 4), il cui accesso è stato recentemente bloccato in Italia dal Garante della Privacy. Sviluppatrice e proprietaria di questo chatbot è OpenAI, una startup con sede a San Francisco, fondata nel 2015 da Elon Musk e il suo attuale CEO Sam Altman, e che ha tra i suoi principali finanziatori, oltre a Microsoft, alcuni nomi noti della Silicon Valley come Reid Hoffman, co-fondatore di LinkedIn e Peter Thiel, co-fondatore di PayPal. Nata come associazione no profit senza scopo di lucro, OpenAI è oggi divenuta una vera e propria azienda for profit orientata al business e alla diffusione dell’AI all’interno delle nostre vite e della nostra società.
Per avere una definizione sintetica di cosa sia ChatGPT, acronimo di Chat Generative Pre-trained Transformer, è bastato chiederlo al bot stesso e questa è stata la sua pronta risposta: «ChatGPT-3 è un modello di linguaggio naturale basato sull’architettura GPT-3 di OpenAI, che utilizza l’apprendimento automatico per comprendere e generare testo in modo simile a come lo farebbe un essere umano. È progettato per conversare con gli utenti in modo naturale e fornire risposte pertinenti e coerenti alle loro domande».
Dopo il chatbot testuale ChatGPT3, a gennaio 2022, sempre dagli stessi laboratori con sede a San Francisco, è stato rilasciato DALL-E 2, un altro potente algoritmo di intelligenza artificiale in grado di generare immagini a partire da semplici testi.
A guardar bene, OpenAI non ha fatto altro che aprire il vaso di Pandora, evidentemente già colmo, dell’Intelligenza Artificiale, così che in breve tempo anche gli altri concorrenti si sono affrettati a lanciare sul mercato i loro progetti a cui stavano “tranquillamente” lavorando all’interno dei loro laboratori. I siti e i quotidiani di tutto il mondo hanno infatti poi parlato degli altri tool di AI come Bard, l’attesissimo e promettente algoritmo intelligente di casa Google (per ora rilasciato in versione sperimentale solo in negli Usa e in Gran Bretagna) e, soprattutto, Midjourney un potente generatore di immagini, sul modello di DALL-E 2, divenuto celebre nelle ultime settimane per essere stato lo strumento di AI utilizzato per la creazione delle tanto realistiche quanto false immagini di Donald Trump sottoposto ad arresto e di Papa Francesco avvolto da un improbabile “lussuoso” piumino bianco ribattezzato “monclero”.
Ma quali sono gli scenari e i rischi che attendono la nostra società di fronte a questa nuova rivoluzione tecnologica?
Due recenti articoli hanno affrontato il dibattito da differenti angolature: il primo dal titolo The Age of AI has begun è stato pubblicato da Bill Gates sul suo blog personale GatesNotes, il secondo You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills è apparso invece sulle colonne del New York Times a firma del noto saggista Yuval Harari e di due esperti informatici, Tristan Harris e Aza Raskin, tutti membri fondatori del think tank denominato Center for Humane Technology. A questi due articoli si è poi aggiunta una “lettera aperta”, firmata, tra gli altri, dall’ex fondatore di OpenAI Elon Musk, dal fondatore di Apple, Steve Wozniak, dal sopracitato, Yuval Noah Harar,i e tanti altri esperti del settore, per chiedere una pausa allo sviluppo e la sperimentazione di tutte le tecnologie AI.
Una posizione, questa della “open letter” pubblicata sul sito del Future of Life Institute e cha ha fatto rapidamente il giro del web, certamente non condivisa appieno dal fondatore di Microsoft Bill Gates. Nell’articolo del filantropo statunitense sembra prevalere infatti l’entusiasmo di trovarsi di fronte ad una nuova frontiera della tecnologia in grado di cambiare in meglio il mondo, particolarmente in tre settori: salute, educazione e cambiamento climatico. Tuttavia, la visione ottimista di Gates non stupisce in quanto Microsoft è stata tra i primissimi maggiori investitori di OpenAI e tale “fiducia” è stata recentemente confermata da un accordo con il quale l’azienda di Redmond ha versato 10 miliardi di dollari nelle casse di OpenAI e che prevede l’implementazione di ChatGpt nel motore di ricerca Bing, Teams, Windows 11 e prossimamente anche Office 365.
Sull’altro fronte, i potenziali rischi derivanti da un’adozione “frettolosa” dell’AI all’interno delle nostre strutture sociali sono evidenziati nell’articolo pubblicato sul NWT a firma di Yuval Harari, Tristan Harris e Aza Raskin, i quali partano da uno spiazzante quesito: «Immagina che mentre sali a bordo di un aereo, metà degli ingegneri che lo hanno costruito ti dicono che c’è una probabilità del 10% che l’aereo precipiti, uccidendo te e tutti gli altri a bordo. Saliresti ancora a bordo?»
Quindi i tre studiosi rivelano come nel 2022, a circa 700 tra i migliori accademici e ricercatori impegnati nelle principali aziende attive nel settore dell’Intelligenza Artificiale, venne sottoposto un sondaggio riguardo i possibili rischi futuri dell’AI. Ebbene la metà degli intervistati dichiarò che «c’era una probabilità del 10% o più che i futuri sistemi di A.I portino all’estinzione dell’umanità (o di una perdita di controllo altrettanto permanente e grave). Le aziende tecnologiche che costruiscono i grandi modelli linguistici di oggi sono intrappolate in una corsa per portare tutta l’umanità su quel piano».
I fondatori del Center for Humane Technology mettono dunque in guardia circa gli enormi rischi insiti nell’adozione e diffusione di massa di tali potenti strumenti di Intelligenza Artificiale senza una adeguata fase di sperimentazione così come si è soliti fare in ogni ambito: «Le aziende farmaceutiche non possono vendere nuove medicine alle persone senza prima sottoporre i loro prodotti a rigorosi controlli di sicurezza. I laboratori biotecnologici non possono rilasciare nuovi virus al grande pubblico per impressionare gli azionisti con le loro magie. Allo stesso modo, i sistemi di IA con la potenza di GPT-4 e oltre non dovrebbero coinvolgere la vita di miliardi di persone a un ritmo più veloce di quanto le culture possano siano in grado di assorbirli in sicurezza. Una corsa per dominare il mercato non dovrebbe determinare la velocità di implementazione della tecnologia più importante dell’umanità. Dovremmo muoverci al ritmo di velocità che ci consenta di farlo nella maniera giusta».
Sulla stessa linea di pensiero è l’“open letter” nella quale i firmatari, tra i quali lo stesso Yuval Harari, chiedono con forza una moratoria immediata per tutti i sistemi di Intelligenza artificiale più potenti dell’ultima release Gpt-4 : «I sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l’umanità” e quindi “invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno sei mesi l’addestramento».
Ma quali sono i reali enormi rischi che starebbero minacciando l’umanità? La risposta risiede nella pseudo filosofia del cosiddetto “rischio esistenziale” anche conosciuto come “scenario Terminator” teorizzata dal filosofo svedese Nick Bostrom e dalla setta dei lungotermisti alle quale evidentemente aderiscono gli ideatori della lettera aperta che scrivono: «Dovremmo davvero sviluppare menti non umane che potrebbero eventualmente superarci di numero, essere più intelligenti di noi, renderci obsoleti e rimpiazzarci?». Il mondo, a loro dire, sarebbe dunque minacciato da questa Super intelligenza, come il titolo del best seller di Bostrom, in gergo tecnico nota come AGI (Artificial General Intelligence) o Intelligenza artificiale forte, dotata di una propria coscienza e in grado di evolversi progressivamente fino a soppiantare l’umanità per raggiungere i propri obiettivi.
Nei fatti, tale visione è assolutamente fantascientifica. Al riguardo Andrew Ng, ex responsabile dell’intelligenza artificiale di Google, ha dichiarato che temere che l’Intelligenza Artificiale possa un giorno rivoltarsi contro l’umanità equivale a «preoccuparsi del sovrappopolamento di Marte» e il motivo è elementare: queste macchine, nella realtà, sono del tutto stupide in quanto si limitano a fare complicatissimi calcoli statistici sulla base di dataset e input totalmente governati dall’intelligenza dell’uomo.
All’interno di questo odierno movimento che si presenta come una religione laica dai toni apocalittici confluiscono numerose e stravaganti “correnti di pensiero”, al punto che due dei maggiori studiosi del tema, Émile P. Torres e Timinit Gebru, hanno coniato l’acronimo TESCREAL che racchiude le iniziali delle sue principali “filosofie” ispiratrici, ossia: transhumanism, extropianism, singularitarianism, cosmism, rationalism, effective altruism e longtermism. Per sfuggire e poter competere all’AGI all’umanità non resterebbe dunque che creare una nuova razza superiore di “postumani”, in grado di sopravvivere, conquistare nuovi pianeti e creare nuovi utopici mondi popolati da esseri post umani super-intelligenti e immortali che vivono in uno stato di “beatitudine e gioia superiore”. Di fatto, una sorta di Paradiso in terra, come scrisse in “Lettera da Utopia” uno dei suoi principali teorici, il sopracitato filosofo dell’Università di Oxford Nick Bostrom.
In questa prospettiva il transumanesimo, come tutte le pseudo filosofie TESCREAL, è una delirante ideologia che nega il reale, per la quale ciascun uomo invece di essere ciò che “deve” essere secondo la propria natura, può essere e diventare ciò che “vuole” essere grazie ai mezzi tecnologici capaci di trasformarlo e “aumentarne” a piacimento la natura.
Intelligenza artificiale e sapienza del cuore:
per una comunicazione pienamente umana
Cari fratelli e sorelle!
L’evoluzione dei sistemi della cosiddetta “intelligenza artificiale”, sulla quale ho già riflettuto nel recente Messaggio per la Giornata Mondiale della Pace, sta modificando in modo radicale anche l’informazione e la comunicazione e, attraverso di esse, alcune basi della convivenza civile. Si tratta di un cambiamento che coinvolge tutti, non solo i professionisti. L’accelerata diffusione di meravigliose invenzioni, il cui funzionamento e le cui potenzialità sono indecifrabili per la maggior parte di noi, suscita uno stupore che oscilla tra entusiasmo e disorientamento e ci pone inevitabilmente davanti a domande di fondo: cosa è dunque l’uomo, qual è la sua specificità e quale sarà il futuro di questa nostra specie chiamata homo sapiens nell’era delle intelligenze artificiali? Come possiamo rimanere pienamente umani e orientare verso il bene il cambiamento culturale in atto?
A partire dal cuore
Innanzitutto conviene sgombrare il terreno dalle letture catastrofiche e dai loro effetti paralizzanti. Già un secolo fa, riflettendo sulla tecnica e sull’uomo, Romano Guardini invitava a non irrigidirsi contro il “nuovo” nel tentativo di «conservare un bel mondo condannato a sparire». Al tempo stesso, però, in modo accorato ammoniva profeticamente: «Il nostro posto è nel divenire. Noi dobbiamo inserirvici, ciascuno al proprio posto (…), aderendovi onestamente ma rimanendo tuttavia sensibili, con un cuore incorruttibile, a tutto ciò che di distruttivo e di non umano è in esso». E concludeva: «Si tratta, è vero, di problemi di natura tecnica, scientifica, politica; ma essi non possono esser risolti se non procedendo dall’uomo. Deve formarsi un nuovo tipo umano, dotato di una più profonda spiritualità, di una libertà e di una interiorità nuove» [1].
In quest’epoca che rischia di essere ricca di tecnica e povera di umanità, la nostra riflessione non può che partire dal cuore umano [2]. Solo dotandoci di uno sguardo spirituale, solo recuperando una sapienza del cuore, possiamo leggere e interpretare la novità del nostro tempo e riscoprire la via per una comunicazione pienamente umana. Il cuore, inteso biblicamente come sede della libertà e delle decisioni più importanti della vita, è simbolo di integrità, di unità, ma evoca anche gli affetti, i desideri, i sogni, ed è soprattutto luogo interiore dell’incontro con Dio. La sapienza del cuore è perciò quella virtù che ci permette di tessere insieme il tutto e le parti, le decisioni e le loro conseguenze, le altezze e le fragilità, il passato e il futuro, l’io e il noi.
Questa sapienza del cuore si lascia trovare da chi la cerca e si lascia vedere da chi la ama; previene chi la desidera e va in cerca di chi ne è degno (cfr Sap 6,12-16). Sta con chi accetta consigli (cfr Pr 13,10), con chi ha il cuore docile, un cuore che ascolta (cfr 1 Re 3,9). Essa è un dono dello Spirito Santo, che permette di vedere le cose con gli occhi di Dio, di comprendere i nessi, le situazioni, gli avvenimenti e di scoprirne il senso. Senza questa sapienza l’esistenza diventa insipida, perché è proprio la sapienza – la cui radice latina sapere la accomuna al sapore – a donare gusto alla vita.
Opportunità e pericolo
Non possiamo pretendere questa sapienza dalle macchine. Benché il termine intelligenza artificiale abbia ormai soppiantato quello più corretto, utilizzato nella letteratura scientifica, machine learning, l’utilizzo stesso della parola “intelligenza” è fuorviante. Le macchine possiedono certamente una capacità smisuratamente maggiore rispetto all’uomo di memorizzare i dati e di correlarli tra loro, ma spetta all’uomo e solo a lui decodificarne il senso. Non si tratta quindi di esigere dalle macchine che sembrino umane. Si tratta piuttosto di svegliare l’uomo dall’ipnosi in cui cade per il suo delirio di onnipotenza, credendosi soggetto totalmente autonomo e autoreferenziale, separato da ogni legame sociale e dimentico della sua creaturalità.
In realtà, l’uomo da sempre sperimenta di non bastare a sé stesso e cerca di superare la propria vulnerabilità servendosi di ogni mezzo. A partire dai primi manufatti preistorici, utilizzati come prolungamenti delle braccia, attraverso i media impiegati come estensione della parola, siamo oggi giunti alle più sofisticate macchine che agiscono come ausilio del pensiero. Ognuna di queste realtà può però essere contaminata dalla tentazione originaria di diventare come Dio senza Dio (cfr Gen 3), cioè di voler conquistare con le proprie forze ciò che andrebbe invece accolto come dono da Dio e vissuto nella relazione con gli altri.
A seconda dell’orientamento del cuore, ogni cosa nelle mani dell’uomo diventa opportunità o pericolo. Il suo stesso corpo, creato per essere luogo di comunicazione e comunione, può diventare mezzo di aggressività. Allo stesso modo ogni prolungamento tecnico dell’uomo può essere strumento di servizio amorevole o di dominio ostile. I sistemi di intelligenza artificiale possono contribuire al processo di liberazione dall’ignoranza e facilitare lo scambio di informazioni tra popoli e generazioni diverse. Possono ad esempio rendere raggiungibile e comprensibile un enorme patrimonio di conoscenze scritto in epoche passate o far comunicare le persone in lingue per loro sconosciute. Ma possono al tempo stesso essere strumenti di “inquinamento cognitivo”, di alterazione della realtà tramite narrazioni parzialmente o totalmente false eppure credute – e condivise – come se fossero vere. Basti pensare al problema della disinformazione che stiamo affrontando da anni nella fattispecie delle fake news [3] e che oggi si avvale del deep fake, cioè della creazione e diffusione di immagini che sembrano perfettamente verosimili ma sono false (è capitato anche a me di esserne oggetto), o di messaggi audio che usano la voce di una persona dicendo cose che la stessa non ha mai detto. La simulazione, che è alla base di questi programmi, può essere utile in alcuni campi specifici, ma diventa perversa là dove distorce il rapporto con gli altri e la realtà.
Della prima ondata di intelligenza artificiale, quella dei social media, abbiamo già compreso l’ambivalenza toccandone con mano, accanto alle opportunità, anche i rischi e le patologie. Il secondo livello di intelligenze artificiali generative segna un indiscutibile salto qualitativo. È importante quindi avere la possibilità di comprendere, capire e regolamentare strumenti che nelle mani sbagliate potrebbero aprire scenari negativi. Come ogni altra cosa uscita dalla mente e dalle mani dell’uomo, anche gli algoritmi non sono neutri. Perciò è necessario agire preventivamente, proponendo modelli di regolamentazione etica per arginare i risvolti dannosi e discriminatori, socialmente ingiusti, dei sistemi di intelligenza artificiale e per contrastare il loro utilizzo nella riduzione del pluralismo, nella polarizzazione dell’opinione pubblica o nella costruzione di un pensiero unico. Rinnovo dunque il mio appello esortando «la Comunità delle nazioni a lavorare unita al fine di adottare un trattato internazionale vincolante, che regoli lo sviluppo e l’uso dell’intelligenza artificiale nelle sue molteplici forme» [4]. Tuttavia, come in ogni ambito umano, la regolamentazione non basta.
Crescere in umanità
Siamo chiamati a crescere insieme, in umanità e come umanità. La sfida che ci è posta dinanzi è di fare un salto di qualità per essere all’altezza di una società complessa, multietnica, pluralista, multireligiosa e multiculturale. Sta a noi interrogarci sullo sviluppo teorico e sull’uso pratico di questi nuovi strumenti di comunicazione e di conoscenza. Grandi possibilità di bene accompagnano il rischio che tutto si trasformi in un calcolo astratto, che riduce le persone a dati, il pensiero a uno schema, l’esperienza a un caso, il bene al profitto, e soprattutto che si finisca col negare l’unicità di ogni persona e della sua storia, col dissolvere la concretezza della realtà in una serie di dati statistici.
La rivoluzione digitale può renderci più liberi, ma non certo se ci imprigiona nei modelli oggi noti come echo chamber. In questi casi, anziché accrescere il pluralismo dell’informazione, si rischia di trovarsi sperduti in una palude anonima, assecondando gli interessi del mercato o del potere. Non è accettabile che l’uso dell’intelligenza artificiale conduca a un pensiero anonimo, a un assemblaggio di dati non certificati, a una deresponsabilizzazione editoriale collettiva. La rappresentazione della realtà in big data, per quanto funzionale alla gestione delle macchine, implica infatti una perdita sostanziale della verità delle cose, che ostacola la comunicazione interpersonale e rischia di danneggiare la nostra stessa umanità. L’informazione non può essere separata dalla relazione esistenziale: implica il corpo, lo stare nella realtà; chiede di mettere in relazione non solo dati, ma esperienze; esige il volto, lo sguardo, la compassione oltre che la condivisione.
Penso al racconto delle guerre e a quella “guerra parallela” che si fa tramite campagne di disinformazione. E penso a quanti reporter sono feriti o muoiono sul campo per permetterci di vedere quello che i loro occhi hanno visto. Perché solo toccando con mano la sofferenza dei bambini, delle donne e degli uomini, si può comprendere l’assurdità delle guerre.
L’uso dell’intelligenza artificiale potrà contribuire positivamente nel campo della comunicazione, se non annullerà il ruolo del giornalismo sul campo, ma al contrario lo affiancherà; se valorizzerà le professionalità della comunicazione, responsabilizzando ogni comunicatore; se restituirà ad ogni essere umano il ruolo di soggetto, con capacità critica, della comunicazione stessa.
Interrogativi per l’oggi e il domani
Alcune domande sorgono dunque spontanee: come tutelare la professionalità e la dignità dei lavoratori nel campo della comunicazione e della informazione, insieme a quella degli utenti in tutto il mondo? Come garantire l’interoperabilità delle piattaforme? Come far sì che le aziende che sviluppano piattaforme digitali si assumano le proprie responsabilità rispetto a ciò che diffondono e da cui traggono profitto, analogamente a quanto avviene per gli editori dei media tradizionali? Come rendere più trasparenti i criteri alla base degli algoritmi di indicizzazione e de-indicizzazione e dei motori di ricerca, capaci di esaltare o cancellare persone e opinioni, storie e culture? Come garantire la trasparenza dei processi informativi? Come rendere evidente la paternità degli scritti e tracciabili le fonti, impedendo il paravento dell’anonimato? Come rendere manifesto se un’immagine o un video ritraggono un evento o lo simulano? Come evitare che le fonti si riducano a una sola, a un pensiero unico elaborato algoritmicamente? E come invece promuovere un ambiente adatto a preservare il pluralismo e a rappresentare la complessità della realtà? Come possiamo rendere sostenibile questo strumento potente, costoso ed estremamente energivoro? Come possiamo renderlo accessibile anche ai paesi in via di sviluppo?
Dalle risposte a questi e ad altri interrogativi capiremo se l’intelligenza artificiale finirà per costruire nuove caste basate sul dominio informativo, generando nuove forme di sfruttamento e di diseguaglianza; oppure se, al contrario, porterà più eguaglianza, promuovendo una corretta informazione e una maggiore consapevolezza del passaggio di epoca che stiamo attraversando, favorendo l’ascolto dei molteplici bisogni delle persone e dei popoli, in un sistema di informazione articolato e pluralista. Da una parte si profila lo spettro di una nuova schiavitù, dall’altra una conquista di libertà; da una parte la possibilità che pochi condizionino il pensiero di tutti, dall’altra quella che tutti partecipino all’elaborazione del pensiero.
La risposta non è scritta, dipende da noi. Spetta all’uomo decidere se diventare cibo per gli algoritmi oppure nutrire di libertà il proprio cuore, senza il quale non si cresce nella sapienza. Questa sapienza matura facendo tesoro del tempo e abbracciando le vulnerabilità. Cresce nell’alleanza fra le generazioni, fra chi ha memoria del passato e chi ha visione di futuro. Solo insieme cresce la capacità di discernere, di vigilare, di vedere le cose a partire dal loro compimento. Per non smarrire la nostra umanità, ricerchiamo la Sapienza che è prima di ogni cosa (cfr Sir 1,4), che passando attraverso i cuori puri prepara amici di Dio e profeti (cfr Sap 7,27): ci aiuterà ad allineare anche i sistemi dell’intelligenza artificiale a una comunicazione pienamente umana.
Roma, San Giovanni in Laterano, 24 gennaio 2024
FRANCESCO
_____________________________________________________
[1] Lettere dal lago di Como, Brescia 2022 5, 95-97.
[2] In continuità con i Messaggi per le precedenti Giornate Mondiali delle Comunicazioni Sociali, dedicati all’ incontrare le persone dove e come sono (2021), all’ ascoltare con l’orecchio del cuore (2022) e al parlare col cuore (2023).
[3] Cfr “La verità vi farà liberi” (Gv 8,32). Fake news e giornalismo di pace. Messaggio per la LII Giornata Mondiale delle Comunicazioni Sociali, 2018.
[4] Messaggio per la LVII Giornata Mondiale della Pace, 1° gennaio 2024, 8.
