×

Desideri ricevere notizie dal Centro di Ateneo per la dottrina sociale della Chiesa dell’Università Cattolica del Sacro Cuore?

Iscriviti alla Newsletter

Dizionario di dottrina
sociale della Chiesa

LE COSE NUOVE DEL XXI SECOLO

Fascicolo 2024, 3 – Luglio-Settembre 2024

Prima pubblicazione online: Settembre 2024

ISSN 2784-8884

DOI 10.26350/dizdott_000162

Intelligenza artificiale: uno “special” sul discorso di papa Francesco al G7 (14 giugno 2024) Artificial intelligence: a 'special' on Pope Francis' speech to the G7 (14 June 2024)

di Andrea Carobene, Gabriele Della Morte, Francesca Sironi De Gregorio, Mario A. Maggioni, Roberto Maier, Antonella Marchetti, Giovanna Mascheroni, Simone Tosoni, Gianluca Zuccaro

Abstract:

ENGLISH

Il 14 giugno 2024 Papa Francesco ha presentato al G7 di Borgo Egnazia (Savelletri di Fasano, Puglia) un’articolata riflessione sull’intelligenza artificiale, «strumento affascinante e tremendo» che più di altri tocca l’umano. Dopo l’intervento, i membri del gruppo di lavoro informale sull’intelligenza artificiale, costituito all’interno del Centro di Ateneo per la dottrina sociale della Chiesa, sono stati invitati a esprimere un commento “a caldo” a partire dai punti più significativi in relazione al proprio ambito di ricerca.

Parole chiave: Intelligenza artificiale, Persona, Libertà, Responsabilità, Relazione, Algoritmi, Guerra, Diritto umanitario, Antropologia, Politica
ERC:

ITALIANO

On June 14, 2024, during the G7 summit in Borgo Egnazia (Savelletri di Fasano, Puglia), Pope Francis delivered an insightful reflection on artificial intelligence, referring to it as an «exciting and fearsome tool» that profoundly impacts the human experience. Following his address, members of the informal working group on Artificial Intelligence, formed under the University Center for the Social Teaching of the Church, were invited to share their immediate reflections, focusing on the most significant aspects in relation to their specific fields of research.

Keywords: Artificial Intelligence, Person, Freedom, Responsibility, Relation, Algorithms, War, Humanitarian Law, Anthropology, Politics
ERC:

Condividi su Facebook Condividi su Linkedin Condividi su Twitter Condividi su Academia.edu Condividi su ResearchGate

Introduzione (Mario A. Maggioni e Simona Beretta)

Francesco, primo Papa a prendere parte ad una riunione del forum intergovernativo dei “grandi” Paesi (G7), il 14 giugno 2024 ha presentato a Borgo Egnazia, in Puglia, un’articolata riflessione sulla intelligenza artificiale, «strumento affascinante e tremendo» che più di altri tocca l’umano.

Abbiamo invitato i membri di un gruppo di lavoro informale di ricerca sull’intelligenza artificiale, costituito all’interno del Centro di Ateneo per la dottrina sociale della Chiesa, ad esprimere una “reazione a caldo” dopo l’intervento di Papa Francesco al G7, per approfondire il dialogo fra ricerca e magistero e elaborare proposte culturali e politiche all’altezza delle sfide che “ci toccano” – non solo come destinatari passivi, ma chiamandoci a essere protagonisti.

In questa introduzione presentiamo gli elementi principali dei sette contributi che formano questo “special” del Dizionario.

Padre Gianluca Zuccaro (I punti fondamentali del discorso al G7) offre una efficace sintesi del discorso di Papa Francesco, evidenziandone le connessioni con altri importanti documento del magistero sociale e con alcuni recenti contributi etico-teologici sulla centralità della persona umana.

Anche il contributo di Andrea Carobene (Tecnologia come apertura alla alterità) ricorda che parlare di tecnologia significa parlare dell’umano: la tecnologia è intrinseca alla natura stessa dello strumento che, essendo espressione della persona umana, rimanda alla sua libertà e alla sua responsabilità.

A questa osservazione si collega il contributo di Mario A. Maggioni (Scelta e decisione, tra libertà e responsabilità) che, in una prospettiva economico-comportamentale, si sofferma sul processo della decisione umana in un ambiente incerto, tema spesso marginalizzato e minimizzato nelle scienze sociali. Decidere implica una assunzione di rischio e di responsabilità e rimanda ad una concezione dell’uomo come essere intrinsecamente relazionale.

Giovanna Mascheroni e Simone Tosoni (Dal conoscibile al datificabile: il colonialismo dei dati) rileggono il discorso del Papa alla luce della riflessione sociologica che, inscrivendo il fenomeno IA nei processi di algoritmizzazione dei media e di “datificazione” della dimensione sociale, chiariscono perché è indispensabile un rilancio del “politico”, inteso come scelta etica non delegata, affinché la tecnologia sia a vantaggio di tutti e non un lucrativo affare per pochi.

Si tratta di “immaginare responsabilmente il futuro”, come sottolinea Antonella Marchetti nel suo contributo (Persone, algoritmi e psicologia: immaginare responsabilmente il futuro). Se la tecnologia è inevitabilmente un prodotto della creatività umana, in che cosa l’IA si distingue dall’intelligenza umana? Come si intersecano la mediazione culturale operata dagli strumenti tecnici e la necessità di relazionarsi con l’altro? Come lasciarci ancora sorprendere dall’umano?

Il contributo di Gabriele Della Morte e Francesca Sironi De Gregorio (“Nessuna macchina può decidere se togliere la vita a un uomo”) sottolinea, in un’ottica giuridica, il rischio che l’utilizzo dell’intelligenza artificiale possa attentare ai più elementari principi del diritto umanitario. In guerra, fa una grande differenza che i sistemi bellici siano azionati o controllati dagli umani (human in the loop, human on the loop), oppure siano “armi autonome” (human out of the loop) che sanciscono la disumanizzazione definitiva dell’avversario.

Abbiamo lasciato per ultima la presentazione del contributo di don Roberto Maier (L’intelligenza artificiale e il mistero della libertà) perché ricapitola i termini della dimensione antropologica del discorso del Papa. A partire dalla esperienza vertiginosa della libertà personale, che decide di sé e della sua vita, Maier chiarisce perché l’ultima parola sulla intelligenza artificiale spetti al politico: come ogni persona esiste decidendo, anche la polis esiste solo come decisionalità condivisa.

Indice della voce:

1. I punti fondamentali del discorso di papa Francesco al G7 del 14 giugno 2024 (Gianluca Zuccaro)

2. Tecnologia come apertura alla alterità (Andrea Carobene)

3. Scelta e decisione, tra libertà e responsabilità (Mario A. Maggioni)

4. Dal conoscibile al datificabile: il colonialismo dei dati (Giovanna Mascheroni – Simone Tosoni)

5. Persone, algoritmi e psicologia: immaginare responsabilmente il futuro (Antonella Marchetti)

6. «Nessuna macchina può decidere se togliere la vita a un uomo» (Gabriele Della Morte – Francesca Sironi De Gregorio)

7. L'intelligenza artificiale e il mistero della libertà (Roberto Maier)

1. Punti fondamentali del discorso di papa Francesco al G7 del 14 giugno 2024 (Gianluca Zuccaro)

Il recente discorso di papa Francesco alla sessione del G7 sull’intelligenza artificiale (14 giugno 2024) si pone in sintonia con i precedenti pronunciamenti magisteriali in cui emerge l’attenzione per il tema dell’intelligenza artificiale (IA) e, in generale, per l’impatto delle nuove tecnologie nell’odierno contesto globalizzato (cfr. Humana communitas, 2019; Francesco, Messaggio per la 57a Giornata delle Pace, 2024). Dal documento risulta una visione positiva del rapporto tra l’essere umano e la tecnica, intesa come elemento caratterizzante la sua condizione esistenziale e, in particolare, la sua relazione con il mondo. Essa è espressione alta del suo essere spirito incarnato, in quanto gli permette di abitare il cosmo in modo personale, nonché storicamente e culturalmente situato (cfr. Benanti 2016, 110s.).

È in tale prospettiva che viene accolto con favore il crescente sviluppo dell’IA, sottolineando come tale tecnologia informatica sia in grado di apportare modifiche profonde alle nostre relazioni personali, economiche e politiche, e come il suo più alto fine sia quello di essere al servizio dell’essere umano, favorendone uno sviluppo integrale (cfr. Populorum progressio, 1967, 1-42). A riguardo, è sottolineata la centralità del concetto di persona umana, quale realtà creata ad immagine e somiglianza di Dio (Gn 1, 26), rispetto a cui ogni altra entità deve essere subordinata. È a questa, quindi, che va riconosciuta la dignità ontologica, che deriva dal suo essere «voluta, creata ed amata da Dio» (Dignitas infinita, 2024, 7). È questo il punto di partenza imprescindibile per ogni riflessione etica che voglia orientare al bene l’utilizzo dell’IA e avere un respiro capace di raggiungere gli esseri umani di ogni cultura e credo religioso (cfr. Dignitas infinita, 6).

Strettamente legato ai concetti di persona umana e della sua dignità è il tema della scelta. Il testo ben distingue tra la possibilità offerta dall’IA di compiere scelte sulla base di una serie di dati opportunamente elaborati e la capacità dell’essere umano di decidere. Nel compiere tale atto, che coinvolge l’essere e il vissuto del soggetto, egli ne diventa responsabile dinanzi a Dio, come ai fratelli, e fa uso della sua libertà, elemento che lo distingue da ogni artefatto, per quanto complesso esso sia (cfr. Piana 2022, 66s.). Alla luce di ciò, emerge come un impiego etico dell’IA non possa prescindere dal lasciare all’uomo la decisione ultima su temi cruciali, quali la vita e la morte.

Fortemente connesso a ciò è il rimando all’impiego dell’IA in contesti, come quello della ricerca e della giustizia, in cui la peculiarità del pensiero umano, nelle sue due componenti logico-dimostrativa (inter-legit) ed intuitiva (intus-legit) (cfr. Lambert 2023, 71), è elemento insostituibile. Soltanto un pensiero come quello umano è in grado di aprirsi alla novità, sia nella conoscenza del mondo che nella storia personale di ciascuno, e tracciare percorsi di reale sviluppo per la famiglia umana.

Infine, un ultimo aspetto su cui il testo si sofferma riguarda il rapporto tra questa tecnologia e il contesto storico-sociale in cui essa si pone. La realtà globale nella quale siamo inseriti e il carattere transnazionale dell’IA rappresentano uno stimolo verso la ricerca di riferimenti etici che siano comuni. A tale riguardo, un ruolo fondamentale è quello rivestito dalla politica, chiamata ad essere contesto di riflessione e confronto in cui assumere decisioni, per il bene del singolo cittadino e dell’intera comunità. Il rischio di perseguire interessi di natura puramente economica, e rafforzare così una visione tecnocratica (cfr. Laudato si’, 2015, 106-114) e riduttiva dell’essere umano, è opportunamente sottolineato nel documento.

Pertanto, l’invito è quello ad una politica che sappia accostarsi alla realtà umana in tutta la sua complessità e orienti uno sviluppo dell’IA secondo principi etici rispettosi della dignità della persona, favorendo percorsi di inclusione e di pace rivolti all’intera umanità (cfr. Fratelli tutti, 2020, 179s.).

Bibliografia

• Benanti P. (2016), La condizione tecno-umana: domande di senso nell’era della tecnologia, Dehoniane, Bologna.

• Lambert D. (2023), Robotica e intelligenza artificiale, Queriniana, Brescia.

• Piana G. (2022), Umanesimo per l’era digitale. Antropologia, etica, spiritualità, Interlinea, Novara.

2. Tecnologia come apertura alla alterità (Andrea Carobene)

«Uno strumento affascinante e tremendo», che «impone una riflessione all’altezza della situazione». Così Papa Francesco ha definito l’intelligenza artificiale nel suo intervento alla sessione del G7 a Borgo Egnazia.

I due aggettivi usati per descrivere l’intelligenza artificiale accompagnano il sostantivo “strumento”, ed è attorno a questa parola che Papa Francesco ha costruito il suo intervento. Sottolineare la dimensione strumentale delle intelligenze artificiali (plurale usato tanto nel messaggio per la LVIII Giornata mondiale delle comunicazioni sociali quanto nel messaggio per la LVII Giornata mondiale della pace), è la modalità che ha permesso al Santo Padre di sottolineare la dimensione umanistica della tecnologia.

«Parlare di tecnologia è parlare di cosa significhi essere umani e quindi di quella nostra unica condizione tra libertà e responsabilità, cioè vuol dire parlare di etica».

L’idea è che noi viviamo in una condizione “tecno-umana”, e che il nostro rapporto con la Natura è sempre mediato dagli strumenti. La necessità di servirci di strumenti non è però causata unicamente di limiti della nostra corporeità, ma è specchio, al contrario, della nostra condizione di «ulteriorità rispetto al nostro essere biologico». Noi essere umani siamo «sbilanciati verso il fuori-di-noi, anzi radicalmente aperti all’oltre».

Si tratta a mio parere di un’idea importantissima, che sembra rispondere in maniera diretta a chi considera la tecnica come una negazione della nostra apertura verso l’Essere. Al contrario, nel nostro ricorrere agli strumenti «prende origine la nostra apertura agli altri e a Dio; da qui nasce il potenziale creativo della nostra intelligenza in termini di cultura e di bellezza; da qui, da ultimo, si origina la nostra capacità tecnica».

Quello che viene detto qui è che la tecnologia, tutta la tecnologia, è legata alla natura proprio dell’uomo, al suo essere proiettato verso l’altro, verso un’alterità. La tecnologia non solo dunque non è neutra, ma è sempre un’espressione della natura relazionale dell’uomo, un’espressione di bellezza perché manifesta la capacità e il desiderio dell’uomo di “essere per”, di proiettarsi verso l’altro. Tecnologia come manifestazione dello sbilanciamento dell’uomo verso l’alterità, del nostro essere «radicalmente aperti all’oltre».

Scienza e tecnologie vengono qui descritte come un linguaggio umano che aspira alla bellezza e che è mosso dalla bellezza, e questo vale anche per l’intelligenza artificiale.

La capacità tecnica dello strumento “intelligenza artificiale” rimanda quindi a quelle dimensioni di cultura e bellezza che sono proprie dell’uomo. In questa concezione della tecnologia l’etica non si presenta quindi come una sovrastruttura, un qualcosa che deve essere pensato a posteriori per vagliare ciò che è giusto o sbagliato, ma al contrario è intrinseca alla natura stessa dello strumento che, espressione della natura propria dell’uomo, rimanda immediatamente alla nostra condizione di libertà, e quindi di responsabilità.

Se quindi da una parte il Papa ricorda ancora come le intelligenze artificiali possano diventare espressione di quel paradigma tecnocratico del quale aveva denunciato i rischi tremendi a partire dalla Laudato si’ (2015), allo stesso modo ci ricorda come la tecnologia, tutta la tecnologia, abbia in sé, per sua natura, un seme di bellezza e di apertura al trascendente che deve essere colto e valorizzato. Un invito che mi sembra costituire una pista di lavoro davvero interessante e promettente per chiunque si occupa di etica delle intelligenze artificiali, ma anche di tecnologia in genere.

3. Scelta e decisione, tra libertà e responsabilità (Mario A. Maggioni)

Il discorso di Papa Francesco al G7 di Borgo Egnazia offre certamente molti spunti di riflessione. Mi limito a sottolinearne alcuni che hanno provocato, più di altri, la mia, proprio a partire dall’ambito di ricerca che sto approfondendo in questi ultimi anni. In particolare mi soffermo su un piccolo brano estratto dalla parte introduttiva del discorso: «Conviene sempre ricordare che la macchina può, in alcune forme e con questi nuovi mezzi, produrre delle scelte algoritmiche. Ciò che la macchina fa è una scelta tecnica tra più possibilità e si basa o su criteri ben definiti o su inferenze statistiche. L’essere umano, invece, non solo sceglie, ma in cuor suo è capace di decidere. La decisione è un elemento che potremmo definire maggiormente strategico di una scelta e richiede una valutazione pratica» (Discorso alla sessione del G7 sull’intelligenza artificiale, 14 giugno 2024).

La differenza tra scelta e decisione o, a voler andare ancora più a fondo, l’essenza stessa di quello che intendiamo con questi due termini è da sempre alla radice della scienza economica fin dalle sue origini, a partire dalla filosofia morale nel XVIII secolo, ma è certamente tornata prepotentemente e problematicamente alla ribalta con l’affermarsi del cosiddetto filone dell’economia comportamentale.

In un lavoro del 1992, Amos Tverski (lo psicologo che insieme a Daniel Kahneman, poi premio Nobel per l’economia nel 2002, sviluppò le basi dell’economia comportamentale) e Eldar Shafir legano inscindibilmente il concetto di scelta a quello di libertà (e in questo implicitamente riaffermano una concezione antropologica che non può farci tornare al racconto di Gn 2-3) e a quello di rischio quando affermano: «The experience of conflict is the price one pays for the freedom to choose. Conflict arises because a person does not always know how to trade off costs against benefits, risk against value, and immediate satisfaction against future discomfort. […] The resolution of conflict is complicated by the presence of uncertainty about the consequences of one’s actions, and it is further hindered by the anticipation of dissonance and regret. Conflict plays no role in the rational theory of choice. […] This principle of value maximization underlies the standard analysis of decision-making under uncertainty and the classical theory of riskless choice, which are widely used in economics, political theory, and management science» (Tverski e Shafir, 1992, 358).

La libertà è certamente una caratteristica propria dell’essere umano e questa si estrinseca nella capacità di scegliere e di prendere decisioni, cosa che implica sempre una assunzione di rischi e di responsabilità.

La centralità degli algoritmi (vedi voce Algoritmo) (definizioni non ambigue di sequenze finite di operazioni) di massimizzazione della correlazione, come avviene nei modelli di Generative Artificial Intelligence (rafforzata dalle capacità di self-learning and self tutoring), sembrano invece sollevare l’essere umano dall’assunzione della responsabilità per le scelte effettuate e questa caratteristica rende l’IA particolarmente attraente. Non per niente nella “vecchia storia” di cui si accennava all’inizio di questo contributo, nel momento in cui l’essere umano è messo di fronte alle conseguenze (cognitivamente note ex ante, ma esperienzialmente ignote) della propria scelta e decisione di “mangiare dell’albero della conoscenza del bene e del male”, si assiste ad un goffo tentativo di negazione della responsabilità, che quasi stempera in commedia l’inizio drammatico della vicenda umana: «La donna che tu mi hai posta accanto mi ha dato dell’albero e io ne ho mangiato»; o ancora: «Il serpente mi ha ingannata e io ho mangiato» (Gn 3, 12-13).

Forse soffermandoci sulla principale tentazione offerte dall’AI, e cioè quella di avere sempre una risposta per qualsiasi domanda, si potrebbe sottolineare che l’ignoranza è semplicemente un fatto, una condizione esistenziale dell’uomo in molte circostanze e che è più ragionevole, come sottolineato da Gilboa et al (2009), affidarsi a qualche opzione di default o incorporare il principio precauzionale dentro il processo decisionale. In entrambi i casi la razionalità consiste nel poter fornire ad un altro soggetto, che lo richieda, le ragioni della propria scelta. L’opzione di default viene infatti costruita e validata nel tempo attraverso una lunga serie di interazioni sociali (come succede ad esempio con i protocolli all’interno di una comunità di pratica, come quella dei medici, dei giudici o degli ingegneri); la capacità di fornire narrazioni persuasive delle proprie credenze implica una concezione antropologica in cui l’individuo, o meglio la persona, non è «un atomo sperduto in un universo casuale» (Caritas in veritate, 2009, 29), ma un nesso di relazioni (Scola, 2006).

A questo proposito, nell’introduzione del suo discorso, Papa Francesco afferma: «Parlare di tecnologia è parlare di cosa significhi essere umani e quindi di quella nostra unica condizione tra libertà e responsabilità, cioè vuol dire parlare di etica». E ancora: «Di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita. Condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine. Abbiamo bisogno di garantire e tutelare uno spazio di controllo significativo dell’essere umano sul processo di scelta dei programmi di intelligenza artificiale: ne va della stessa dignità umana».

Il riferimento all’etica non è qui inteso come un astratto elenco di valori e di principi, che da lontano e dall’esterno dovrebbero informare l’agire di un uomo concepito come essere autonomo e assoluto (ab-solutus) da ogni relazione, ma come il legame tra l’irriducibile individualità dell’essere umano e le sue micro-relazioni costitutive che si esplicitano in azioni e ne definiscono l’esperienza (Arendt, 1958; Wojtyła, 1979). Proprio questo riferimento mi sembra sia il punto fondamentale del discorso del pontefice e che ad ognuno, nei limiti e nelle potenzialità della propria esistenza, sia dato l’inderogabile compito di approfondire.

Bibliografia

• Arendt H. (1958), The Human Condition, University of Chicago Press, Chicago (trad. it. Vita activa. La condizione umana, Bompiani, 2017).

• Beretta S., Maggioni M.A. (2017), Time, relations and behaviors: Measuring the transformative power of love-based community life, Helen Kellogg Institute for International Studies.

• Gilboa I., Postlewaite A., Schmeidler D. (2009), Is it always rational to satisfy Savage’s axioms?, «Economics & Philosophy», 25(3), 285-296.

• Maggioni M.A., Beretta S. (2012). The Whole Breadth of Reason: Rethinking Economics and Politics, «Rivista Internazionale di Scienze Sociali», 120 (3), 241-261.

• Scola A. (2006), Conceptualization of the Person in Social Sciences, Pontifical Academy of Social Sciences, Acta 11, Città del Vaticano.

• Wojtyła K. (with Anna-Teresa Tymieniecka) (1979), The Acting Person, edizione originale in polacco, Osoba i Czyn, 1969 Dordrecht; D. Reidel Pub. Co., Boston.

4. Dal conoscibile al datificabile: il colonialismo dei dati (Giovanna Mascheroni – Simone Tosoni)

Il discorso tenuto dal Santo Padre in occasione della sessione del G7 sull’Intelligenza Artificiale a Borgo Egnazia (Puglia) nel giugno 2024 propone un inquadramento delle sfide poste dalla nuova tecnologia che riprende e rilancia l’impostazione adottata dalle discipline sociologiche per affrontare il problema delle conseguenze sociali dell’IA. In estrema sintesi, tale impostazione consiste, da una parte, nell’adozione di una prospettiva di lungo corso, che riconosca le continuità degli sviluppi tecnologici più recenti con il processo, almeno ventennale, di algoritmizzazione dei media e di datificazione del sociale; e dall’altra nello sforzo sistematico di contestualizzare la riflessione sulla nuova tecnologia nei presenti scenari economici, culturali, sociali e politici.

Guidato da quello che definisce un nuovo umanesimo tecnologico, il Santo Padre riconosce così la profonda ambivalenza dell’intelligenza artificiale, aperta a esiti opposti nel suo processo di diffusione sociale: divenire per l’uomo un potente aiuto nel compito di “custodire e governare” il mondo o formidabile strumento di asservimento, e finanche di annullamento dell’uomo stesso per mano dell’uomo. Se ciò vale per ogni tecnologia prodotta dall’uomo, il Santo Padre mette però anche a fuoco la radicale novità dell’IA: non si tratta più soltanto di uno strumento per comunicare con gli altri, per fruire di contenuti, per compiere operazioni semplici, ma di una tecnologia che acquisisce capacità agentiche, che le consentono di comunicare (con le persone e con altre macchine) e di prendere decisioni in modo autonomo o parzialmente autonomo.

Questa inedita capacità apre due ordini principali di problemi. Il primo, più generale, è quello della delega etica alla macchina: una volta mobilitata l’intelligenza artificiale per un obiettivo, questa tende infatti a ridurre lo spazio decisionale dell’agente umano, riducendo di conseguenza anche gli spazi di esercizio della responsabilità in favore di procedure automatizzate, peraltro umane: è il rischio implicato dal paradigma tecnocratico, di cui l’AI rischia di farsi esempio più evidente e allo stesso tempo volano. Il secondo ordine di problemi riguarda invece i concreti modi in cui la macchina prende le decisioni ad essa delegate: modi che rischiano di amplificare le disuguaglianze sociali esistenti, andando a produrre discriminazione nell’accesso alla conoscenza, alla salute, al credito e alle opportunità. In questo scenario, diventa fondamentale ispirarsi a quella che il Santo Padre chiama «una nuova algoretica» che metta al centro la persona e che sfidi l’epistemologia del “dataismo” (Van Dijck 2014) – vale a dire, la credenza che i dati offrano una rappresentazione autentica e imparziale del mondo, e che, quindi, le decisioni automatizzate informate dai dati siano preferibili alla parzialità del giudizio umano. In realtà, la conoscenza correlazionale (Andrejevic 2020) – quella che gli algoritmi elaborano analizzando i Big Data con modelli di previsione statistica – è parziale – il conoscibile si riduce al datificabile – e pre-emptive, ovvero orientata al tecno-soluzionismo, a risposte facili a problemi complessi, e anticipare, modellandolo, il futuro.

Se dunque gli esiti della diffusione di una tecnologia restano sempre potenzialmente aperti, nell’incontro con il contesto sociale, economico e culturale la legittimazione dell’IA rischia costantemente di risolversi in una chiave tecnocratica che risponde solo a logiche di profitto e di ingegneria sociale. Il nuovo ordine socioculturale è, infatti, fortemente caratterizzato dal colonialismo dei dati (Couldry & Mejias 2019), in cui le persone sono vincolate a una razionalità economica che mette a profitto ogni aspetto della vita umana, e all’immaginario sociale del dataismo, che legittima l’estrazione di dati e l’elezione di interessi privati a valore pubblico, dietro alla promessa che questi, prima o poi, torneranno a beneficio di tutti.

Nel suo discorso, Papa Francesco sottolinea però come tale esito non sia un destino e indica nel rilancio del politico, inteso come scelta etica non delegata, il vero cuore della scommessa in un futuro in cui la tecnologia sia effettivamente posta a vantaggio di tutti, e non di poche grandi aziende. Tale appello non ignora la complessità della deliberazione pubblica in un contesto di complessità culturale come il nostro, in cui convivono sistemi di valori multipli ed eterogenei – e in cui la delega della decisione a un meccanismo ritenuto erroneamente oggettivo e imparziale appare una pericolosa tentazione per uscire da estenuanti impasse. In questo senso, la proposta è quella di recuperare la centralità della dignità della persona umana come base valoriale minima condivisa tra sistemi diversi di valori su cui fondare ogni tentativo di deliberazione pubblica.

Bibliografia

• Andrejevic M. (2020), Automated media, Routledge.

• Couldry N. & Mejias U.A. (2019), The costs of connection. How data is colonizing human life and appropriating it for capitalism, Stanford University Press.

• van Dijck J. (2014), Datafication, dataism and dataveillance. Big data between scientific paradigm and ideology, «Surveillance and Society», 12(2), 197-208.

5. Persone, algoritmi e psicologia: immaginare responsabilmente il futuro (Antonella Marchetti)

Una prima considerazione psicologica riguarda il riconoscimento della potenza della creatività umana: la tecnologia viene infatti immediatamente inquadrata, al pari della scienza, come un prodotto della nostra creatività. Tuttavia, secondo il Santo Padre, nel caso dell’IA si tratta di un prodotto in grado di incidere sul modo stesso in cui concepiremo la nostra identità di esseri umani. Ciò è verosimilmente dovuto all’“etichetta” – Intelligenza – sotto la quale sono categorizzate le prestazioni di sistemi algoritmici aventi differenti finalità (Floridi e Nobre, 2024). Mentre di altre tecnologie si è cioè storicamente affermato che operassero in modo intelligente (si pensi alle tecnologie legate alla scrittura, capaci di trasformare il pensiero e il linguaggio orale in testo scritto e potenzialmente condivisibile in modo illimitato), nel caso dell’IA è l’insieme stesso degli artefatti tecnologici a essere definito “Intelligenza”. Con ciò uscendo dall’analogia (“la tecnologia X si comporta come se fosse intelligente”) per avallare la reificazione del funzionamento nella capacità generale (l’Intelligenza) che lo renderebbe possibile. È allora ovvio che interrogativi quali: “Intelligenza umana e IA sono distinguibili?” appaiano plausibili e che ciò metta in crisi la nostra stessa concezione identitaria, oltre a costituire una rivoluzione cognitiva e non soltanto industriale, come afferma il Santo Padre.

Un altro concetto importante è quello di ambivalenza nei confronti della IA: termine che rimanda a vissuti di dubbio/alternanza nell’esperienza affettiva relativa a qualcuno o qualcosa, che nel caso della IA danno luogo alla polarizzazione tra atteggiamenti entusiastici/catastrofisti nei suoi confronti (Crawford, 2021).

Un passaggio denso di implicazioni psicologiche è inoltre quello in cui si parla di condizione tecno-umana e di ulteriorità. Il ruolo della mediazione culturale rispetto all’ambiente operata dagli strumenti e la necessità della relazione con l’altro da sé per lo sviluppo umano e l’esistenza dei sistemi socio-culturali sono concetti ben noti agli psicologi grazie a Vygotskij (1934). Il pensiero e l’intelligenza germinano nello scambio con l’altro e in questo fiorire sono sostenuti dalla storia della cultura anche tecnologica preesistente alla persona che l’altro le offre attraverso l’educazione.

Assai rilevante appare altresì la distinzione tra scelta e decisione: soltanto la prima alla portata della macchina, ove la seconda trascende il peso delle connessioni nella rete algoritmica per ricondurci alla umana responsabilità basata sulla libertà, che richiede saggezza oltre a competenza.

Immaginare il futuro con l’IA significa anche ammettere il limite della nostra onnipotenza nella possibilità di controllo degli strumenti da noi stessi creati, il che rimanda nuovamente a responsabilità, saggezza, vigilanza e richiama potentemente la centralità dell’educazione.

Infine, di grande bellezza è il richiamo alla capacità dell’uomo di sorprendere: l’aggettivo “generativo”, secondo il Santo Padre, meglio si addice a questa potenzialità, anziché alle modalità per lo più comportamentistico-simili di apprendimento dell’AI per via rafforzativa. Ricordando ciò, potremo forse arginare un bisogno psicologico profondo che il discorso del Papa identifica: quello di certezza e universalità, che solo una riflessività critica autenticamente umana può aiutarci a perseguire.

Bibliografia

• Crawford K. (2023), Né intelligente né artificiale. Il lato oscuro dell’AI, RCS MediaGroup, Milano.

• Floridi L., Nobre A.C., (2024), Anthropomorphising machines and computerising minds: the crosswiring of languages between Artificial Intelligence and Brain & Cognitive Sciences (February 25, 2024). Centre for Digital Ethics (CEDE) Research Paper.

• Vygotskij L.S. (1966), Pensiero e linguaggio, Giunti-Barbera, Firenze.

6. «Nessuna macchina può decidere se togliere la vita a un uomo» (Gabriele Della Morte – Francesca Sironi De Gregorio)

Nel corso della storia la guerra ha subito trasformazioni radicali legate allo sviluppo e all’introduzione di nuove tecnologie sul campo di battaglia, in una chiara tendenza al distanziamento tra gli originari combattenti “frontali”.

È indubbio che l’introduzione di tecnologie militari basate sull’intelligenza artificiale sia potenzialmente portatrice di efficienza nel settore bellico, ma perché l’intelligenza artificiale è uno strumento «affascinante e tremendo», come ha rimarcato il Santo Padre nell’apertura del suo discorso al G7, vi è altresì il rischio che essa possa attentare ai più elementari principi etici e giuridici alla base del diritto umanitario, ovvero di quel settore del diritto che disciplina cosa si può, e non si può fare, nel corso dei conflitti armati.

Le sfide principali attengono innanzitutto al ricorso alle cosiddette “armi autonome”, in grado di riconoscere obiettivi ed espletare funzioni critiche, come l’intercettazione, la neutralizzazione, il danneggiamento o la distruzione di bersagli.

Nella pratica, a seconda del grado di supervisione umana, ci si riferisce a sistemi azionati dagli umani (human-in-the-loop); comunque sotto controllo umano (human-on-the-loop); o senza alcun controllo umano (human-out-of-the-loop). Nel primo caso, il sistema sarà in grado di colpire unicamente obiettivi che siano stati manualmente selezionati o comunque approvati da un essere umano. Nel secondo, il sistema è in grado di selezionare gli obiettivi e ingaggiare autonomamente l’arma, permettendo comunque all’uomo di supervisionare l’operazione, mantenere il controllo e deciderne la sospensione. Diversamente, nel terzo caso il sistema si presenta come completamente autonomo, ovvero in grado di operare in un ambiente dinamico, individuando un bersaglio e applicandovi una forza nel caso estremo di tipo letale senza alcun controllo umano. Occorre sottolineare che le armi riconducibili a quest’ultimo sistema si trovano ancora allo stato di ricerca e non sono ancora impiegate nei conflitti. Tuttavia, la ricerca tecnologica avanza a un ritmo sempre più rapido ed è fondamentale interrogarsi se da un punto di vista giuridico, e soprattutto etico, sia legittimo farvi ricorso.

In tale prospettiva il monito del Santo Padre è quanto mai opportuno: «nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano».

È pertanto essenziale che tali armi vengano sin da subito progettate nel pieno rispetto del diritto internazionale umanitario, e in particolare alla luce dei principi di distinzione, proporzionalità e precauzione, che nel disciplinare la condotta delle ostilità mirano a proteggere i civili. Anche perché l’intero sistema si basa sul generale principio di umanità, che impedisce l’utilizzo di armi e tecniche militari volte a causare sofferenze non necessarie.

Riprendendo poi alcuni criteri elaborati nell’ambito del dibattito internazionalistico sulla questione, si ritiene fondamentale che tali sistemi mantengano un certo livello di affidabilità e governabilità, e dunque siano comunque ascrivibili a un controllo umano significativo che permetta altresì, in caso di errori o incidenti, l’attribuzione della responsabilità a un soggetto determinato.

Rimane però sullo sfondo un’insuperabile questione etica: è accettabile che una cyber-arma decida su questioni di vita o di morte senza essere in grado di apprezzare, nel suo complesso, il valore della vita umana? La disumanizzazione dell’avversario diverrebbe definitiva. Come ha ribadito il Santo Padre «Ne va della stessa dignità umana».

7. L’intelligenza artificiale e il mistero della libertà (Roberto Maier)

Bisognava che qualcuno lo dicesse: se ne è fatto carico Papa Francesco. Il tema di fondo non è il pericolo, il controllo o la limitazione dell’intelligenza artificiale. È la libertà il nodo che, attraverso questi temi imprescindibili, viene al pettine. Non si giustificherebbe altrimenti il sorprendente uso dell’espressione «affascinante e tremendo» per parlare di uno strumento: i due termini, la tradizione filosofica li aveva riservati nientemeno che all’esperienza del sacro e del numinoso. Se il papa li usa, non è per evocare uno scenario kubrikiano, ma per dirci che la posta in gioco, di fronte all’AI, è la stessa del sacro: il compito della decisione, il mistero della libertà, quella misteriosa facoltà della persona che permetteva già nel Rinascimento a Pico della Mirandola di definire l’umano coelestium et terrestrium vinculum et nodus e mundi copula. Nella nota Orazione sulla dignità umana, l’umanista rinascimentale lasciava che il Creatore si rivolgesse così ad Adamo: «Non ti ho fatto del tutto né celeste né terreno, né mortale, né immortale perché tu possa plasmarti, libero artefice di te stesso, conforme a quel modello che ti sembrerà migliore. Potrai degenerare sino alle cose inferiori, i bruti, e potrai rigenerarti, se vuoi, sino alle creature superne, alle divine». Tremendo o affascinante non è lo strumento, e neppure il nume, ma l’umano che decide di sé. In ragione di questa vertigine ogni cosa, persino una trama di circuiti, riflette seduzione e terrore.

È curioso che i due atteggiamenti più diffusi (in parte motivati, ma non per questo sensati), di fronte alla possibilità delle “macchine pensanti” siano l’entusiasmo utopico e la disperazione distopica: due modi di abdicare al compito drammatico della libertà. Il primo immagina che il fardello delle scelte possa essere scaricato dalle nostre fragili spalle e elegantemente appoggiato su quelle della tecnica. La seconda se ne libera gettandolo a terra: si salvi chi può. Entrambe caratterizzano la nostra epoca, ma hanno una storia lunga quanto la storia. Non a caso il Vangelo di Gesù, quando si confronta con i timori della fine del mondo, incessantemente ripete: «sorgeranno nuovi cristi e falsi profeti» (Mt 24,24): «non credeteci, non andate» e «non è ancora la fine» (Mc 13,7). Occorrerebbe ribadirlo, di fronte alle utopie e alle distopie contemporanee, di fronte alla potenza di calcolo dei computer quantistici, come di fronte al catastrofismo ecologico: «non credeteci, non andate», bisognerebbe ripetere a chi attende l’ultimo messianico gingillo; «non è ancora la fine», bisognerebbe ricordare a chi dà per spacciato il pianeta (già si parla da tempo di una nuova forma di disturbo mentale chiamato eco-ansia).

Chi frequenta l’umano – non solo il suo mondo, ma anche il suo im-mondo – lo sa bene: il fascino della libertà è sempre sulle nostre labbra, ma nelle viscere è un fuoco divorante. Lo sapeva bene Dostoevskij, quando metteva sulle labbra del Grande inquisitore la cinica ammissione: «nulla è stato più intollerabile della libertà per l’uomo e per la società umana!». Già intuiva il rischio di una conclusione paradossale della parabola della modernità: nata per indicare all’umano l’infinita dignità di un soggetto all’altezza del vero, anche senza sacerdoti a fargli da tutore, il cogito si declassa ad algoritmo, rischiando di sottrarre «alle persone la capacità di decidere su loro stesse e sulla loro vita». Nessuno nega la portata epocale di questa nuova tecnologia, intendiamoci. Ma siamo stati forse affrettati a svendere per così poco la parola intelligenza, come se esistesse un’intelligenza senza il compito insopportabile della libertà, come se leggere-dentro al mondo non fosse un’attitudine esclusiva di quel soggetto che non decide solamente cosa fare, ma – facendolo – decide di sé.

L’intervento di papa Francesco è preciso nell’individuare i rischi prossimi della nuova tecnologia (le armi autonome, le scelte legali, l’accountability, l’organizzazione e l’uso dei dati…), ma è precisissimo nell’indicarne l’orizzonte. Non solo quello etico, che ci chiede di condividere i valori e non solo gli esiti di un’azione. Ma soprattutto quello antropologico, per il quale l’umano esiste solamente decidendosi. Per questo l’ultima parola spetta al politico. La polis non nasce solo dalla mediazione tra i valori plurali: la polis nasce dall’esercizio sapiente di una decisionalità condivisa. Una società, come un essere umano, è se stessa decidendo di sé, assumendosi coraggiosamente il compito insopportabile della libertà. Certo, nello scrivere le nostre leggi, nello stabilire i limiti alle nostre tecnologie, nel disegnare un modo di abitare il mondo, rischiamo di fare errori madornali. Ma nel mentre scriviamo, stabiliamo, disegniamo noi stessi. Ogni volta che gli esseri umani lasciano a qualcun altro questo compito (che si tratti di un idolo, dell’uomo forte o di una macchina), la polis, semplicemente, si dissolve.


Bibliografia


Autori
Andrea Carobene, Università Cattolica del Sacro Cuore (a.carobene@baia.tech)
Gabriele Della Morte, Università Cattolica del Sacro Cuore (gabriele.dellamorte@unicatt.it)
Francesca Sironi De Gregorio, Università Cattolica del Sacro Cuore (francesca.sironide@unicatt.it)
Mario A. Maggioni, Università Cattolica del Sacro Cuore (mario.maggioni@unicatt.it)
Roberto Maier, Università Cattolica del Sacro Cuore (Roberto.Maier@unicatt.it)
Antonella Marchetti, Università Cattolica del Sacro Cuore (antonella.marchetti@unicatt.it)
Giovanna Mascheroni, Università Cattolica del Sacro Cuore (giovanna.mascheroni@unicatt.it)
Simone Tosoni, Università Cattolica del Sacro Cuore (simone.tosoni@unicatt.it)
Gianluca Zuccaro, Università Cattolica del Sacro Cuore (gianluca.zuccaro@unicatt.it)