×
Desideri ricevere notizie dal Centro di Ateneo per la dottrina sociale della Chiesa dell’Università Cattolica del Sacro Cuore?
Fascicolo 2022, 2 – Aprile-Giugno 2022
Prima pubblicazione online: Giugno 2022
ISSN 2784-8884
DOI 10.26350/dizdott_000090
di Yves Gaspar
Abstract:
ENGLISH
Le capacità di sviluppo offerte dall’intelligenza artificiale sembrano illimitate. Il presente articolo intende evidenziare che esistono in realtà importanti limiti intrinseci all’approccio computazionale nell’ambito delle scienze matematiche, fisiche, cosmologiche e dei sistemi complessi, e offre alcuni spunti di riflessione per affrontare le preoccupazioni di natura etica e religiosa e per rispondere agli interrogativi riguardanti l’impatto sul futuro dell’umanità.
Parole chiave: Computabilità, Intelligenza artificiale, Algoritmo, Religiosità, Complessità, Sistemi complessi
ERC: PE9_14 (cosmologia); PE1-10 (equazioni differenziali e sistemi dinamici)
ITALIANO
The rapid development of the capabilities offered by artificial intelligence seem limitless. This article intends to highlight that there are actually important intrinsic limits to the computational approach in the field of the mathematical, physical, cosmological and complex systems sciences, and offers some clues in order to address ethical and religious concerns and to respond to questions regarding the impact on the future of humanity.
Keywords: Computability, Artificial intelligence, Algorithm, Religiosity, Complexity, Complex systems
ERC: PE9_14 (cosmologia); PE1-10 (equazioni differenziali e sistemi dinamici)
Introduzione
Papa Francesco nell’enciclica Laudato si’ (2015) afferma che il problema generale posto dalla globalizzazione del paradigma tecnocratico trova le radici nel «modo in cui di fatto l’umanità ha assunto la tecnologia e il suo sviluppo insieme ad un paradigma omogeneo e unidimensionale» (Laudato si’, 122). In vista del fatto che, «ogni epoca tende a sviluppare una scarsa autocoscienza dei propri limiti» (Laudato si’, 121) è necessario riflettere sui limiti dell’intelligenza artificiale (IA), in riferimento anche alle diverse questioni aperte, essenzialmente irrisolte, che si pongono ancora in quel campo. Michael Kleeman, senior fellow presso l’Università della California, ha scritto sul sito del centro Studi Statunitense Pew (Kleeman, 2018): «L’utilizzo dell’IA sarà sproporzionato e prevenuto nei confronti di coloro che dispongono di più risorse. In generale, ridurrà l’autonomia e, insieme ai big data, ridurrà la privacy e aumenterà il controllo sociale». L’IA verrà anche utilizzata per tentare di prevedere scenari di rischio in svariati ambiti. Tuttavia, una eccessiva fiducia in questa tecnologia rischia anche di ignorare che esistono dei limiti intrinseci all’approccio puramente formale e algoritmico per risolvere complessi problemi, come ad esempio l’impatto dell’inquinamento e dei cambiamenti climatici. Nei paragrafi successivi, alcuni fatti matematici, fisici e cosmologici saranno spiegati per tentare di ridimensionare l’intelligenza artificiale rispetto all’essere umano, e per evidenziare il fatto che, anche in questi campi, la razionalità puramente algoritmica o calcolante non è “onnipotente”. Abbiamo bisogno di altre qualità della mente umana, come la creatività, per affrontare gli enormi problemi posti dalla modernità. Inoltre, non dev’essere eliminata la possibilità del dialogo con approcci più filosofici o con una “razionalità allargata” che non esclude le considerazioni teologiche sulla natura profonda dell’essere umano e sul suo ruolo nel mondo.
I numeri non-computabili
La questione dei limiti intrinseci della matematica emerge in alcuni trattati scientifici recenti, come ad esempio nel testo di Smolin e Unger (2015, 325): riprendendo argomenti sviluppati da Kurt Gödel, Alan Turing e altri, essi ci ricordano come di fatto la matematica pura non è “l’output” di una macchina, e come l’uso della matematica nella descrizione del mondo, anche se efficace, presenta dei limiti molto importanti. In modo particolare, nella matematica pura, è interessantissimo il concetto di numero computabile, sviluppatosi a partire dai lavori di Alan Turing. Essenzialmente, un numero reale è computabile qualora esista un algoritmo in grado di fornire come output, tramite un numero di “steps” arbitrario, ma finito, l’ennesima cifra decimale di tale numero. Ad esempio, i numeri irrazionali come la √2, anche se lo sviluppo decimale non presenta nessuna regolarità o periodicità, sono tali da risultare computabili: esiste una procedura ricorsiva, ossia un algoritmo, in grado di fornire qualsiasi decimale. Questo vale ancora per alcuni tipi di numeri irrazionali e trascendenti, i quali non possono essere soluzione di un’equazione algebrica, come ad esempio il famoso π. Tuttavia, la “maggioranza” dei numeri reali risulta essere di tipo non-computabile: l’insieme dei numeri computabili rappresenta un “insieme di misura nulla” nello spazio di tutti numeri reali possibili. Tale non-computabilità è un fatto matematico intrinseco, che non dipende dalla perfezione o efficacia delle macchine usate per svolgere gli algoritmi. Infatti, se ogni macchina dotata di intelligenza artificiale sfrutta, in modo più o meno complesso, gli algoritmi, allora possiamo asserire che – anche disponendo di un insieme infinito di macchine perfette, ciascuna delle quali calcola, per un tempo indeterminato, tutti i numeri possibili – l’output complessivo corrisponderebbe metaforicamente ad un punto senza dimensione rispetto allo spazio delle possibilità matematiche.
I problemi della fisica
Un problema importante nel contesto della fisica consiste nel determinare se un dato sistema è stabile oppure instabile. Quando un sistema viene sottoposto a una piccola perturbazione, può ritornare alla sua configurazione iniziale: si tratta della stabilità. Se invece il sistema si allontana, più o meno rapidamente, dal suo stato iniziale senza mai farci ritorno, allora abbiamo a che fare con l’instabilità. Una matita appoggiata verticalmente con la punta sul tavolo è un sistema instabile: basta una minima perturbazione per provocare la caduta della matita sul tavolo. Un’altra forma di instabilità si incontra nel caso dei sistemi caotici: una minima perturbazione iniziale comporta effetti futuri importanti, difficilmente prevedibili. Esempi emblematici sono i sistemi meteorologici e climatici: calcolatori potenti sono necessari per prevedere la dinamica di tali sistemi, ma dato che nessuna macchina è perfetta, “l’output” finale non è rigorosamente affidabile. Tuttavia, proprietà statistiche medie sono, in linea di massima, prevedibili. Invece, quando si tratta di determinare in generale se un sistema è stabile o se un sistema è caotico oppure no, ci si imbatte in un problema più grande: tenendo conto dell’ampiezza della perturbazione, un sistema stabile localmente può essere globalmente instabile. Inoltre, Chaitin e Doria (2012, 60) hanno dimostrato che il problema è formalmente intrattabile – non può esistere nessuna procedura di dimostrazione matematica che possa risolvere la questione: una macchina dotata di intelligenza artificiale, anche perfetta, non potrà fornire una soluzione rigorosa. Il trattato di Chaitin e Doria è affascinante, perché produce una lunga serie di sistemi fisici le cui proprietà sono non-computabili. Si potrebbe sostenere che tale complessità riguarda solo i dettagli delle dinamiche, ma nel caso dei sistemi caotici o complessi, anche questi dettagli possono avere un impatto grandissimo: gli scenari risultano inaffidabili.
Il caso dei sistemi complessi
Nella vita quotidiana siamo ormai abituati, mediante la tecnologia, ad una causalità di tipo lineare, ripetibile e reversibile: premendo un pulsante, si manifesta invariabilmente il medesimo effetto. Qualora una macchina presentasse un guasto, un tecnico potrà riportare il congegno alla configurazione iniziale. Nel caso dei sistemi complessi, questo genere di causalità non è generalmente applicabile: le dinamiche possono essere non lineari, irripetibili e irreversibili. In generale, un sistema complesso possiede una struttura gerarchica, che scompone il sistema in determinati sottoinsiemi o parti, le quali possono interagire in modo complesso, generando una fitta rete di interconnessioni. Ogni singola parte potrà avere una dinamica caotica, e l’incertezza corrispondente potrà essere “trasferita” o correlata con la dinamica di una altra parte del sistema. Un esempio ben noto corrisponde ai fenomeni meteorologici o climatici: trattasi “dell’effetto farfalla”. Una piccola variabilità climatica locale, prodotta dal battito delle “ali di farfalla”, può indurre tempeste in luoghi anche molto distanti. Il problema in generale è l’elevato grado di interconnessione tra le parti di un sistema complesso, generando i cosiddetti rischi o eventi inediti. Altri esempi emblematici di sistemi complessi sono gli ecosistemi naturali, la cui dinamica evolutiva è intrisa di incertezza. In determinate classi di sistemi complessi si può dire che, in primo luogo, vi è un’incertezza sul numero stesso di variabili: per questi sistemi, il numero di variabili è una variabile del sistema. Quindi, l’evoluzione non potrà essere inferita da un numero fisso di equazioni con un numero fisso di variabili, e questo comporta la non esistenza di un algoritmo che potrà computare l’evoluzione del sistema. Inoltre, non essendo noto il numero complessivo di variabili, non è applicabile in generale un approccio probabilistico o statistico.
Questioni aperte della cosmologia moderna
La colonna portante della cosmologia è la teoria standard del Big Bang Caldo, secondo la quale l’universo si è evoluto, grazie all’espansione cosmologica, a partire da uno stato primordiale ultra-denso e caldo, caratterizzato da alti livelli di energia. Questa teoria ha riscontrato almeno quattro conferme osservazionali impressionanti, tuttavia vi sono circa una decina di problemi tutt’ora irrisolti.
Uno di questi problemi corrisponde alla sintonizzazione fine dei parametri cosmologici e delle costanti fondamentali della fisica. Se cambiamo anche di pochissimo il valore di questi numeri, allora l’universo risultante potrebbe essere completamente diverso da quello osservabile, e non essere ospitale alla vita: l’universo sembra essere simile ad una matita appoggiata con la punta verticalmente sul tavolo. Conosciamo il valore sintonizzato di queste grandezze fondamentali tramite misure e osservazioni sperimentali, non attraverso la computazione o la deduzione pura. Alla luce di questi problemi, Smolin e Unger (2015, 259) considerano che il tempo è reale e fondamentale, e che esso influenza ogni cosa, comprese le leggi fisiche stesse: non vi sarebbe un insieme di leggi fondamentali fisse – caratterizzate da parametri fissi – ma vi sarebbe un processo di causazione primitivo che genera leggi mutevoli. Anche il modo in cui le cose cambiano può essere soggetto a cambiamento, e così via, con il risultato che la causalità primitiva fondamentale risulta essere non-computabile.
Un altro aspetto interessantissimo corrisponde alla questione della presenza nell’universo di osservatori coscienti (Smolin e Unger 2015, 480): i “qualia”, ossia le proprietà delle cose, possono presentare un problema per i modelli computazionali. Ad esempio, conoscere le proprietà fisiche della luce e il modo in cui stimoli neurologici sono generati dalla luce di un determinato colore non permette di computare come quel colore appare all’osservatore cosciente.
Considerazioni conclusive
Le argomentazioni dei paragrafi precedenti ci mostrano dove è realmente collocabile, concettualmente, l’approccio computazionale e algoritmico: anche nello spazio della matematica pura, le realtà computabili sono un insieme trascurabile – la matematica non è il prodotto di una macchina. La fisica contiene molti importanti problemi formalmente intrattabili, e la dinamica dei sistemi complessi è difficilmente formalizzabile – certo, possiamo sperare nella simulazione numerica di questi problemi e sistemi, ma non avremo mai la garanzia che la macchina usata non farà errori. Recenti idee cosmologiche suggeriscono che le leggi più profonde che governano l’universo potrebbero essere non-computabili, e che quindi anche l’universo stesso non funzioni come una macchina. Anche il ruolo della percezione cosciente viene riconsiderato in moderni trattati di cosmologia teorica, e porta alla luce il fatto che la coscienza degli esseri umani, la cui natura è ancora una questione aperta, può svolgere un ruolo essenziale. Tutte queste questioni tendono ad aprire le porte per un dialogo tra scienza, filosofia e teologia cristiana, dove aspetti ritenuti non afferrabili dalla razionalità calcolante sono in realtà centrali. L’importanza di tale tipo di dialogo è stata ribadita da Benedetto XVI in un discorso che propone di “allargare la ragione”, non confinandola esclusivamente all’approccio tecnico-algoritmico: in particolare, soffermandosi sul posto e sulla natura dell’uomo nel contesto della modernità, Benedetto XVI asserisce che «la modernità, se ben compresa, rivela una “questione antropologica” che si presenta in modo molto più complesso e articolato di quanto non avvenisse nelle riflessioni filosofiche degli ultimi secoli» (Al VI simposio europeo dei docenti universitari sul tema “Allargare gli orizzonti della razionalità - prospettive per la filosofia”, 2008) e che una più esatta comprensione della natura e del futuro dell’uomo richiede anche un confronto con approcci più filosofici che non escludono il contributo del pensiero teologico.
Bibliografia
• Kleeman M., Pew Research Centre (2018), https://www.pewresearch.org/internet/2018/12/10/concerns-about-human-agency-evolution-and-survival/
• Smolin L., Unger R.M. (2015), The Singular Universe and the Reality of Time, Cambridge University Press.
• Chaitin G., Doria F. (2012), Gödel’s way. Exploits in an Undecidable World, Balkema, CRC Press.
Autore
Yves Gaspar, Università Cattolica del Sacro Cuore (Yves.Gaspar@unicatt.it)