×

Desideri ricevere notizie dal Centro di Ateneo per la dottrina sociale della Chiesa dell’Università Cattolica del Sacro Cuore?

Iscriviti alla Newsletter

Dizionario di dottrina
sociale della Chiesa

LE COSE NUOVE DEL XXI SECOLO

Fascicolo 2022, 3 – Luglio-Settembre 2022

Prima pubblicazione online: Settembre 2022

ISSN 2784-8884

DOI 10.26350/dizdott_000096

Intelligenza artificiale, aspetti filosofici Artificial Intelligence, philosophical questions

di Ciro De Florio

Abstract:

ENGLISH

In questa voce vengono presentati i più importanti temi filosofici che riguardano l’Intelligenza Artificiale. Nell’introduzione si analizza brevemente il significato del termine “Intelligenza Artificiale” nel suo sviluppo storico; la prima sezione illustra il test di Turing e la sua rilevanza filosofica circa la questione se le macchine possano pensare. Viene poi discusso l’argomento della stanza cinese di John Searle e vengono esplorati i dibattiti riguardanti coscienza e intenzionalità artificiali. L’ultima sezione è dedicata alla prospettiva della Chiesa Cattolica su questi temi.

Parole chiave: Intelligenza Artificiale, Logica, Sintassi, Computabilità, Filosofia della mente
ERC: SH4_13 Philosophy of science, epistemology, logic

ITALIANO

The aim of this entry is to provide an overview of the most important philosophical issues concerning the Artificial Intelligence. The introduction is devoted to shortly analyze the meaning of the term “Artificial Intelligence” and its history; the first section presents Turing’s test and its philosophical significance for the question whether the machines can think. Then, it is discussed John Searle’s Chinese room argument with the exploration of the topics of consciousness and intentionality. The last section is devoted to Catholic Church’s view on these matters.

Keywords: Artificial Intelligence, Philosophy of Computer Science, Consciousness, Turing Test, Philosophy of Mind
ERC: SH4_13 Philosophy of science, epistemology, logic

Condividi su Facebook Condividi su Linkedin Condividi su Twitter Condividi su Academia.edu Condividi su ResearchGate

Negli ultimi anni abbiamo assistito a una vera e propria rinascita dell’intelligenza artificiale (d’ora in poi, IA): non ci sono campi dell’esperienza umana, sia individuale che collettiva, che non siano virtualmente coinvolti dallo sviluppo e dall’implementazione di sistemi di IA. Se l’ultima parte del Novecento era stata chiamata, piuttosto evocativamente, “inverno dell’IA”, possiamo sicuramente dire che stiamo in una stagione di vero e proprio risveglio esplosivo. Le ragioni che spiegano il rinascimento degli studi sull’IA sono numerose e una presentazione anche molto superficiale di esse ci porterebbe fuori dagli intenti di questa voce. In estrema sintesi, possiamo però dire che si tratta di ragioni differenti: architetturali (sono state raffinate moltissimo le architetture neurali); ingegneristiche (si sono raggiunte importanti capacità computazionali mediante sistemi costituiti da moltissimi processori (per lo più GPU) che lavorano in parallelo); economiche (le grandi piattaforme hanno iniziato un’operazione di finanziamento massiccio).

Nonostante la pervasività di sistemi, processi, dispositivi che vengono rubricati come istanze di IA, rimane controversa la definizione dell’IA. Non è un caso che Russell e Norvig (2002), nel celebrato manuale sul tema, abbiano dedicato numerose pagine a fornire una tassonomia delle varie definizioni presenti in letteratura. Come in ogni definizione, forse qui in maniera ancora più accentuata, il rischio è quello di presupporre, nel definiens, concetti più oscuri e problematici di quelli da definire. Si aggiunga che il campo dell’IA è essenzialmente multidisciplinare e comprende materie come l’informatica, la logica, l’ingegneria, le scienze cognitive (vedi Brinsjord 2020). Ci possiamo accontentare, per gli scopi di questa voce, di una definizione estremamente operativa. Diremo pertanto che l’IA cerca di costruire e implementare sistemi in grado di eseguire compiti che, se venissero compiuti da esseri umani, richiederebbero intelligenza. Il carattere della definizione mette in luce, da subito, un aspetto che è bene tenere a mente nella riflessione filosofica su IA e cioè che, spesso, molte questioni non riguardano tanto la natura più o meno intelligente degli applicativi che vengono sviluppati quanto, piuttosto, le ragioni in base alle quali si ascrive (o meno) a quegli artefatti computazionali intelligenza.

Le macchine possono pensare?

In ciò che segue non prenderemo posizione su temi specifici di filosofia dell’IA; forniremo, al contrario, una sorta di mappa concettuale meta-filosofica sulle varie questioni dibattute in modo da orientare il lettore circa le tendenze teoriche in gioco.

È interessante notare come buona parte del dibattito filosofico su IA si sia concentrato intorno ad alcuni argomenti che hanno lo scopo di mostrare come sia impossibile che le macchine pensino. Ed è in effetti questa la domanda che Alan Turing (il padre della informatica) si pone nel suo pionieristico Turing (1950) quando si chiede esplicitamente: le macchine possono pensare? Che si tratti di una domanda con una importante componente filosofica lo rivela il verbo modale che si interroga sulla possibilità di principio di costruire una macchina in grado di pensare.

Ora, per chiarire il campo, è bene definire che cosa si intende con “macchina”. La risposta è accettata sostanzialmente da tutti i partecipanti al dibattito: una macchina è un computer, ovvero un dispositivo che implementa (a vari livelli) un sistema computazionale che è descritto dal formalismo delle macchine di Turing. In altri termini, una macchina è un artefatto che esegue computazioni, e il concetto di computazione è stato definito in maniera rigorosa proprio da Turing (1936). Anzi, si può dire, assumendo la tesi di Turing-Church, che tutto ciò che è computabile (in un senso intuitivo) è Turing-computabile.

Se la definizione di macchina è, tutto sommato, abbastanza agevole, molto più arduo è definire che cosa si intende con “pensiero” e “pensiero intelligente”. La proposta di Turing è tranchant da un lato e geniale dall’altro. La sua idea è quella di formulare un test, effettivamente praticabile, che fornisca un’evidenza sperimentale circa la possibilità o meno di ascrivere intelligenza a una macchina. Il test di Turing, noto anche come gioco dell’imitazione, consiste, in sintesi, nella situazione seguente: una persona e un computer rispondono (per esempio, con l’ausilio di un sintetizzatore vocale o tramite una semplice chat) alle domande che un osservatore (umano) pone loro. Se l’osservatore non è in grado di capire chi dei due interlocutori è una macchina e chi un umano, la macchina ha passato il test e può essere considerata intelligente.

Il test di Turing ha dato origine a una serie notevole di critiche: alcuni hanno fatto notare, per esempio, che si tratta di un test locale, perché si concentra solo sull’aspetto linguistico, senza considerare altre dimensioni cognitive. Si noti però che Turing ha sempre inteso il superamento del test come una condizione sufficiente e non necessaria per l’ascrizione di intelligenza. Una critica interessante è quella che si incentra sul concetto di simulazione. Se anche una macchina passasse il test, la macchina starebbe solo simulando una conversazione. Qui il tema filosofico richiede una teoria sufficientemente sviluppata della simulazione. Che cosa vuol dire simulare? L’oro simulato chiaramente non è oro. Ma una voce simulata sembra essere a tutti i diritti una voce. E nel caso dell’intelligenza?

Su una concezione un po’ ingenua di simulazione è basata un’altra distinzione abbastanza diffusa e cioè quella tra IA forte e IA debole. Secondo questa distinzione, i programmi di IA forte partono dall’assunzione che questa sia possibile e quindi perseguono l’obiettivo di sviluppare sistemi “realmente” intelligenti; il programma di IA debole si “accontenterebbe” di sviluppare sistemi che simulano performances intelligenti. Ma è chiaro che senza un’adeguata semantica della simulazione, questa distinzione rischia di essere puramente verbale.

Quello che i computer non sanno fare

Abbiamo poi una famiglia di argomenti la cui struttura è la seguente: i computer non possono pensare perché i computer non riusciranno mai a fare X. Dove a X viene di volta in volta sostituita un’attività che consideriamo tipicamente umana. Il pregio di questi argomenti è la forte intuitività: sottolineano l’abissale distanza che separa esseri umani e computer nell’eseguire task anche molto semplici (per noi). Il problema è che questi argomenti hanno una strategia puramente difensiva e i recenti progressi delle IA, per certi versi strabilianti, erodono man mano la loro efficacia. Hubert Dreyfus (1972, 2002) ha argomentato a lungo che le macchine non potranno mai essere intelligenti, perché mancano di quella conoscenza di sfondo, contestuale, che è tipica degli esseri umani. Le risposte agli argomenti di Dreyfus hanno seguito due strade: la prima, che potremmo chiamare più “ingegneristica”, ha puntato l’attenzione sui sistemi che permettono di rappresentare computazionalmente sistemi di conoscenza estremamente complessi (come quelli del senso comune). Siamo ancora lontani dal traguardo, ma, argomentano i fautori di questa linea di risposta, non sembrano esserci ragioni per pensare che questo sia impossibile da raggiungere; e anzi, aggiungono, i quotidiani progressi sembrano suggerirci tutt’altro. La seconda tipologia di risposte all’argomento di Dreyfus riguarda le ragioni per cui una IA non può avere conoscenza di senso comune. La teoria di Dreyfus fa leva sulla mancanza, da parte dei software, di un corpo che abita il mondo, secondo un certo adagio di tipo fenomenologico ed esistenziale. La risposta è problematica da molti punti di vista, non ultimo quello squisitamente logico-argomentativo. Ovviamente i software, da soli, non hanno possibilità di interagire con l’ambiente. Ma possono averla, tramite sensori e attuatori. E non è chiaro allora in che senso questo costituisca un limite di principio all’IA.

Il dibattito innescato dal libro di Dreyfus è però utile per sottolineare un aspetto importante; nella progettazione di sistemi di IA, un ruolo concettuale fondamentale è giocato dall’ambiente. I sistemi intelligenti interagiscono in maniera più o meno complessa e, soprattutto, adattiva con l’ambiente. Il problema è che più l’ambiente è “piccolo” e “controllato”, con relativamente pochi parametri, più i sistemi di IA risultano essere intelligenti (si pensi agli ambienti estremamente rarefatti dei giochi come gli scacchi o il go, dove le IA hanno raggiunto da tempo livelli sovrumani). Gli ambienti di cui abbiamo esperienza quotidiana variano di continuo, hanno delle caratteristiche generali molto differenti. Ed è questa la sfida maggiore nella costruzione di una IAG, ovvero di un’intelligenza generale artificiale.

La stanza cinese

L’argomento filosofico che ha suscitato probabilmente più dibattito circa la filosofia dell’IA è il famoso argomento della stanza cinese di John Searle (1980). L’argomento è, di fatto, un esperimento mentale che mira ad aumentare e perfezionare le nostre intuizioni circa l’ascrizione di intelligenza. L’idea di Searle è abbastanza semplice. Ipotizziamo che un domani un computer passi agevolmente il test di Turing. La situazione, per il computer, non è dissimile a quella di una persona chiusa in una stanza cinese: la persona in questione non sa assolutamente nulla di cinese ed è confinata in una stanza in cui riceve dei fogli da una fessura in una parete e da cui può inviare dei fogli da un’altra fessura. La persona riceve pertanto un foglio con un ideogramma cinese e ne ignora, ovviamente, il significato. Ha però con sé un immenso manuale in cui ad ogni ideogramma è associato uno o più ideogrammi di risposta. La persona, pertanto, copia pazientemente gli ideogrammi suggeriti dal manuale e invia all’esterno la risposta. E così via. All’esterno c’è un parlante cinese che in effetti sta dialogando con la persona nella stanza e quindi potrebbe essere giustificato nel ritenere che il suo interlocutore sappia effettivamente il cinese. Ma ovviamente la persona nella stanza non sa nulla di cinese, accoppia semplicemente simboli con altri simboli secondo un insieme di regole. La situazione secondo Searle è esattamente simile a quella di un computer. Se anche il computer passasse il test di Turing (e quindi, dall’esterno, sarebbe indistinguibile da un essere umano), all’interno, il computer non saprebbe nulla di quello che sta dicendo, dal momento che il computer non fa altro che associare simboli con altri simboli.

Pertanto, conclude Searle, il superamento del test di Turing non è assolutamente indicativo dell’intelligenza; i computer non possono, ontologicamente, essere intelligenti, perché mancano di una dimensione semantica, cioè legata al significato dei simboli, che invece gli esseri umani hanno. La dimensione semantica per Searle non è alcunché di misterioso, ma è anzi un fatto perfettamente naturale e riguarda le connessioni causali che il nostro cervello intrattiene con il mondo.

L’argomento della stanza cinese è stato attaccato da praticamente tutti i fronti ed è impossibile ripercorrere qui il dibattito. Sicuramente sono cruciali alcuni altri concetti che eccedono la filosofia dell’IA, come per esempio, la distinzione tra sintassi e semantica. Si obietta a Searle che la distinzione non è affatto chiara e che dipende da precise teorie in filosofia del linguaggio e della logica. Si può per esempio sostenere che la semantica di un linguaggio altro non è che la sintassi di un metalinguaggio più potente. Un’altra critica fa leva sul fatto che, sebbene la persona all’interno della stanza non sappia il cinese, ciò non toglie che la stanza in quanto tale, ovvero il sistema che comprende la persona e il manuale, sappia in realtà il cinese. Infine, si è talvolta sottolineato che l’esempio di Searle è fuorviante dal momento che nessuno impara una lingua grazie a uno sconfinato manuale di regole linguistiche del genere. Al contrario, una lingua è una struttura complessa che presenta vari moduli riguardanti le parti del discorso (predicati, nomi e così via). Perché non pensare che un computer abbia (o perlomeno possa avere) un sistema linguistico più sofisticato e meno volutamente ottuso, con per esempio una semantica rappresentazionale?

Coscienza

Infine, un ultimo cespite di questioni riguarda quelle funzioni che associamo normalmente al pensiero e alla vita psichica e che il senso comune assume essere distintive degli esseri umani, ovvero la coscienza e l’intenzionalità. Qui la filosofia dell’IA si intreccia con la filosofia della mente e delle scienze cognitive. La ragione è semplice: coscienza e intenzionalità sono realtà la cui spiegazione, anche nel caso umano, è tutt’altro che semplice. In particolare, esiste un esteso e pervasivo programma nelle scienze cognitive secondo cui la mente umana è un computer. O meglio, secondo cui il funzionamento della mente obbedisce a qualche modello di computazione. Se le cose stanno così, allora anche coscienza e intenzionalità sono prodotti (di alto livello) di un’attività computazionale sottostante e quindi non si vede perché IA sufficientemente complesse non possano, a un certo punto, diventare coscienti. D’altro canto, è difficile fornire spiegazioni computazionali della coscienza e non è nemmeno del tutto chiaro se la coscienza sia un prerequisito per l’intelligenza. In fondo, come si diceva in precedenza, dipende dai criteri di ascrizione dell’intelligenza. Il fatto, in altri termini, che un sistema sia cieco a se stesso non sembra precludere di principio il suo comportamento intelligente, pianificatore, adattivo nei confronti dell’ambiente. E d’altro canto, il test di Turing, cui accennavamo in precedenza, non sembra richiedere che la macchina sia cosciente delle sue risposte.

Infine, incontriamo qui un tema ben noto ai filosofi della mente. Gli stati di coscienza sono accessibili solo in prima persona; propriamente nessuno di noi può provare il mal di denti del nostro povero vicino di casa, o la meraviglia di un alpinista che ha raggiunto la vetta. Tuttavia, ascriviamo coscienza agli altri esseri umani sulla base di inferenze: è perché gli altri sono fatti come noi, esibiscono certi comportamenti visibili, reagiscono in un certo modo, che noi inferiamo che stiano provando sensazioni simili a quelle che proviamo noi. Ma se gli stati di coscienza non sono accessibili in terza persona allora si ripropone lo stesso problema per le presunte coscienze artificiali; davanti a fantascientifici artefatti (per esempio robot umanoidi) che si comportino come noi, i criteri in base ai quali ascriviamo loro stati coscienziali non sembrano dissimili da quelli che impieghiamo tutti giorni nei confronti delle altre persone.

Intelligenza artificiale e Magistero

Benché lo sviluppo dell’IA sia tutto sommato abbastanza recente – si pensi, in particolar modo, al rinascimento dell’IA, dopo la stasi che ha visto la seconda metà del Novecento – la Chiesa ha dimostrato un notevole interesse per le sue ricadute di carattere etico e antropologico. Ciò non deve stupire. Come sostiene correttamente padre Paolo Benanti, l’IA è una tecnologia «multi-purposes», come l’energia elettrica, e per questo motivo le ricadute possono investire molti livelli. Se volessimo riassumere brevemente i punti di maggiore attenzione, emerge innanzitutto uno sguardo alle potenzialità dell’IA. I sistemi di intelligenza artificiale sono in grado di ridurre e mitigare povertà, epidemie, sofferenze. Come ogni tecnologia, essi vanno pensati al servizio dell’umano (di qui il richiamo a una Humane Technology). Alle potenzialità e ai rischi dell’IA è stato per esempio dedicato un workshop della Pontificia Accademia delle Scienze (vedi Power and Limits of Artificial Intelligence, Proceedings of the Workshop, 30 November - 1 December 2016, Scripta Varia 132). Un rischio che viene più volte sottolineato è quello di una progressiva dis-umanizzazione dei rapporti personali, quando molte decisioni vengono affidate a procedure di natura algoritmica. In questo senso è illuminante il discorso di Francesco a commento della Call for an AI Ethics (“Appello per un’etica dell’intelligenza artificiale”), promossa il 28 febbraio del 2020 a Roma. Scrive il papa: «L’“algor-etica” potrà essere un ponte per far sì che i principi si iscrivano concretamente nelle tecnologie digitali, attraverso un effettivo dialogo transdisciplinare. Inoltre, nell’incontro tra diverse visioni del mondo, i diritti umani costituiscono un importante punto di convergenza per la ricerca di un terreno comune. Nel momento presente, peraltro, sembra necessaria una riflessione aggiornata sui diritti e i doveri in questo ambito. Infatti, la profondità e l’accelerazione delle trasformazioni dell’era digitale sollevano inattese problematiche, che impongono nuove condizioni all’ethos individuale e collettivo. [...] La Call [...] è un passo importante in questa direzione, con le tre fondamentali coordinate su cui camminare: l’etica, l’educazione e il diritto» (Incontro con i partecipanti alla plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020).

Infine è interessante, nell’ottica dello sviluppo umano integrale, il richiamo al paragrafo 30 della Caritas in veritate (2009), dove Benedetto XVI sottolinea l’inscindibile unità tra ragione ed emozione: l’intelligenza e amore non sono due momenti distinti, ma costituiscono una realtà unica e vivente. Le ricerche sull’IA prendono in considerazione solo una delle dimensioni del pensiero dell’uomo, che il Magistero ci ricorda più ampio e profondo.

La posizione della Chiesa su IA è quindi quella di un’attenzione vigile e di un’accorata speranza. Come ogni progresso dello spirito umano, l’IA può essere un dono incredibile per migliorare le condizioni di vita di miliardi di esseri umani e per trovare soluzioni praticabili alle impellenti sfide ambientali. In maniera speculare, l’IA può invece accelerare processi di disuguaglianza e discriminazione svuotando la dimensione umana e valoriale.


Bibliografia
• Bringsjord S., Govindarajulu N.S. (2020), Artificial Intelligence, The Stanford Encyclopedia of Philosophy, Zalta E.N. (ed.).
• Russell S. J., Norvig P., Davis E. (2010), Artificial intelligence: a modern approach. 3rd ed., Prentice Hall.
• Searle J. (1980), Minds, Brains and Programs, «Behavioral and Brain Sciences», 3, 417-457.
• Turing A.M. (1936), On computable numbers, with an application to the Entscheidungsproblem, «Journal of Math», 58 (345-363), 5.
• Turing A.M. (1950), Computing machinery and intelligence, «Mind«, 59 (236), 433-460.


Autore
Ciro De Florio, Università Cattolica del Sacro Cuore (ciro.deflorio@unicatt.it)