×

Desideri ricevere notizie dal Centro di Ateneo per la dottrina sociale della Chiesa dell’Università Cattolica del Sacro Cuore?

Iscriviti alla Newsletter

Dizionario di dottrina
sociale della Chiesa

LE COSE NUOVE DEL XXI SECOLO

Fascicolo 2021, 1 – Gennaio-Marzo 2021

Prima pubblicazione online: Marzo 2021

ISSN 2784-8884

DOI 10.26350/dizdott_000027

Intelligenza artificiale in finanza: responsabilità e relazione Artificial intelligence in finance: accountability and relations

di Elena Beccalli

Abstract:

ENGLISH

L’intelligenza artificiale, che trova crescente spazio di applicazione in finanza specie nella gestione dei portafogli finanziari, impone di prestare particolare attenzione al tema della cosiddetta accountability, ossia l’attribuzione di responsabilità all’uomo piuttosto che alla macchina. Lo snodo centrale riguarda il modo in cui gli sviluppatori di algoritmi possono essere resi responsabili. In contesti complessi con elevata innovazione, come un’azienda fintech, l’archetipo dell’attribuzione gerarchica di responsabilità mostra i suoi limiti a vantaggio della nozione di social accountability, ossia un processo di attribuzione della responsabilità di natura sociale e relazionale.

Parole chiave: Intelligenza artificiale, Finanza, Relazione, Responsabilità, Etica, Algoritmo, Investimenti, Relazione
ERC: SH1_8

ITALIANO

Artificial intelligence, increasingly used in finance particularly in portfolio management, requires peculiar attention to be paid to the issue of accountability, that is the attribution of responsibility to humans rather than machines. The main concern relates to how algorithm developers can be made accountable. In complex contexts with high innovation, such as a fintech company, the archetype of hierarchical accountability shows its limits to the advantage of the notion of social accountability, that represents a process of social and relational nature.

Keywords: Artificial intelligence, Finance, Relation, Accountability, Ethics, Algorithm, Investments, Relationship
ERC: SH1_8

Condividi su Facebook Condividi su Linkedin Condividi su Twitter Condividi su Academia.edu Condividi su ResearchGate

1. Intelligenza artificiale: definizione e implicazioni

Con il termine intelligenza artificiale, coniato nel 1955 da John McCarthy, si fa riferimento oggi a “la teoria e lo sviluppo di sistemi informatici in grado di eseguire compiti che normalmente richiedono intelligenza umana” (English Oxford Living Dictionary), come ad esempio language processing (algoritmi per l’analisi e la comprensione del linguaggio), machine learning (algoritmi per l’apprendimento automatico) e machine vision (algoritmi per l’interpretazione e il riconoscimento delle immagini). L’applicazione dell’intelligenza artificiale alle decisioni umane implica complessità e incertezza (Jarrahi, 2018). Uno dei principali fattori di complessità nasce dall’integrazione di uomo e macchina nel processo decisionale, con conseguente crescente timore che le macchine intelligenti possano sostituire l’uomo nelle decisioni. A ciò si aggiunge che lo sviluppo di un sistema di intelligenza artificiale è di per sé stesso complesso non solo dal punto di vista tecnico, ma anche per le sue implicazioni normative ed etiche.

2. Applicazioni dell’intelligenza artificiale in finanza

In ambito finanziario, l’intelligenza artificiale trova ampio spazio di applicazione nella gestione del risparmio, ove apporta nuove dimensioni allo sviluppo di strategie di investimento con riguardo ai modelli che determinano, sulla base delle informazioni disponibili, allocazioni ottimali di portafoglio. L’ottimalità si riferisce a un determinato obiettivo in presenza di vincoli, di norma la massimizzazione del rendimento del portafoglio per un livello di rischio massimo sopportabile dell’investitore. Nei modelli tradizionali, la definizione della composizione ottimale del portafoglio è caratterizzata da un’implementazione statica senza adattamento ai cambiamenti di mercato all’interno dell’orizzonte di investimento, poiché la strategia si basa su dati periodici passati, quali ad esempio i bilanci. Nei modelli di intelligenza artificiale, la definizione ottimale della composizione del portafoglio è invece dinamica, nel senso che il modello per il portafoglio ottimale viene continuamente adattato nel tempo dall’algoritmo stesso sulla base di informazioni di mercato aggiornate. Ciò dà origine alla cosiddetta gestione adattiva del portafoglio basata su tecniche di apprendimento automatico (Chiu e Xu, 2004).

Nella gestione del portafoglio basata sull’intelligenza artificiale, a differenza della gestione tradizionale, gli esseri umani e le macchine hanno ruoli interconnessi: il ruolo degli esseri umani (sviluppatori di algoritmi o data scientist) non è solo costruire una strategia di investimento, ma progettare e implementare un algoritmo che alla fine realizzerà la propria strategia di investimento adattiva con implicazioni dirette sulle scelte di investimento e sulla performance. La performance di una strategia di investimento statica si riferisce alla selezione di un portafoglio che fornirà rendimenti nell’orizzonte di investimento, mentre la performance di una strategia basata sull’intelligenza artificiale dipende non solo dalla selezione iniziale del portafoglio, ma anche dalle capacità della macchina di apprendere da informazioni di mercato e rivedere costantemente la composizione del portafoglio per garantire rendimenti persistenti. In sostanza, la responsabilità per la performance di una strategia statica è attribuibile al gestore del portafoglio che ha costruito la strategia, mentre la performance di un portafoglio basato sull’intelligenza artificiale è determinata dal contributo congiunto di uomini e macchine.

3. Responsabilità uomo-macchina

Il tema della responsabilità uomo-macchina si impone all’attenzione con la crescente diffusione dell’intelligenza artificiale. Come lo stesso Papa Francesco scrive in occasione del convegno della Pontificia Accademia per la Vita del febbraio 2020: «il rapporto tra l’apporto umano e il calcolo automatico va studiato bene perché non sempre è facile prevederne gli effetti e definirne le responsabilità». La letteratura recente in materia infatti presta particolare attenzione al tema della cosiddetta accountability, ossia l’attribuzione della responsabilità all’uomo piuttosto che alla macchina. A riguardo (si veda, tra gli altri, Martin, 2019) si argomenta che gli sviluppatori sono responsabili (e dovrebbero essere ritenuti tali) delle scelte e delle performance nel caso di algoritmi imperscrutabili, cioè algoritmi che assumono decisioni complesse sulla base di un’elevata mole di informazioni e con sofisticate tecniche di analisi tali da rendere impossibile o inefficiente una ricostruzione analitica del processo decisionale. Intuitivamente sembra importante assegnare la responsabilità agli esseri umani, anche quando gli algoritmi sviluppano capacità di apprendimento.

4. Come rendere responsabili gli sviluppatori di algoritmi

Lo snodo centrale del tema della responsabilità riguarda il modo in cui gli sviluppatori possono essere resi responsabili, ovvero la cosiddetta attribuzione di responsabilità intesa come un “processo di dare ed esigere ragioni di condotta” (Roberts e Scapens 1985). Questo fenomeno di base si manifesta quando la parte responsabile può e vuole rendere conto delle sue azioni in un contesto sociale. Studi empirici (Beccalli E., Lionzo A., Virili F., Social accountability at a distance: accounting as (re)constitutive of social relationships in Covid-19 times, Working paper, 2020), basati su analisi di esperienze di un’azienda fintech, mostrano che per rendere responsabili gli sviluppatori di algoritmi le organizzazioni adottano diverse risposte manageriali e organizzative in termini di ridefinizione delle relazioni lavorative sulla base di gruppi di lavoro, attuazione di livelli distribuiti di responsabilità, costruzione di sistemi di incentivi di natura non solo economica per gli sviluppatori (in termini di contenuto del lavoro, soddisfazione lavorativa e condivisione valoriale) e introduzione di sistemi di controllo di gestione.

5. Attribuzione di natura sociale e relazionale della responsabilità

Interessante è la natura dei processi di attribuzione di responsabilità in un contesto complesso con elevata innovazione e risultati osservabili solo nel medio-lungo termine, come appunto un’azienda fintech, in cui l’attribuzione gerarchica basata su pratiche di controllo risulta inadeguata. In tali contesti, l’archetipo dell’attribuzione gerarchica mostra i suoi limiti a vantaggio della nozione di “social accountability”, ossia un processo di attribuzione della responsabilità di natura sociale e relazionale. Le attività lavorative sono basate su team e svolte in un ambiente open-space, incoraggiando l’interazione e la collaborazione continue. I team si incontrano spesso alimentando relazioni al loro interno, tra di loro e anche con il top management. Il supporto alla collaborazione non si limita agli aspetti tecnici, ma anche alla sfera emotiva e alla creatività dello sviluppatore. Un allineamento continuo tra i membri del team è fondamentale, poiché algoritmi complessi richiedono la calibrazione in tempo reale attraverso il dialogo e il confronto tra persone con competenze diverse. L’allineamento è garantito da fiducia, collaborazione e autonomia, con gli sviluppatori che emergono come agenti responsabili. I sistemi di rendicontazione sono limitati, integrati ed estesi da interazioni personali. I documenti formalizzati non sono soltanto uno strumento di misura e controllo, ma costituiscono un fattore da cui scaturisce un discorso interpersonale continuo. L’enfasi su fiducia, collaborazione e autonomia non esclude laddove possibile il ricorso a forme di controllo sulla quantità e qualità del lavoro svolto, anche se la responsabilità individuale e collettiva rimane in primo piano, poiché la manifestazione dei risultati sarà evidente solo nel lungo periodo.

6. Pandemia, distanza e ricostruzione del tessuto relazionale

Tra le tante gravi conseguenze della pandemia da Covid-19 si ritrova per molte aziende, soprattutto nell’ambito dei servizi finanziari, l’improvvisa interruzione di ogni forma di rapporto e collaborazione in presenza. Ciò ha determinato, per salvaguardare la continuità del business, la necessità di sviluppare nuove modalità di organizzazione delle attività a causa della prolungata distanza relazionale in un regime di lockdown. Improvvisamente le aziende sono state costrette ad adottare team virtuali, dove i dipendenti si incontrano raramente di persona, utilizzando la tecnologia delle comunicazioni per quasi tutte le loro interazioni e il processo decisionale. Come mostrato in alcuni studi, per rendere efficaci tali team virtuali, in aggiunta alla comunicazione in remoto, sono importanti anche i contatti personali cadenzati ritmicamente nel tempo. Ma durante l’emergenza sanitaria, i contatti personali sono stati bruscamente interrotti e rimossi.

Un progetto di ricerca relativo al mondo fintech (Beccalli, Lionzo, Virili, 2020) affronta proprio questa importante sfida che le organizzazioni si sono trovate improvvisamente ad affrontare. Si osserva che nei casi più virtuosi, non ci si limita all’utilizzo di tecnologie digitali, ma piuttosto si mira a ricostruisce il “tessuto relazionale” attraverso l’introduzione di nuovi sistemi di rendicontazione centrati su informazioni di carattere non-finanziario. A distanza la ricostruzione del dialogo passa attraverso sistemi che tradizionalmente sono stati visti come sistemi di controllo. Si apre una nuova prospettiva, a prima vista paradossale, in cui i sistemi di rendicontazione sono usati per costruire e rafforzare fiducia e dialogo piuttosto che per controllare in maniera gerarchica i dipendenti, proprio nel momento in cui invece un intensificato controllo sembrerebbe la soluzione al problema.

Quello che queste recenti ricerche stanno suggerendo è che per ricostruire la relazione a distanza non è sufficiente dotarsi di tecnologia, ma è necessario utilizzare in una nuova ottica i sistemi di rendicontazione, accompagnandoli a pratiche organizzative che istituiscano frequenti e definite occasioni di incontro virtuale. L’essenza è l’utilizzo delle tecnologie digitali per poter ricostruire la relazione e il dialogo piuttosto che per esercitare una funzione di controllo gerarchico. Queste nuove soluzioni, pur essendo nate in ambiti innovativi, possono essere di ispirazione e utilità per il miglior funzionamento di realtà più tradizionali, affinché lo smart working non diventi fonte di alienazione e isolamento oltre che di ulteriore deterioramento della produttività.

7. Responsabilità e relazione lavorativa nel magistero della Chiesa

Perfino nel contesto finanziario, anche quando basato sulle più sofisticate tecnologie dell’informazione come l’intelligenza artificiale, contesto dove gli aspetti economici e tecnologici potrebbero far passare in secondo piano gli aspetti etici, vi sono esperienze in cui emerge la “fondamentale indole relazionale dell’uomo”, perno del documento Oeconomicae et pecuniariae quaestiones della Congregazione per la Dottrina della Fede e del Dicastero per il Servizio dello Sviluppo Umano Integrale. Come si legge nelle considerazioni di fondo del documento, “anche quei sistemi a cui danno vita i mercati, prima ancora che reggersi su anonime dinamiche, elaborate grazie a tecnologie sempre più sofisticate, si fondano su relazioni” (Oeconomicae et pecuniariae quaestiones, 2018, 8).

L’enfasi sulle relazioni è al centro di una concezione della stessa economia non come fine ma come strumento al servizio dell’uomo. L’economia, come ogni altro ambito dell’attività umana, “ha bisogno dell’etica per il suo corretto funzionamento; non di un’etica qualsiasi, bensì di un’etica amica della persona” (Caritas in veritate, 2009, 45).

Questa stessa enfasi sulle relazioni porta con sé una visione dell’uomo alla “ricerca di un guadagno e di un benessere che siano interi, non riducibili ad una logica di consumo o agli aspetti economici della vita” (Oeconomicae et pecuniariae quaestiones, 9). L’adozione di pratiche organizzative incentrate sulla responsabilità piuttosto che sul controllo, nonché di schemi di incentivazione legati alla crescita della persona e allo sviluppo della sua creatività piuttosto che alla sola dimensione economica sono in sintonia con tale visione.

L’accento non solo sulla dignità, ma anche sull’autonomia, la responsabilità e la creatività del lavoro, tanto da parlare di imprenditorialità dello stesso, è ben presente nella dottrina sociale della Chiesa e saldamente inserito nella tradizione del magistero della Chiesa. “L’imprenditorialità, prima di avere un significato professionale, ne ha uno umano. Essa è inscritta in ogni lavoro, visto come «actus personae», per cui è bene che a ogni lavoratore sia offerta la possibilità di dare il proprio apporto in modo che egli stesso «sappia di lavorare ‘in proprio’». Non a caso Paolo VI insegnava che «ogni lavoratore è un creatore»” (Caritas in veritate, 41).

Nell’esperienza delle fintech, più che delle grandi realtà finanziarie tradizionali, lo sviluppatore di algoritmi opera in un contesto che favorisce il lavorare “in proprio”: collaborando con gli altri in spazi condivisi, non è un esecutore o un ingranaggio, ma un attore responsabile del risultato dell’operare congiunto di uomo e macchina. L’attribuzione della responsabilità in un processo sociale e relazionale, non gerarchico, enfatizza una dimensione ancora più alta del lavoro, quella del “vissuto in comune”. “Diremo di più: vissuto in comune, condividendo speranze, sofferenze, ambizioni e gioie, il lavoro unisce le volontà, ravvicina gli spiriti e fonde i cuori: nel compierlo, gli uomini si scoprono fratelli” (Populorum progressio, 27).

Il concetto che ogni lavoratore è un creatore, peraltro, si applica non solo ai lavori di più elevato profilo intellettuale e gestionale, come esemplificato nell’esperienza delle fintech, ma anche ai più umili e operativi, poiché espressione del vivere, come sottolineato in maniera illuminante e poetica nel passaggio che segue: “Dio, che ha dotato l’uomo d’intelligenza, d’immaginazione e di sensibilità, gli ha in tal modo fornito il mezzo onde portare in certo modo a compimento la sua opera: sia egli artista o artigiano, imprenditore, operaio o contadino, ogni lavoratore è un creatore. Chino su una materia che gli resiste, l’operaio le imprime il suo segno, sviluppando nel contempo la sua tenacia, la sua ingegnosità e il suo spirito inventivo” (Populorum progressio, 27).


Bibliografia
Beccalli E., Elliot V., Virili F. (2020), Artificial Intelligence and Ethics in Portfolio Management, in Digital Business Transformation. Organizing, Managing and Controlling in the Information Age, a cura di R. Agrifoglio, R. Lamboglia, D. Mancini, F. Ricciardi, Springer.
Chiu K.-C., Xu L. (2004), Arbitrage pricing theory-based Gaussian temporal factor analysis for adaptive portfolio management, “Decision Support Systems”, 37, 485-500.
Jarrahi M.H. (2018), Artificial intelligence and the future of work: Human-AI symbiosis in organizational decision making, “Business Horizons” 61, 577-586.
Martin K. (2019), Ethical Implications and Accountability of Algorithms, “Journal of Business Ethics”, 160, 835-850.
Roberts J., Scapens R. (1985), Accounting systems and systems of accountability – understanding accounting practices in their organisational contexts, “Accounting, Organizations and Society”, 10(4), 443-456.


Autore
Elena Beccalli, Università Cattolica del Sacro Cuore (elena.beccalli@unicatt.it)