ETICA E INTELLIGENZA ARTIFICIALE

ETICA DELL'INTELLIGENZA ARTIFICIALE

a cura di Lorenza Pigozzi, Direttore Comunicazione e Relazioni istituzionali, Mediobanca

Nell’era dei Big Data, l’intelligenza artificiale sta assumendo un ruolo da protagonista nello sviluppo del management, della governance e dell’efficienza delle imprese private. Questa tecnologia può contribuire in misura significativa all’efficientamento e all’automazione della maggior parte dei processi decisionali tradizionalmente affidati alle persone, facendo emergere di conseguenza profonde riflessioni di natura morale. 

A tal riguardo negli ultimi anni ha acquisito rilevanza l’etica dell’IA, una disciplina che alla stregua della Bioetica appartiene alla cosiddetta Etica Applicata, la branca di studio dell’Etica che tenta di individuare i principi fondativi di scelte e azioni quotidiane a fronte di nuovi contesti non ancora esplorati. 

Le potenzialità di queste tecnologie sono straordinarie e le preoccupazioni correlate a un loro utilizzo “non etico” spaziano dallo sviluppo di armi intelligenti alla manipolazione dei processi elettorali e hanno spinto l’Unesco, l’Unione Europea e molti governi nazionali, tra cui quello italiano, a pubblicare studi e raccomandazioni circa i principi etici da tenere in considerazione nello sviluppo, nell’utilizzo e nella valutazione di sistemi di IA. 

Tutte le suddette raccomandazioni sono accomunate dall’adozione di un approccio antropocentrico all’IA, volto a garantire che i valori umani siano al centro delle modalità di sviluppo, distribuzione, utilizzo e monitoraggio dei sistemi di intelligenza artificiale, nel rispetto dei diritti fondamentali sanciti, tra gli altri, anche nei trattati dell’Unione Europea. Questo approccio implica inoltre il rispetto dell’ambiente naturale appartenente all’ecosistema umano e un’attenzione ai temi di sostenibilità necessari per sostenere la crescita delle generazioni future.

I diversi contributi sul tema convergono nel porre alcuni principi etici fondamentali per un’IA affidabile. Fra questi, quattro hanno una rilevanza significativa: la trasparenza, garantita dalla possibilità di comprendere pienamente le decisione prese dal sistema, l’equità che assicura l’assenza di risultati iniqui e discriminatori, la responsabilità per individuare tra gli attori coinvolti uno o più responsabili dei comportamenti del sistema e, infine, la sicurezza e la privacy per proteggere dagli attacchi malevoli e custodire in accordo con le normative vigenti i dati dei soggetti interessati. 

In relazione al principio della trasparenza, l’Intelligenza Artificiale deve offrire la possibilità agli utenti di verificare i passaggi attraverso cui il sistema è giunto a determinate conclusioni in funzione di un set di dati iniziale (Explainable AI). Tuttavia questo principio, che prescrive di sviluppare sistemi di IA “esplicabili”, non è applicabile a tutte le istanze di Intelligenza Artificiale. Le cosiddette reti neurali, ad esempio, presentano una dipendenza sensibile alle condizioni iniziali e si basano su set di dati estremamente complessi, rendendo difficile l’individuazione di una correlazione stretta tra premesse e conclusioni. In questi casi il principio della trasparenza deve essere rispettato garantendo la piena tracciabilità dei dati e degli algoritmi utilizzati, al fine di offrire un’esaustiva documentazione che possa supportare l’eventuale analisi a posteriori.

Sulla base dei suddetti principi è necessario definire quanto prima un quadro normativo per l’Intelligenza Artificiale, coerente ai quadri giuridici internazionali e nazionali. Le raccomandazioni del Parlamento Europeo del 20 ottobre 2020, in merito agli aspetti etici dell’IA, si muovono in questa direzione, proponendo l’istituzione di una “certificazione europea di conformità etica” e obblighi giuridici comunitari per tutti gli attori coinvolti lungo le fasi di sviluppo, diffusione e utilizzo dell’IA. 

Nel frattempo cresce l’utilizzo dell’Intelligenza Artificiale anche nel settore bancario, con riferimento soprattutto ad alcuni ambiti specifici. Il primo di essi riguarda i servizi di investimento che utilizzano fonti algoritmiche per generare ritorni sul capitale investito: si tratta dei cosiddetti gestori sistematici o quantitativi, wealth manager cioè che hanno sostituito in tutto o in parte la scelta dei gestori attraverso l’utilizzo di algoritmi. Sono servizi di investimento che oggi costituiscono ancora una nicchia nell’ambito della gestione del risparmio, tanto da essere qualificati come “alternativi”, ma che stanno crescendo a ritmo costante e che permettono alle banche e in generale a chi opera nella consulenza per la gestione dei risparmi, di avere un’offerta distintiva, sofisticata e di reagire in maniera molto rapida ai segnali di mercato. 

Il secondo ambito riguarda invece l’applicazione di sistemi di Intelligenza Artificiale a processi commerciali, come può essere l’interazione con i clienti per l’assistenza o per la fornitura di informazioni, o industriali, come può essere la gestione automatizzata della valutazione del merito creditizio o di processi di back office di vario genere. In questo caso il vantaggio competitivo garantito dall’applicazione dell’IA si esprime nella maggior efficienza che i processi così organizzati possono garantire. In entrambi i casi è evidente che l’utilizzo dell’IA diventerà presto un fattore critico di successo anche relativamente all’industry bancaria.

Ulteriori ambiti di interesse per il Finance sono legati alla prevenzione delle frodi, all’automazione dei controlli di compliance e, più in generale, alla gestione dei canali di contatto con la clientela tramite bot.

Come Gruppo Mediobanca adottiamo l’IA in maniera selettiva laddove questa dimostri di poter ampliare le possibilità di investimento per i nostri clienti o di portare valore aggiunto in termini di efficienza operativa. Nel primo caso il riferimento è ai servizi di investimento che proponiamo alla nostra clientela wealth attraverso RAM Active Investments, gestore sistematico svizzero che applica l’IA a processi di investimento; nel secondo caso il riferimento è all’assistente virtuale di CheBanca!, che gestisce la prima interazione online con i clienti che necessitano di informazioni e supporto e ai chatbot utilizzati internamente nella gestione delle problematiche tecniche e delle richieste all’HR.

Queste applicazioni di Intelligenza Artificiale sono classificate come portatrici di un “rischio limitato” secondo i criteri emanati dalla Commissione Europea. Tale classificazione è tipica di quelle applicazioni in cui l’utente deve essere consapevole di interagire con una macchina e, conseguentemente, avere la possibilità di decidere se proseguire nell’interazione o meno. Anche in un ambito classificato come a “rischio limitato” esistono tuttavia delle tematiche di ordine etico da considerare. Innanzitutto un assistente virtuale (chatbot) deve garantire il rigoroso rispetto della privacy degli utenti con cui interagisce, operando un trattamento dei dati acquisiti nel corso dell’interazione in linea con la normativa. 

La privacy, infatti, rappresenta un diritto essenziale per la protezione dell’autonomia e dell’agire umano, deve essere rispettata, protetta e promossa durante tutto il ciclo di vita dei sistemi di IA. È importante che i dati quindi siano raccolti, utilizzati, condivisi, archiviati ed eliminati in modo coerente e nel rispetto dei quadri giuridici nazionali, regionali e internazionali.

In secondo luogo è importante evitare che in fase di programmazione e aggiornamento dei sistemi di IA vengano trasmessi bias cognitivi da cui possano derivare discriminazioni di genere o di appartenenza sociale. Ha fatto storia da questo punto di vista il caso del chatbot Tay, sperimentato da Microsoft su Twitter nel 2016, che nel giro di poche ore ha iniziato a proporre commenti sessisti e razzisti.

Quella dei bias cognitivi può essere considerata come una problematica “design-related” o “application-related”. La prima categoria inquadra le problematiche etiche che possono emergere in fase di progettazione e sviluppo della soluzione di IA qualora questi processi non siano adeguatamente presidiati, mentre la seconda fa riferimento alle problematiche etiche che possono emergere dall’implementazione o dall’utilizzo di sistemi di IA, anche quando tali sistemi siano progettati in maniera aderente ai principi stabiliti.

Esiste infine un tema di accountability nella misura in cui ogni applicazione di IA deve essere inserita in un contesto organizzativo chiaro che garantisca non solo la trasparenza informativa circa il perimetro di applicazione della stessa, ma anche la responsabilità etica e legale degli output.

Per presidiare le suddette tematiche di ordine etico occorrono meccanismi continui di supervisione, monitoraggio, valutazione e audit delle applicazioni di IA di cui un’organizzazione si serve per garantire il rispetto dei principi etici fondamentali, mantenendo quella caratteristica antropocentrica raccomandata dall’Unesco, dalla Commissione Europea e che caratterizza da sempre anche il Gruppo Mediobanca.