COME REGOLARE L’INTELLIGENZA ARTIFICIALE

ETICA DELL'INTELLIGENZA ARTIFICIALE

a cura di Christian Fieseler, BI Norwegian Business School

Quando si parla di distorsioni dell’IA (bias), si intendono tutti gli effetti negativi inaspettati generati in modo non intenzionale dall’utilizzo dell’Intelligenza Artificiale. E’ importante però distinguere tra quelle distorsioni che sono dannose per le persone e quelle che non lo sono. Ovviamente non è ottimale sperimentare distorsioni inaspettate, come ad esempio, risultati di una ricerca diversi da ciò che si stava cercando. Ma finché queste non si rivelino dannose, va solamente risolto il disservizio che generano.

Da un punto di vista etico la nostra attenzione dovrebbe essere indirizzata a identificare quei bias che hanno un impatto diretto sui diritti umani e rispetto ai quali non esiste un sistema di verifica e responsabilità. Questo accade, per esempio, quando le persone sentono di essere trattate ingiustamente o subiscono le conseguenze di un qualche tipo di processo decisionale guidato da un’intelligenza artificiale che per diversi motivi si rivela discriminante o ingiusto, ma senza avere alcuna possibilità di segnalarlo o registrarlo.

Un esempio significativo è il recente caso riguardante l’accesso ai servizi sociali verificatosi in Olanda. Un algoritmo basato sull’IA è stato creato con l’obiettivo di identificare automaticamente eventuali frodi nell’assegnazione dei sussidi per l’infanzia alle famiglie. Purtroppo, il sistema è risultato discriminare sistematicamente famiglie a basso reddito, assegnando loro una maggiore probabilità di frode. L’operazione si è risolta in uno scandalo quando ad alcune famiglie a basso reddito è stato chiesto di restituire i sussidi che avevano ricevuto in precedenza. 

Ogni volta che si utilizzano processi decisionali basati sull’IA, è necessario ricordare che essa non è in grado di mappare se le persone abbiano ricevuto informazioni sufficienti o se abbiano compreso le informazioni ricevute, quindi, in sostanza, i risultati spesso non sono ottimali.

Spesso, il malfunzionamento dell’IA risiede nel modo in cui le organizzazioni ne gestiscono i risultati o, addirittura, nel fatto che quei risultati espongono a pregiudizi e discriminazioni che sono di fatto già presenti nelle nostre società. In questo senso, potremmo provocatoriamente dire che l’IA migliora le nostre vite semplicemente mostrandoci i pregiudizi della nostra società. Ovviamente è problematico quando i risultati dell’IA non vengono controllati correttamente, cosa che spesso accade, poiché abbiamo la tendenza a trattare i dati meccanicamente come rispecchianti una verità a priori.

Quindi, come si possono evitare o correggere le distorsioni dell’IA? È una questione di buona gestione interna e di responsabilità pubblica. Prima di tutto, per mitigare alcuni pregiudizi, abbiamo bisogno di team davvero diversificati e inclusivi all’interno delle organizzazioni per gestire le operazioni di IA. Inoltre, nel progettare le operazioni di IA, è necessario prevedere un periodo di transizione in cui le persone possono appellarsi contro i risultati, prima di subirne le conseguenze negative.

Al giorno d’oggi la pressione pubblica su questo tema è alta per le aziende che lavorano con l’IA: i controlli etici sono molto frequenti e vanno anche oltre la questione se un’operazione sia (o meno) etica nel suo complesso. Gli algoritmi di generazione di immagini virtuali, ad esempio, vengono controllati prima di essere rilasciati al pubblico, per evitare qualsiasi tipo di immagine discriminatoria e gli sviluppatori sono diventati in qualche modo anche “esperti di relazioni pubbliche” per evitare qualsiasi tipo di ricaduta reputazionale. Ovviamente, alcuni dettagli potrebbero sfuggire al controllo a causa della complessità della tecnologia e dell’impossibilità per gli sviluppatori di controllare i dati inseriti dagli utenti. E, parlando di istituzioni pubbliche, queste potrebbero non essere così avanzate nello sviluppo del processo.

Il passo successivo, per tutti i soggetti che si occupano di IA, è sviluppare un vero e proprio sistema sanzionatorio per chi usa l’IA in modo improprio. Al giorno d’oggi, è solo il tribunale dell’opinione pubblica a decidere cos’è giusto e cos’è sbagliato e a protestare, spesso sui social media. Ma non basta. Quando le persone subiscono conseguenze dannose a causa di operazioni di IA, dovrebbe sempre esserci un modo chiaro e semplice per contattare i responsabili. La maggior parte delle aziende e delle istituzioni non dispone ancora dei relativi meccanismi o della sensibilità per comprendere che i singoli individui potrebbero avere un problema e aver bisogno di aiuto rapidamente. Dovrebbero esserci professionisti della comunicazione o team di CSR incaricati di occuparsi di queste problematiche, meglio se collegati all’ufficio legale. Ancora meglio se esistesse un revisore dedicato che facesse parte della progettazione e dell’implementazione di tutte le operazioni di IA al fine di portare la prospettiva degli stakeholder dentro al processo e rilevare dove potrebbero annidarsi rischi reputazionali. 

Dove ciò non fosse possibile, dovrebbero almeno essere previsti dei “rilevatori” di feedback provenienti dagli stakeholder. Altrimenti, le operazioni di IA rischierebbero di essere focalizzate solo su un’élite di destinatari, invece di essere orientate a identificare e ascoltare i più vulnerabili.