L’ETICA DELL’INTELLIGENZA ARTIFICIALE

ETICA DELL'INTELLIGENZA ARTIFICIALE

di Guido Di Fraia, Università IULM

Se non formulata correttamente, la domanda sull’etica dell’Intelligenza Artificiale può riprodurre il diffuso fraintendimento originato dall’immaginario filmico secondo cui esisterebbero delle macchine intelligenti in grado di essere più o meno etiche. In realtà, a tutt’oggi, l’unica “macchina” realmente intelligente nell’universo conosciuto rimane il cervello umano. Gli strumenti tecnologici sono al momento solo in grado di esprimere un’enorme potenza di calcolo e di trasformare dei simboli – i dati – in altri simboli – le informazioni – di maggior valore per gli esseri umani. 

Meglio, dunque, sarebbe parlare di Intelligenza Aumentata (l’intelligenza resta quella umana e le macchine servono solo a potenziarla) e a riformulare la domanda iniziale nei termini di “l’uso etico dell’Intelligenza Aumentata”. Sono infatti proprio le pratiche d’uso delle diverse tecnologie connesse all’Intelligenza Artificiale ciò che ne determina l’eticità. Pratiche che hanno a che fare tanto con gli usi dell’IA quanto con le modalità con cui essa viene effettivamente addestrata. Un conto è usare sistemi di visual recognition per le diagnosi automatizzate delle neoplasie del seno, altro è impiegare gli stessi sistemi per individuare sul territorio obiettivi da colpire attraverso droni teleguidati. 

Ma anche sistemi “intelligenti” pensati per scopi “benefici” possono, se non correttamente addestrati, rivelarsi non etici. Contrariamente all’immagine che la stessa definizione tende a suggerire, gli algoritmi sono tutt’altro che asettici elementi di calcolo. La loro progettazione è il risultato di decisioni umane che, proprio per questo, possono: essere sbagliate, contenere assunzioni scorrette o riproporre bias e pregiudizi destinati ad attivare un circolo vizioso tendente ad auto-alimentarsi. 

L’IA utilizzata, ad esempio, da un’azienda di head hunting per la pre-selezione automatica dei candidati che, per le figure apicali, sceglie solo maschi bianchi è evidentemente stata addestrata su un database che esclude a priori donne o persone di altre etnie. Database che evidentemente conteneva il bias riproposto dalla macchina a testimonianza di come i “comportamenti” delle soluzioni di IA tendano spesso a renderci consapevoli dei limiti dei nostri processi cognitivi e della scarsa eticità del nostro agire sociale. In modo simile una piattaforma di IA utilizzata per stabilire la concessione di un finanziamento ai clienti di una banca può risultare più o meno etica in relazione al tipo di dati che prenderà in considerazione per giungere alle proprie decisioni. In questo caso, una cosa è se tali dati sono relativi esclusivamente agli effettivi comportamenti finanziari dei richiedenti, altra se invece, come in effetti succede per esempio negli Stati Uniti, la valutazione si basi anche su elementi di carattere più personale (sesso, orientamento politico e religioso, etc.) ricavabili attraverso le tracce digitali lasciate in rete dagli utenti. 

Ecco allora che, in termini operativi, quando dobbiamo valutare la possibilità di utilizzo di piattaforme AI-powered per le nostre attività di business, marketing e comunicazione aziendale, dovremmo in primo luogo interrogarci sull’effettiva eticità del sistema, ponendoci almeno le seguenti domande: quali sono le variabili che l’algoritmo prende in considerazione per poter svolgere le proprie analisi e fornire i relativi responsi? Tali variabili sono effettivamente utili? E i dati necessari a descriverle sono di carattere sensibile? Possono essere effettivamente raccolti in relazione alle normative vigenti sulla privacy e alle dimensioni etiche connesse al loro utilizzo?

Un ulteriore aspetto da prendere in considerazione nella scelta è quello relativo al modello sottostante alle funzioni che quel determinato sistema di IA dovrà svolgere. Ad esempio, la piattaforma di cui ci vorremmo dotare per generare prezzi variabili ai diversi consumatori interessati ai nostri prodotti è stata sviluppata sulla base di un modello algoritmico finalizzato esclusivamente a massimizzare i nostri profitti o, in maniera più etica, a generare valore anche per i clienti? 

Talvolta può non essere facile raccogliere le informazioni necessarie a stabilire la maggiore o minore eticità delle piattaforme di IA già presenti sul mercato. Le aziende produttrici, infatti, si trincerano spesso dietro la presunta “oscurità” degli algoritmi. Tale “oscurità” può essere reale solo in relazione ai meccanismi di Machine o Deep Learning che, a partire da un insieme di dati, hanno generato una determinata soluzione. Ma i dati su cui l’IA è stata addestrata e i modelli (ideologici e computazionali) che ne stanno alla base, non sono mai realmente oscuri e la loro trasparenza è proprio uno dei requisiti fondamentali per poter valutare l’eticità della soluzione e deciderne o meno l’utilizzo.