EDITORIALE

ETICA DELL'INTELLIGENZA ARTIFICIALE

di Stefano Lucchini, Presidente Advisory Board ICCH

Intelligenza ed etica possono coesistere? Nonostante le incongruenze sappiamo tutti che si tratta del tema di oggi e di domani, e secondo me – ma prendetelo come un paradosso – tra poco ci converrebbe affidare all’intelligenza artificiale anche i nostri comportamenti politici, cosicché possano risultare più razionali, ponderati magari secondo il criterio dell’interesse generale prima di tutto, cosa non difficile da individuare.

Detto questo, mi pare chiaro che oggi la nostra rilevanza come persone, come cittadini e come consumatori sia del tutto subordinata a quella di “portatori inconsapevoli di dati preziosi per qualcuno”, anzi per tanti che ci comprano e ci rivendono milioni di volte durante la nostra vita terrestre. Ma non dobbiamo guardare solo alla conseguenza in fondo più banale visto il livello di sofisticazione che le relative tecniche hanno raggiunto, quella ormai ineluttabile di essere meri fornitori di dati, ma rovesciare il tavolo e porci la domanda che gli specialisti si fanno: se le intelligenze artificiali diventano di fatto “invisibili” perché ci nuotiamo dentro, che effetti ci saranno sull’uomo e sulla società? Quando la macchina ha preso il posto del lavoro muscolare la rivoluzione industriale ha cambiato le nostre vite e l’aspetto stesso del pianeta. Cosa può accadere ora se le macchine possono in parte e in un certo qual modo surrogare la nostra mente?

Sappiamo che le intelligenze artificiali permeano ormai tantissimi aspetti del vivere quotidiano: fare una ricerca su internet, chiedere un prestito, cercare lavoro o l’anima gemella (forse) e tante altre azioni comuni possono avvenire mediante l’azione di vari tipi di algoritmi. A differenza però degli artefatti tecnici del passato, dalla pietra scheggiata della preistoria alle macchine industriali più moderne, che andavano a integrare le nostre abilità naturali ma rimanevano semplici strumenti, gli artefatti tecnologici in cui si traduce l’intelligenza artificiale possono predire i nostri comportamenti futuri e addirittura prendere decisioni al nostro posto. Rappresentano una sorta di “prolungamento” di noi stessi che ci solleva da molte incombenze con un clic semplificandoci la vita, ma che non controlliamo del tutto e del cui funzionamento siamo in gran parte inconsapevoli perché spesso vediamo solo la punta dell’iceberg. E questi strumenti non sono generici, che possono stare in mano a chiunque rimanendo tutto sommato sempre uguali, ma sono fortemente tarati sulle persone e sulle loro caratteristiche, cioè aderiscono in modo profondo alla nostra identità personale.

Qui dunque entrano la privacy e i diritti delle persone a non essere un libro totalmente aperto per chi ha e sa leggere i dati che lo riguardano. Si tratta di un tema irrisolto. In tutto il mondo occidentale (evito qui di parlare dell’uso dei dati che fanno le autocrazie), si sta facendo strada l’idea che l’intelligenza artificiale e le sue applicazioni ai vari campi della vita umana siano innanzitutto una materia da normare, da governare nella sua ricca complessità. E’ quindi diventato frequente vedere gruppi di ricercatori lavorare insieme a giuristi, economisti, ingegneri, filosofi, esperti di marketing e di comunicazione, per elaborare le risposte a questo bisogno di regole, e le risposte non possono che essere multidisciplinari. Non è, cioè, possibile risolvere i problemi complessi del mondo dei dati proponendo soluzioni dal punto di vista di una sola disciplina: ad esempio il diritto, o l’ingegneria, o la filosofia. La riflessione etica sui problemi dei dati è una riflessione per sua natura complessa, che veramente chiama in causa tutti i nostri saperi e li porta a disegnare i contorni di nuove sfide, nuovi argomenti che saranno i prossimi classici.

Uno di questi argomenti è la presunta gratuità dei dati: i dati sono prodotti dalle persone, ma sono alienati alle persone e nonostante le recenti prese di coscienza sul loro utilizzo e l’irrobustimento della normativa sulla privacy, i dati continuano a essere di proprietà di chi li raccoglie e non di chi li produce. Questa alienazione, che nella vita quotidiana siamo abituati a dare per scontata, è in realtà qualcosa di fondamentale su cui riflettere e che, in un modo o nell’altro, produrrà importanti conseguenze anche e soprattutto in base a come la collettività sceglierà di affrontare questo problema. Si tratta di grandi movimenti di pensiero, che riguardano tutta la società, e che danno i loro frutti soltanto nel tempo. Oggi ciascuno di noi naviga nel web seminando dati, che vengono raccolti e studiati dalle grandi aziende – in primis Google, Facebook, Amazon e le altre. L’utilizzo di queste piattaforme di servizi web è quindi solo apparentemente gratuito in quanto i nostri dati vengono raccolti, aggregati, studiati, analizzati, e utilizzati per sviluppare prodotti e servizi che ci riguardano, anche intimamente, senza che noi lo sappiamo. Il loro utilizzo e la loro conservazione è ancora in molti casi del tutto indipendente dalla nostra volontà, sia quando li produciamo che in ogni momento successivo. I dati sono una merce preziosa, ma dietro il loro aspetto apparentemente asettico e artificiale ci sono le nostre informazioni personali, i nostri gusti, le nostre amicizie, la nostra salute, i nostri diritti. In breve, le nostre vite.

Fino ad oggi, per noi occidentali, e al netto dello strapotere dei colossi del web, le nostre liberaldemocrazie in molti casi ci hanno tutelato da un utilizzo dei dati fatto in dispregio dei diritti umani, ma sappiamo che altrove nel mondo non è così. Altrove, nel mondo, accade che un algoritmo stabilisca a chi concedere i diritti di cittadinanza, chi sia o meno un delinquente in base ai tratti del volto (un Lombroso tecnologico, si può dire), chi avrà diritto più di un altro a essere curato da una malattia e via dicendo, in una spirale di discriminazione che se descrivessimo per intero non esiteremmo a definire infernale. I dati, come tutte le informazioni sensibili, si prestano a essere utilizzati anche nei peggiori modi se non ci sono norme, strumenti e metodi che li rendano elementi rispettosi degli esseri umani. 

Riguardo ai problemi di cui sopra, appare chiaro che l’uso dei dati nelle strategie di comunicazione da una parte è del tutto scontato (negli Stati Uniti avviene da moltissimo tempo e del resto il marketing senza dati resterebbe solo un’intuizione se non un’astrazione), dall’altro l’eccesso di informazioni ricavabili dal singolo individuo è già oltre la soglia di tolleranza, anche se non ce ne rendiamo conto, abituati come siamo a esserne soggetti passivi. Il tema della tutela della persona e del cittadino di fronte allo strapotere dei padroni dei dati è il grande tema civile della nostra epoca. Anzi, lo sarebbe ancora di più se l’Europa e il mondo non fossero alle prese con fantasmi del passato che fantasmi purtroppo non sono: la guerra, l’inflazione, la crisi alimentare. Anche per questo, dobbiamo indagare anche e soprattutto le ragioni per avere la necessaria fiducia nel futuro, e non solo dal punto di vista della gestione dei dati.