INTELLIGENZA ARTIFICIALE ED ETICA, UNA SFIDA CONTEMPORANEA

D&I, IL VALORE DELLE DIVERSITA'

di Susanna Fiorletta

Intelligenza Artificiale ed etica sono complementari? Si può parlare di Intelligenza Artificiale etica, inclusiva e, in un certo senso, “umana”? 

Queste le domande chiave su cui si è sviluppato il dibattito dell’evento di presentazione dello scorso 1° dicembre 2022 nella splendida cornice dell’Acquario Romano (Roma), della ricerca condotta dall’Università IULM dal titolo Etica dell’Intelligenza Artificiale: quali sono i nodi critici per i comunicatori? che mette al centro le sfide e le opportunità che l’IA offre alle organizzazioni pubbliche e private, con particolare attenzione alle tecniche comunicative a disposizione delle aziende per veicolare messaggi di inclusione in un ambiente culturalmente aperto e plurale come le società odierne.

L’evento è stato un momento di confronto tra stakeholder istituzionali, top manager e accademici per approfondire il tema dell’Intelligenza Artificiale (IA), definita come una serie di algoritmi ed applicazioni informatiche che hanno la capacità di imparare nel tempo ed accrescere le proprie conoscenze. Hanno preso parte al dibattito: Roberto Baldoni, Direttore Generale, Agenzia per la Cybersicurezza Nazionale; Gianni Canova, Rettore IULM; Pierangelo Fabiano, Segretario Generale, International Corporate Communication Hub; Carlo Nardello, Docente Digital Marketing, Università di Roma “La Sapienza”; Padre Philip Larrey, Docente di Filosofia, Pontificia Università Lateranense; Mons. Vincenzo Paglia, Presidente, Pontificia Accademia per la Vita; Angelo Maria Petroni, Segretario Generale, Aspen Institute Italia; Stefania Romenti, Docente di Strategic Communication Università IULM; Patrizia Rutigliano, Advisory Board, International Corporate Communication Hub. 

Ad aprire i lavori, Pierangelo Fabiano, che durante i saluti di indirizzo ricorda come “ad oggi modelli di Intelligenza Artificiale permeano ormai in tantissimi aspetti della vita quotidiana delle persone. Il mondo corporate non può ignorare questo fenomeno. L’IA rappresenta un’opportunità da cogliere e una sfida da accettare per lo sviluppo e l’evoluzione delle aziende, in termini di digitalizzazione ed efficienza. Vero è che dobbiamo tenere conto dei problemi che possono scaturire da un uso improprio dell’IA, soprattutto in relazione alla privacy e alla sicurezza delle persone. Per questo dobbiamo essere in grado di garantire uno sviluppo inclusivo e rispettoso dei sistemi di IA, risulta fondamentale che questo sia guidato dall’Etica.” 

Tuttavia, ancora oggi quando si pensa all’Intelligenza Artificiale, si configura un’immagine astratta delle sue applicazioni. Nella realtà, già conviviamo quotidianamente con sistemi di IA, nel privato così come nella vita lavorativa e pubblica. Sono tecnologie presenti ovunque, dai dispositivi mobili a modelli informatici più complessi con cui, tuttavia, ci interfacciamo spesso. Sono sistemi, imperfetti, che nascono dalla necessità di agevolare le nostre azioni di tutti i giorni. 

Sicuramente, un’applicazione così estensiva di queste tecnologie pone sul tavolo due questioni aperte e caratterizzanti del nostro tempo: la privacy e la discriminazione, “inconscia”, delle intelligenze artificiali. 

Non è un segreto che i modelli di IA – basti pensare alle funzioni di uno smartphone – raccolgano dati, talvolta senza un’esplicita richiesta di consenso da parte dell’utente. Dati che possono essere messi a disposizione da terze parti, esponendo l’utente a una profilazione indesiderata. Da qui, l’importanza di sviluppare modelli di IA nel rispetto delle persone in primis. Come ricorda Padre Philip Larrey, Docente di Filosofia presso la Pontificia Università Lateranense, durante l’evento: “L’Intelligenza Artificiale deve mettere al centro la persona.”

Tema più recentemente emerso, invece, riguarda quello delle discriminazioni da parte di sistemi digitali di IA, solitamente derivanti da bias (distorsioni, pregiudizi) di programmazione all’origine. Bias che portano ad esclusioni involontarie delle minoranze, di gruppi più vulnerabili, a favore della maggioranza. E non di rado modelli di IA sono stati utilizzati all’interno di aziende, facendo emergere il carattere pregiudiziale intrinseco sia nei confronti dei dipendenti sia dei clienti. Pregiudizi che favoriscono gruppi maggioritari – in termini di etnia, educazione, reddito. 

In questo senso, viene meno il carattere super partes che le macchine dovrebbero avere nei confronti delle persone. E da qui la necessità di ripensare la tecnologia a supporto dell’uomo; una tecnologia costruita nel rispetto dei principi che regolano le società aperte, plurali, democratiche. 

L’Intelligenza Artificiale non può essere cattiva, come, allo stesso modo, non può essere buona. E’ l’uso che se ne fa che la rende tale. L’IA può essere quindi utilizzata a beneficio delle persone, in molti ambiti della nostra vita – dal privato al posto di lavoro. Un’applicazione etica dell’IA da parte delle istituzioni e dei privati è possibile, diventando, talvolta, acceleratore di democrazia – in termini di uguaglianza, rispetto dei diritti.