ERRORI E FALLIMENTI: IL MALFUNZIONAMENTO DELL’INTELLIGENZA ARTIFICIALE E LA QUESTIONE ETICA

ETICA DELL'INTELLIGENZA ARTIFICIALE

di Camilla Moroni, studentessa Strategic Communication IULM

Uno studio condotto nel 2013 dall’Università di Cambridge e Stanford in Gran Bretagna ha dimostrato che l’algoritmo di Facebook conosce i tratti della nostra personalità meglio dei nostri affetti umani. Tre anni dopo, in Germania, la polizia è dovuta intervenire per porre fine a un party privato organizzato da Alexa con musica ad altissimo volume in piena notte. Nello stesso anno, un uomo è stato arrestato nel Regno Unito a causa di un errato riconoscimento facciale, che lo ha identificato come un criminale ricercato dalla polizia. Altrettanto sbalorditivo ma più controverso è il caso dell’utilizzo di una chatbot per ottenere consigli medici, introdotta dal Sistema Sanitario Nazionale Inglese nel 2018: nonostante l’affidabilità del servizio, non pochi dubbi e perplessità sono emersi in merito.

Durante i due anni successivi, un gruppo di ingegneri francesi ha provato a creare un algoritmo per determinare l’affidabilità di una persona tramite l’analisi dei tratti somatici del viso, basandosi sul vaglio di dipinti storici. Deplorevole è poi il comportamento di Deliveroo Italia che nel 2021 si è visto costretto a pagare un’ingente multa per l’utilizzo di un algoritmo discriminatorio nei confronti di alcuni rider. Scetticismo e imbarazzo sono emersi dopo la decisione di una chiesa polacca di utilizzare SanTo, un robot in grado di compiere il sacramento della confessione e celebrare sermoni. Quest’anno, infine, Twitter ha sospeso diversi account che avevano condiviso filmati e informazioni sui movimenti militari russi, poche ore prima dell’invasione dell’Ucraina.

Questi sono solo alcuni esempi di errori dell’Intelligenza Artificiale (IA) che hanno causato crisi aziendali. Un team di ricercatori ed esperti sta mettendo a disposizione dell’iniziativa AI, Algorithmic & Automation Incidents & Controversy Repository (AIAAIC) la propria competenza dal 2019 per registrare e classificare, in un database pubblico, i casi di fallimenti eclatanti avvenuti dal 2011 ad oggi in tutto il mondo. Il progetto, indipendente e apolitico, ha il fine di promuovere la trasparenza e l’uso coscienzioso degli strumenti digitali per evitare qualsiasi tentativo di frode o coercizione.

Dal mio studio condotto su più di 150 casi accaduti in Europa sono emersi notevoli dati relativi alle crisis response strategies (Coombs, 2007) adottate dalle aziende. Analizzati i risultati, si è rilevato che nella maggior parte dei casi è stata utilizzata la denial strategy, che prevede la completa negazione dell’esistenza della crisi. 

Nello specifico, è interessante inoltre indagare le modalità di risposta in relazione all’impatto dell’evento sulla reputazione dell’azienda: nel caso in cui il problema sia stato causato da un malfunzionamento della tecnologia, il più delle volte le aziende coinvolte hanno risposto utilizzando la strategia di rebuilding, scusandosi e ammettendo apertamente la propria responsabilità. La situazione invece cambia quando le tecnologie utilizzate e il fine che perseguono siano state considerate dall’opinione pubblica come poco etiche e deontologicamente compromettenti: generalmente vengono adottate le tattiche di denial e bolstering, in cui lati positivi dell’azienda o dell’utilizzo della tecnologia vengono evidenziati per distogliere l’attenzione dal problema principale.

I dati emersi sono esplicativi della situazione controversa intorno alla sfera dell’IA: i problemi morali legati al suo utilizzo sono evidentemente ritenuti più critici rispetto a un’anomalia tecnica, motivo per il quale in situazioni moralmente dubbiose le aziende preferiscono prendere le distanze dall’accaduto.

Da quando l’Intelligenza Artificiale è entrata negli spazi di lavoro, nelle abitazioni, nei processi produttivi e decisionali della nostra vita, le istituzioni stanno dimostrando sempre maggiore interesse per la questione. Poiché la dimensione etica è il perno del dibattito legato all’utilizzo di questa permeante tecnologia, la sfida che rimane è trovare la giusta strada per gestire non solo più la questione pratica, ma anche e soprattutto il carattere morale legato a questo strumento.