17 luglio 2019

L'etica dell'algoritmo

di Armando Angrisani

L’etica della ricerca scientifica è tra i terreni di confronto e scontro più scivolosi. In particolare, i temi biomedici coinvolgono aspetti fondamentali della nostra esistenza e sono, pertanto, i più dibattuti. La forza delle argomentazioni raramente smuove i nostri convincimenti profondi e i principi che consideriamo non negoziabili. L’informatica, a differenza delle scienze biologiche, sembra distante dalla sfera morale. Dietro una macchina c’è sempre un programmatore umano e bisognerà imputare a lui – o a lei – eventuali abusi. Basterà concordare una buona definizione di algoritmo etico per circoscrivere il problema alla deontologia professionale del programmatore.

 

Consideriamo, ad esempio, quella proposta dai filosofi Nick Bostrom e Eliezer Yudkowsky: un algoritmo etico deve essere equo, trasparente, predicibile e resistente a tentativi di manipolazione. È una definizione perfettamente ragionevole, con un unico difetto: esprime delle proprietà di un oggetto matematico nel linguaggio naturale, dunque intrinsecamente ambiguo. Il concetto di algoritmo equo lascia spazio ad almeno due interpretazioni. Il modo più semplice per aggirare l’ostacolo è richiedere che il nostro algoritmo le soddisfi entrambe. Se questa soluzione di compromesso funzionasse, potremmo finalmente accantonare la questione. Sfortunatamente, non funziona. Gli informatici Jon Kleinberg e Manish Raghavan e l’economista Sendhil Mullainathan hanno dimostrato che le due definizioni di equità sono incompatibili, per quanto ciascuna di esse appaia corretta. Ma facciamo un passo indietro.

 

Da dove nasce l’urgenza di un’etica dell’informatica, e in particolare dell’intelligenza artificiale? Perché tediare un povero lettore, sdegnoso della tecnologia, che si contenta di consultare il sito della Treccani e inviare sporadicamente una mail quando termina l’inchiostro? Se il povero lettore non è ancora stato truffato da una sedicente “giovane ereditiera nigeriana”, è merito anche del filtro anti-spam della sua casella di posta. Questi filtri non sono altro che algoritmi di classificazione che ricevono in input una mail e la etichettano come “spam” o “non spam”. Il buon senso ci suggerisce che una mail con riferimenti al denaro o alla sfera sessuale abbia maggiori probabilità di essere spam. Questa intuizione da sola non fornisce un criterio sufficiente per classificare le mail. Per raggiungere un buon grado di accuratezza, bisognerebbe tener conto delle occorrenze di numerose parole e la descrizione algoritmica di un classificatore siffatto potrebbe essere molto complicata. Sarebbe molto faticoso trascriverla in un linguaggio di programmazione, e inoltre non è detto che ci sia un singolo classificatore che funzioni per tutti gli utenti. Ad esempio, la casella di uno studio legale conterrà molte mail riguardanti delle eredità e la maggior parte non saranno spam.

 

L’idea – geniale – consiste nell’etichettare manualmente delle mail come “spam” o “non spam” e fornirle in pasto ad un algoritmo in grado di apprendere una regola di classificazione da un campione di esempi, purché questo sia abbastanza rappresentativo. L’etichettatura è affidata agli stessi utenti: quando il filtro commette un errore, siamo noi a correggerlo spostando la mail nella cartella giusta.

 

Allo stesso modo, si possono allenare algoritmi a distinguere i cani dai gatti o a riconoscere le diverse lettere dell’alfabeto. Altre tecniche di machine learning permettono di riconoscere un messaggio vocale e tradurlo in una lingua diversa, guidare un’automobile o giocare a scacchi e a Go meglio di un essere umano. La portata di queste trasformazioni rende necessario un rinnovamento delle nostre categorie etiche. L’acceso dibattito che ha preso piede tra gli addetti ai lavori è senz’altro un segnale confortante. Inoltre, parole come “automazione” e “digitalizzazione” sono all’ordine del giorno anche nelle scienze sociali ed economiche. L’impressione che sia nato un terreno comune di discussione è, tuttavia, erronea. Con poche eccezioni, le nozioni dei non specialisti si limitano alle applicazioni più diffuse, come il management algoritmico di Foodora e affini. In questi casi le categorie esistenti possono rivelarsi, almeno in parte, adeguate: si è fatto fronte al “caporalato digitale” dei rider inquadrandoli nel contratto collettivo già previsto per logistica e trasporto merci.

 

In altri casi, si discute di intelligenza artificiale in un’accezione generica, senza cogliere le specificità delle tecnologie esistenti. Il teorema di Kleinberg, Mullainathan e Raghavan è un buon motivo per iniziare a ripensare il concetto di equità. La ricerca dei tre studiosi è motivata dall’introduzione di metodi statistici nel sistema giudiziario americano per stimare la probabilità che un condannato delinqua di nuovo. Il responso dell’algoritmo può pregiudicare la concessione della libertà condizionata. Si tratta di un altro esempio di classificatore, con le etichette “spam” e “non spam” sostituite da “recidivo” e “non recidivo”. Dal punto di vista matematico è cambiato poco, ma questa volta le implicazioni etiche sono profonde. Un’inchiesta della testata ProPublica ha evidenziato che l’algoritmo discrimina gli afroamericani, i quali hanno una probabilità doppia di incorrere in un falso positivo, ossia di essere etichettati erroneamente come recidivi. La risposta degli sviluppatori è sorprendente: hanno affermato di aver progettato l’algoritmo affinché non commettesse discriminazioni, assicurandosi che le prestazioni del classificatore fossero le stesse all’interno della popolazione afroamericana e di quella non afroamericana. ProPublica e NorthPointe – la compagnia che ha sviluppato l’algoritmo – hanno inteso in modo diverso il concetto di equità. Non è affatto scontato stabilire quale delle due concezioni sia giusta. E il lavoro citato mostra che esse sono incompatibili quando le due popolazioni presentano caratteristiche diverse (in questo caso, la percentuale di criminali è diversa nei due gruppi).

 

ProPublica ha presentato la sua analisi nell’articolo “Machine Bias”. Vale la pena soffermarsi sul termine “bias”. La scelta del titolo è legata, probabilmente, all’accezione comune del termine, inteso come bias cognitivo. Nel machine learning, invece, il bias ha connotazioni diverse e non sempre negative. Torniamo all’esempio del filtro per lo spam. Un filtro è una funzione che prende in input il numero delle occorrenze di alcune parole (scelte dal programmatore) e restituisce in output un’etichetta binaria, “spam” o “non spam”. Questa classe di funzioni ha un numero esponenziale di elementi. Cercare la migliore all’interno di un insieme così vasto sarebbe improponibile, e nemmeno tanto efficace. L’esito più probabile sarebbe un classificatore in overfitting. Le prestazioni sul campione di esempi saranno eccellenti, ma quelle su messaggi nuovi, provenienti dal mondo reale, saranno pessime. In altre parole, il filtro non ha inferito dagli esempi una regola valida in generale. L’unica alternativa è restringere la nostra ricerca ad una classe più piccola di ipotesi iniziali, introducendo così un “bias induttivo”.

 

Se un algoritmo unbiased (senza bias) non è realizzabile e non è chiaro cosa sia un algoritmo equo, possiamo almeno sperare che il nostro algoritmo sia trasparente? Abbiamo descritto il classificatore come una scatola nera, alla quale possiamo fornire un input e ricevere un output in risposta, ignari dei calcoli che ha eseguito. Una scatola nera è un modello non trasparente, anzi, è completamente opaco. Cosa succede al suo interno? Non esiste una risposta univoca, perché le tecniche adoperate nel machine learning sono svariate. Un esempio – forse il più suggestivo – è quello della rete neurale artificiale. Si tratta di un’architettura computazionale ispirata al modello del neurone introdotto da McCulloch e Pitts. Proprio come il neurone biologico, quello di McCulloch e Pitts è dotato di dendriti e assoni. A ciascun dendrite è associato un peso, ovvero un coefficiente. Se la somma pesata dei segnali che giungono attraverso i dendriti supera una certa soglia, il neurone invia un segnale in uscita attraverso l’assone. Più neuroni insieme formano una rete neurale. Allenare una rete significa scrivere un programma che calcola l’assegnazione ottimale dei pesi, valutando le prestazioni del classificatore sugli esempi da noi etichettati.

 

Le architetture delle reti neurali possono essere estremamente complicate. L’assegnazione dei pesi, da sola, non è umanamente intelligibile e non spiega perché il nostro filtro abbia etichettato come “spam” questa mail e non un’altra, o perché un detenuto sia ritenuto più pericoloso di un altro. La trasparenza in senso stretto è, dunque, impossibile, e un nuovo filone di ricerca sta indagando forme più deboli di interpretabilità.

 

Se una malattia ci venisse diagnosticata da un algoritmo e il nostro medico non sapesse darne la benché minima spiegazione, rimarremmo di certo spiazzati. In questo caso, però, una nozione stringente di trasparenza potrebbe non essere necessaria. Nessuno è interessato a conoscere ogni dettaglio del ragionamento da cui scaturisce la diagnosi del medico. Una spiegazione semplicistica e parziale, magari un esempio concreto riferito ad un caso studio, sarebbe più che sufficiente. Allo stesso modo, il filtro anti-spam potrebbe restituire insieme all’etichetta anche il messaggio, tra quelli etichettati da noi, che reputa più simile a quello che gli abbiamo fornito in input.

 

Potremmo dover scegliere, in futuro, tra un algoritmo non interpretabile e un algoritmo interpretabile, ma meno efficiente del primo. Ancora una volta, le nuove, straordinarie risorse di cui potremo disporre ci metteranno davanti a dilemmi etici. Aprire un dibattito oggi ci consentirà di impiegare quelle risorse nel modo migliore, per assicurare benessere e non esacerbare le disuguaglianze esistenti. D’altra parte, l’opportunità di ridefinire le categorie del nostro pensiero costituisce, da sola, un buon motivo per cimentarsi in questa sfida.

 

 

Per saperne di più:

N. Bostrom, E. Yudkowsky, The ethics of artificial intelligence https://nickbostrom.com/ethics/artificial-intelligence.pdf

J. Kleinberg, M. Raghavan, S. Mullainathan, Inherent Trade-Offs in the Fair Determination of Risk Scores https://arxiv.org/pdf/1609.05807.pdf

ProPublica, Machine Bias https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

 

Immagine: A man playing chess with a robot. Crediti: ARKHIPOV ALEKSEY / Shutterstock.com

© Istituto della Enciclopedia Italiana - Riproduzione riservata

0