12 febbraio 2021

La governance dell’Intelligenza Artificiale: l’approccio dell’Unione Europea a confronto con USA e Cina

 

 Istituzioni

  

I recenti sviluppi tecnologici nel campo dell’Intelligenza Artificiale (IA) hanno suscitato un intenso dibattito sul modo in cui sia possibile favorire politiche di innovazione e investimenti pubblici in grado di massimizzare i benefici resi possibili dall’IA. Al contempo, questo genere di politiche dovrebbe minimizzare alcuni dei rischi insiti nell’adozione tout court di tale approccio computazionale. Risulta utile domandarsi, pertanto, quale sia la direzione di governance che i maggiori attori istituzionali globali hanno deciso di intraprendere nel definire il nostro rapporto con l’IA.

 

Alcuni chiarimenti preliminari si rendono necessari alla luce della complessità tecnica dei metodi di IA. Facili entusiasmi e timori infondati hanno progressivamente dato vita alla narrativa che vede nello sviluppo dell’IA tanto la risoluzione di annosi problemi che affliggono l’umanità, quanto la minaccia di un futuro distopico governato dalle macchine.

 

Il contrasto tra questi due estremi suggerisce che nessuno di essi sia da ritenersi plausibile, perlomeno nel prossimo futuro. L’idolatria che, nel bene o nel male, circonda di aura mistica l’IA non aiuta la sua comprensione tecnica e impedisce una lucida valutazione del suo impatto a livello individuale, collettivo e sociale. Tra le tante conseguenze che scaturiscono da questi fraintendimenti, si annoverano l’impossibilità di porsi correttamente dinnanzi alle scelte di carattere economico che si rendono necessarie per guidare il suo sviluppo, l’assenza di un dibattito strutturato sul futuro del mondo del lavoro, e il non predisporre strumenti adatti a garantire concorrenza “per” il e “nel” mercato.

 

Appare dunque necessario identificare cosa sia davvero l’IA. Parafrasando la consolidata definizione dell’High Level Expert Group (HLEG), ossia il gruppo di 52 esperti nominati dalla Commissione Europea per comporre le linee guida essenziali per lo sviluppo dell’IA nel nostro continente, essa può essere definita come un software (o hardware) di matrice umana in grado di risolvere un problema complesso acquisendo, interpretando e processando dati, generando un modello di conoscenza utile a prendere decisioni. I sistemi di IA sono talvolta in grado di adattarsi all’ambiente con cui interagiscono osservando come esso si modifica sulla base delle loro azioni.

 

Semplificando, possiamo immaginare l’IA come un software o un hardware che progressivamente “apprende” il comportamento da tenere in risposta a certi input per perseguire un obiettivo reso esplicito dal programmatore. Ad esempio, i sistemi digitali di raccomandazione di un prodotto, estremamente comuni nelle piattaforme di e-commerce, mostrano un certo bene (decisione) cercando di massimizzare la probabilità che l’utente interagisca con esso (obiettivo) e venendo premiato quando il click avviene (ricompensa). La modellazione della sua conoscenza avviene per mezzo di alcuni dati-input scelti arbitrariamente dal programmatore, come la lista di beni complementari a quello raccomandato o la cronologia dell’utente.

 

Le reti neurali adoperate nel modellare la conoscenza costituiscono un’approssimazione del funzionamento dell’apprendimento umano. Esse distribuiscono automaticamente il “peso” che ciascun dato-input selezionato dal programmatore riveste nella decisione finale (mostra “prodotto A” oppure mostra “prodotto B”) cosicché la scelta dell’algoritmo massimizzi la probabilità di ottenere la ricompensa (seguendo l’esempio, il clickdell’utente). Il potenziale dei sistemi di IA risiede nel numero di dati-input che i sistemi sono in grado di elaborare autonomamente per influenzare il proprio comportamento in risposta a scenari sempre nuovi e non programmati esplicitamente dallo sviluppatore (ad esempio, un nuovo utente o un nuovo prodotto).

 

Al contempo, rischi intrinseci ed estrinseci sono stati individuati dopo alcuni utilizzi sperimentali. Nella prima categoria si annoverano: la polarizzazione dei risultati dell’elaborazione algoritmica (c.d. bias), che può discriminare categorie di persone anche sulla base di fattori che costituiscono fattori tradizionali di vulnerabilità (sesso, etnia, credo religioso, ecc.) (Durante 2019); l’imperscrutabilità del percorso logico-matematico che ha generato automaticamente il suo modello di conoscenza e su cui la decisione è stata presa (c.d. black box) (Pasquale 2015, Palmirani 2019); l’ambiguità dell’obiettivo perseguito dall’algoritmo, che amplifica il rischio di comportamenti imprevisti o indesiderati. Ricade tra i rischi estrinseci il conseguente pericolo che l’adozione di sistemi di IA sia circondata da un clima di sfiducia che renda inefficace la sua adozione.

 

Come è possibile evincere dal documento del HLEG “Ethics Guidelines for Trustworthy AI, la capacità dei sistemi di IA di essere degni fiducia o affidabili è posta al centro del modello di governance europea in materia di IA. Autonomia dai sistemi intelligenti, prevenzione del danno, giustizia e spiegabilità degli algoritmi sono le colonne portanti del documento prodotto dal gruppo di lavoro. La Commissione ha supportato questo framework nel suo “Libro Bianco sull’Intelligenza Artificiale” che riflette lo spirito e i contenuti delle linee guida etiche. La direzione intrapresa sembra quella di un approccio risk-based fondato sulla centralità dell’essere umano e sul rispetto della sua dignità nello sviluppo di sistemi intelligenti.

 

Vale la pena chiedersi come sia possibile “tradurre” questo framework etico in scelte di investimento mirate al rispetto di principi fondamentali, alla crescita del settore economico di riferimento e alla generazione di benefici per la data-fueled economy. Una possibile proposta proviene dal terzo documento del HLEG, “Policy and investment Recommendations for Trustworthy Artificial Intelligence”. 33 raccomandazioni mirano a bilanciare benefici sociali e potenziali rischi. Le direttive sottolineano la necessità di tutelare la privacy, la trasparenza degli algoritmi, i diritti dei lavoratori, l’inclusione sociale (anche rispetto al gender), l’interoperabilità tra sistemi e l’importanza delle auto-valutazioni di affidabilità delle tecniche IA adoperate. Con riferimento a interventi di carattere pubblicistico, le linee guida individuano nella collaborazione tra attori istituzionali, privati, enti di ricerca e società civile la migliore strategia per innovare in maniera responsabile nel campo dell’IA, tenendo conto della centralità dell’essere umano e del ruolo dell’alfabetizzazione in materia. A corredo di queste politiche, si raccomanda un sostanziale incremento dei fondi da dedicare alla realizzazione di questa strategia. Se posto a confronto con altri modelli di governance come quello statunitense e quello cinese, il frameworkeuropeo ha peculiarità ben identificabili.

 

Nel modello statunitense la regolamentazione delle nuove tecnologie è tradizionalmente affidata a forme private di autoregolamentazione. L’intervento dello Stato è pertanto mite e limitato all’enforcement delle normative esistenti, specie quelle a tutela della concorrenza. La strategia USA delineata dall’ Executive Order 13859 del febbraio 2019 non fa eccezione. Essa dà priorità alla ricerca sull’IA e menziona i requisiti di affidabilità e di sicurezza tecnica (Parker 2020). Al contempo, delimita il perimetro degli interventi regolatori alle sole tutele delle libertà civili, della privacy, della sicurezza, e degli interessi economici del Paese.

 

All’opposto, il modello cinese è focalizzato sullo sfruttamento, da parte dello Stato, del potenziale dell’IA per fini di controllo sociale ed espansione politica e militare (Roberts et al. 2020). Sebbene siano rintracciabili tanto un framework etico quanto alcuni standard a tutela della privacy, la non-vincolatività di questi precetti lascia spazio per derive legislative che legittimano la prevalenza dell’interesse pubblico rispetto ai diritti fondamentali del singolo. Un esempio di questo complesso intreccio è rappresentato dal Social Credit System, il meccanismo di attribuzione di un “punteggio sociale individuale”, basato su tecnologie di riconoscimento facciale ed elaborazione automatizzata di dati. La collaborazione del gigante Alibaba nella realizzazione del complementare progetto Sesame evidenzia come anche la collaborazione tra pubblico e privato nella diffusione di sistemi di IA sia orientata al perseguimento degli interessi dello Stato. 

 

La presenza di tre modelli – Unione Europea, Stati Uniti e Cina – evidenzia una pluralità di approcci alla governance dell’IA e del suo sviluppo. A differenza degli altri, il modello europeo si contraddistingue tanto per la centralità dei diritti fondamentali, quanto per la possibilità di interventi regolatori in presenza di rischi concreti per i cittadini europei. Non a caso, la Commissione ha sottolineato che:

 

«la cooperazione internazionale sulle questioni riguardanti l'IA debba basarsi su un approccio che promuova il rispetto dei diritti fondamentali, tra cui la dignità umana, il pluralismo, l'inclusione, la non discriminazione e la protezione della privacy e dei dati personali» (Commissione Europea, 2020, p. 11),

 

comunicando che si adopererà per esportare i suoi valori nel mondo. Con lo sviluppo tecnologico questo approccio costringerà le istituzioni europee a valutare costantemente i rischi di tecnologie di IA emergenti, anche quando si rende necessario servirsi di infrastrutture tecnologiche presenti in giurisdizioni straniere, e a decidere circa il loro utilizzo. Rimane da comprendere se il vaglio istituzionale sarà abbastanza tempestivo da non minare quella trustworthiness pubblica necessaria agli operatori privati e ai cittadini per raccogliere le opportunità offerte dall’IA.

 

Immagine: Artificial Intelligence Brain. Autore: geralt (pixabay.com)

 

Bibliografia

 

Commissione Europea, Libro Bianco sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia (https://op.europa.eu/it/publication-detail/-/publication/ac957f13-53c6-11ea-aece-01aa75ed71a1) (2020).

 

Durante, M. (2019), Potere computazionale: L’impatto delle ICT su diritto, società, sapere, Milano: Mimesis.

 

High-Level Expert Group on AI (AI HLEG), Policy and investment recommendations for trustworthy Artificial Intelligence (2019) (https://ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence).

 

High-Level Expert Group on AI (AI HLEG), Ethics guidelines for trustworthy AI (2019) (https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai).

 

Palmirani, M. (2020). Big Data e conoscenza. Rivista di filosofia del diritto9(1), 73-92.

 

Parker, L. (2020). The American AI Initiative: The U.S. strategy for leadership in artificial intelligence (https://oecd.ai/wonk/the-american-ai-initiative-the-u-s-strategy-for-leadership-in-rtificial-intelligence).

 

Pasquale, F. (2015), The black box society, Cambridge: Harvard University Press.

 

Quintarelli, S. (2019), Capitalismo immateriale: le tecnologie digitali e il nuovo conflitto sociale. Torino: Bollati Boringhieri.

 

Quintarelli, S., Corea, F., Fossa, F., Loreggia, A., & Sapienza, S. (2019). AI: profili etici. Una prospettiva etica sull'Intelligenza Artificiale: princìpi, diritti e raccomandazioni. BioLaw Journal-Rivista di BioDiritto18(3), 183-204.

 

Quintarelli, S., Corea, F., Ferrauto, C. G., Fossa, F., Loreggia, A., & Sapienza, S. (2020), Intelligenza artificiale. Cos’ è davvero, come funziona, che effetti avrà, Torino: Bollati Boringhieri.

 

Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2020). The Chinese approach to artificial intelligence: an analysis of policy, ethics, and regulation. AI & SOCIETY, 1-19.

 


© Istituto della Enciclopedia Italiana - Riproduzione riservata

0