16 dicembre 2019

Innovazione tecnologica e responsabilità civile: l’interpretazione come strumento di adattamento dell’ordinamento giuridico

 

La nostra epoca si presenta fortemente condizionata dalla tecnologia, dall’informatica, dall’abbattimento dei confini materiali, dall’interconnessione istantanea e dalla velocità di circolazione delle informazioni; per queste ragioni la si definisce società dell’informazione e dell’algoritmo, culla della civiltà tecnologica, nonché palcoscenico della quarta rivoluzione industriale. A partire dalla metà del Novecento, i paesi industrializzati si sono distinti per una forte spinta all'innovazione tecnologica e, così, l’homo sapiens si è evoluto in homo technologicus, sempre più attratto dalla tecnica e dalla volontà di ricreare le capacità cognitive umane all’interno delle macchine.

 

Nel tempo ha preso forma e si è diffusa una nuova branca dell’informatica, l’intelligenza artificiale; questa viene convenzionalmente distinta in forte e debole, laddove con il primo aggettivo si riferisce a meccanismi idonei a replicare integralmente il funzionamento della mente umana, mentre con il secondo si riferisce a quelli che permettono di replicarne soltanto alcune funzioni. Nonostante il grande fermento maturato attorno all’intelligenza artificiale forte, è stata quella debole a riscuotere maggior successo, complici soprattutto le difficoltà tecniche nel realizzare la prima, trovando applicazione in vari settori, primo fra tutti quello della produzione industriale e della chirurgia medica.  Nell’ultimo decennio, però, l’ambizione di emulare integralmente le capacità cognitive umane ha ripreso vigore, anche grazie ai risultati ottenuti dalla robotica, ramo dell’ingegneria preposto all’ideazione di macchine in grado di compiere autonomamente compiti in sostituzione dell’essere umano. I progressi tecnologici registrati dalla meccanica, dall’informatica e dall’elettronica consentono già la realizzazione di sistemi robotici prototipali, capaci di percepire il mondo, prendere decisioni e apprendere dalle proprie esperienze/errori. Si tratta di tecnologie che stanno ricevendo attenzione e ingenti investimenti da parte soprattutto dei paesi Asiatici, come Cina e Giappone, e che nei prossimi anni impatteranno inevitabilmente sulle strutture sociali contemporanee, anche in considerazione del loro valore economico-produttivo. Quest’ultimo, infatti, è in costante crescita ed è stato stimato dal CESE, organo consultivo dell’Unione Europea, in 38.8 miliardi di dollari americani per il 2025. Si sta disquisendo, quindi, su un fenomeno tecnologico ed economico dalle grandi implicazioni sociali e giuridiche.

 

Una delle questioni giuridiche più interessanti tra quelle emergenti dall’applicazione delle macchine intelligenti concerne l’imputazione di responsabilità per comportamento dannoso del robot autonomo, soprattutto se dotato di capacità di autoapprendimento : gli studiosi hanno iniziato a chiedersi quali potessero essere le norme attualmente vigenti, applicabili alle macchine intelligenti allorquando queste avessero agito senza controllo umano, producendo danni a terzi.

 

In breve tempo la dottrina internazionale si è scissa in riformista e conservatrice : con la prima si individuano quei giuristi che considerano a priori le norme attuali inadeguate a disciplinare le questioni che emergono alla luce degli sviluppi tecnologici, ritenendo sempre necessario creare nuove regolamentazioni ad hoc; con la seconda si riferisce alla schiera di studiosi del diritto, molto florida in Italia, che considera le norme attuali adeguate a regolamentare anche i nuovi fenomeni tecnologici.

 

Sul fronte della responsabilità civile da comportamento dannoso della macchina intelligente, la scuola riformista sostiene che l’introduzione di macchine autonome all’interno della società civile possa portare a delle ipotesi di responsability gap, intendendo con tale termine la situazione in cui il danno derivato dall’azione della macchina resterebbe in capo alla vittima che lo ha subito, non potendo lo stesso essere imputato ad altro soggetto umano. Tale considerazione muove dalla struttura di funzionamento delle macchine autonome dotate di maggiore complessità: queste agiscono attraverso modelli computazionali emulativi delle reti neurali umane, grazie alle quali sono in grado di comportarsi in modo imprevedibile anche per colui che le ha ideate (c.d. programmatore-creatore). Gli algoritmi che permettono il funzionamento di tali intelligenze costruiscono un modello di problema che vogliono risolvere, la cui interpretazione non è di facile intuizione: le cause delle decisioni compiute dal robot possono essere intercettate dall’esterno, mediante osservazioni empiriche e ricostruzioni probabilistiche che non assicurano certezza e veridicità del risultato ricostruttivo. Per questi motivi gli algoritmi di machine learning vengono definiti come black box, che non possono essere aperte facilmente e che rischiano di minare il funzionamento delle attuali norme giuridiche in materia di responsabilità.

 

Sicuramente un esempio potrà aiutare a rendere meno evanescente la materia dello scritto e permetterà di inquadrare l’entità del problema: si ipotizzi l’esistenza di un robot addetto all’assistenza di persone anziane con difficoltà motorie che, durante una delle solite passeggiate, per evitare la caduta dell’assistito, urta violentemente contro un terzo ed ignaro passante, il quale cadendo si procura una frattura alla gamba.

 

Ci si domanda, in una situazione del genere, chi risponderebbe del danno e del patimento sofferto dalla vittima ?

 

Tralasciando necessariamente le riflessioni di quegli studiosi secondo cui, nel frangente in esempio, si genererebbe una ipotesi di responsability gap in cui l’imputazione del fatto a un soggetto umano non sarebbe in alcun caso possibile perché difetterebbe il nesso causale tra la condotta dannosa dell’automa e l’azione del soggetto chiamato a risponderne; ovvero sarebbe possibile attribuirla al produttore, al proprietario, all’utilizzatore, individuando uno tra questi ma in modo ingiusto e moralmente non condivisibile, le norme attualmente in vigore a cui il giudice potrebbe fare ricorso nella risoluzione di una controversia, come quella descritta nell’esempio, sono di seguito riportate.

 

Si tratta di norme che imputano la responsabilità anche in assenza di colpa (c.d. responsabilità oggettiva ), e sono la responsabilità del produttore/fornitore per prodotto difettoso, la responsabilità per l'esercizio di attività pericolose e la responsabilità per danno cagionato da cosa in custodia.

 

Innanzitutto, quindi, potrebbe emergere la responsabilità del produttore o, se questo resta ignoto, del fornitore per la messa in commercio di un prodotto difettoso ai sensi degli artt. 114 e ss. del Codice del Consumo (dlg. 206/2005) laddove per difettoso si intende quel prodotto che non offre la sicurezza che ci si può legittimamente attendere tenuto conto di tutte le circostanze (art. 117,1 cod. cons.). Optando per tale disciplina, la vittima del danno, per vedersi risarcita, dovrà provare in giudizio: a) il danno sofferto, b) il difetto del prodotto, che per agevolare il compito delle vittime viene interpretato dai giudici italiani come generica insicurezza del prodotto rispetto al fine a cui è destinato, c) il nesso causale tra il difetto e il danno.

 

Ma questa non è l’unica tutela prevista dal nostro ordinamento, infatti  l’art. 127,1 cod. cons. espressamente non esclude o limita i diritti attribuiti al consumatore da altre disposizioni dell’ordinamento: la modalità concreta di tutela è quindi rimessa alla scelta della parte offesa, anche alla luce della valutazione del caso concreto, non essendo quasi mai agevole riuscire a provare il difetto ed il nesso di causalità tra difetto e danno.

 

Nel caso in esame, quindi, la vittima del danno potrebbe decidere di ricorrere ad altre norme: si riferisce all’art. 2050 che sancisce l’obbligo risarcitorio per colui che cagioni danno ad altri nello svolgimento di un’attività pericolosa, per sua natura o per la natura dei mezzi adoperati, salvo non dimostri di aver adottato tutte le misure idonee ad evitarlo. L’applicazione di tale norma sconterebbe la difficoltà per i giudici italiani di riconoscere l’attività di produzione del robot come attività intrinsecamente pericolosa. Invero, però, similmente a quanto verificatosi in materia di produzione e distribuzione di bombole di gas, le Corti potrebbero comunque imputare la responsabilità del danno al produttore del robot, pur se questo si è verificato dopo la materiale consegna della macchina, sempre che la vittima o il proprietario/custode del robot chiamato in causa riescano a provare la diretta derivazione causale del danno in attività in precedenza esplicitate dal produttore medesimo.

 

Si è già accennato poc’anzi della possibile chiamata in causa del proprietario/custode del robot, che nel caso in esame sarebbe la persona anziana con difficoltà motorie. Questi, infatti, potrebbe essere chiamato a rispondere ai sensi dell’art. 2051, che sancisce la responsabilità sostanzialmente oggettiva del custode per il danno cagionato dalle cose, salvo che questi non provi il caso fortuito; con tale termine si intende la prova da parte del custode di un fatto esterno, che per imprevedibilità ed eccezionalità, sia completamente estraneo alla sua sfera di controllo.  L’art. 2051, alla luce dell’interpretazione adottata dai giudici italiani, tende quindi ad imputare in capo al custode del bene anche il danno derivante da causa rimasta ignota , in virtù dell’esigenza di attribuire in capo a un soggetto determinato i rischi non neutralizzabili intrinseci alla natura del bene o al suo dinamismo.

 

Infine, si potrebbero utilizzare gli antichi strumenti di interpretazione dell’ordinamento giuridico di cui i magistrati italiani dispongono. Discussa è la possibilità di applicare l’ analogia , meccanismo che viene utilizzato dal giudice per risolvere le c.d. lacune dell’ordinamento , che si possono generare sia per impossibilità materiale da parte del legislatore di disciplinare ogni aspetto dell’interazione umana, sia per l’umana incapacità previsionale dello stesso rispetto alle mutazioni economico/sociali impattanti sull’ordinamento giuridico.  L’analogia viene disciplinata nel nostro ordinamento dall’art. 12.2 delle preleggi al codice civile, il quale sancisce che:

 

Nell'applicare la legge non si può ad essa attribuire altro senso che quello fatto palese dal significato proprio delle parole secondo la connessione di esse, e dalla intenzione del legislatore . Se una controversia non può essere decisa con una precisa disposizione, si ha riguardo alle disposizioni che regolano casi simili o materie analoghe (c.d. analogia legis ); se il caso rimane ancora dubbio, si decide secondo i principi generali dell'ordinamento giuridico dello Stato (c.d . analogia iuris ).

 

Si tratta di un procedimento che permette di ricostruire una norma non scritta, desumendola in prim’ordine da disposizioni che regolano casi simili e, in assenza di queste, dai principi generali e portanti dell’ordinamento; opera, quindi, come strumento di adattamento dell’ordinamento rispetto ai casi non previsti dal legislatore, su cui il giudice è chiamato a pronunciarsi.  In materia di responsabilità, però, soltanto una dottrina minoritaria ammette la possibilità di procedere analogicamente nelle ipotesi di responsabilità oggettiva, in contrasto con quella maggioritaria che, invece, non ne riconosce l’utilizzabilità.

 

In conclusione, preso atto dell’assenza di una disciplina legislativa che regoli la responsabilità per le condotte dei robot autonomi, tenendosi alla larga da considerazioni di politica del diritto circa l’impatto che l’attuale incertezza giuridica sul punto potrebbe comportare sullo sviluppo del settore, si ritiene che, al verificarsi di un’ipotesi come quella delineata nel presente elaborato, il giudice italiano goderebbe di norme idonee ad individuare il soggetto responsabile, nella persona del produttore, del proprietario, dell’utilizzatore o custode del bene, potendosi servire, ove necessario, del procedimento analogico.

 

Per saperne di più:

Per comprendere le problematiche concernenti l’istituto della responsabilità civile si consiglia la lettura di M. Bianca, Diritto civile, Volume 5. La responsabilità , Giuffrè, Milano, 2015; per una introduzione agli strumenti interpretativi a disposizione del giudice si rinvia a A. Torrente, P. Schlesinger; Manuale di diritto privato, Giuffrè, Milano, 2017, pp. 47-57. Infine, per un’analisi delle nuove sfide emergenti in materia di responsabilità civile connessa all’azione di robot autonomi, si consiglia la lettura di A. Santosuosso, C. Boscarato, F. Caroleo, Robot e diritto: una prima ricognizione in La nuova giurisprudenza civile commentata , 7/8, pp. 494-516, Wolters Kluwer Italia, Milano, 2012; U. Ruffolo (a cura di), Intelligenza artificiale e responsabilità, Giuffrè, Milano, 2017; L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità , in Politica del Diritto, 4, pp. 713-740, Il mulino, Bologna, 2018.

 

 

Foto di StockSnap da Pixabay - Pixabay License. Libera per usi commerciali, attribuzione non richiesta

© Istituto della Enciclopedia Italiana - Riproduzione riservata

0