Intelligenza artificiale e problematiche legali: chi risponde delle condotte autonome dei sistemi intelligenti?

Le tematiche legali inerenti al ricorso ai sistemi di Intelligenza Artificiali sono molteplici e presentano dei riflessi probabilmente ancora in parte inesplorati. Mancano soprattutto le risposte da parte del legislatore. Tra i temi “irrisolti” c’è quello della responsabilità civile derivante da danni provocati dai sistemi “intelligenti”. C’è oggi la necessità di rispondere ad un fondamentale interrogativo: chi risponde delle condotte autonome dei sistemi intelligenti?

Pubblicato il 05 Mar 2019

intelligenza artificiale e responsabilità civile

I recenti sviluppi dell’Intelligenza Artificiale e delle soluzioni ad essa collegate hanno cambiato radicalmente non solo l’ambito IT, ma anche la vita di tutti i giorni. Questa rivoluzione porta inevitabilmente con sé anche riflessi sui piani normativo e sociale, creando nuove lacune giuridiche da colmare e sfide che, solo qualche decennio fa, sembravano appartenere ad un futuro lontano.

Le tematiche legali inerenti al ricorso ai sistemi di Intelligenza Artificiali sono molteplici e presentano dei riflessi probabilmente ancora in parte inesplorati.

Mancano soprattutto le risposte da parte del legislatore, che possano costituire un punto fermo nel dibattito accesosi e accresciutosi negli ultimi anni e fondare nuove categorie giuridiche e nuove regole in relazione ad una materia che non sempre ben si presta ad essere disciplinata alla luce del quadro normativo vigente.

L’utilizzo di sistemi intelligenti può, infatti, sfociare in casistiche alle quali i principi normativi (soprattutto quelli civilistici) si applicano con difficoltà e che solo con evidenti forzature potrebbero essere risolte sulle base di un’interpretazione evolutiva delle norme già esistenti. [Per approfondire consigliamo la lettura dell’articolo, sempre a firma di Anna Italiano, “Intelligenza artificiale etica: una sfida giuridica, normativa, politica (ed etica)” – ndr]

Chi ha la responsabilità civile dell’intelligenza artificiale?

Uno dei temi indubbiamente più discussi riguarda la responsabilità civile derivante da danni provocati sistemi di AI dotati di algoritmi di machine learning e deep learning, dai quali deriva una capacità di decision-making fondata sull’esperienza e sull’autoapprendimento.

Posto, infatti, che anche il sistema intelligente potrebbe “sbagliare” (ovvero, interrogato a rispondere su un determinato quesito, fornire, sulla base di parametri incompleti o parziali, una risposta oggettivamente errata: si pensi, solo per un esempio, ai sistemi predittivi che ultimamente si stanno sempre più diffondendo in ambito bancario per la gestione del rischio di credito ai clienti) o trovarsi nella situazione di assumere una decisione cui consegua la produzione di un danno (fin troppo inflazionato è l’esempio – solo apparentemente futuristico – dell’automobile self-driving chiamata, in situazione di emergenza, a decidere se causare una lesione al proprio passeggero o all’incauto pedone che sta attraversando la strada nonostante il semaforo rosso), si pone la necessità di rispondere ad un fondamentale interrogativo: chi risponde delle condotte autonome dei sistemi intelligenti?

Occorre premettere che quando si parla di profili civilistici di responsabilità, bisogna sempre tenere presente che la responsabilità può essere:

  • Contrattuale: presuppone l’esistenza di un vincolo contrattuale tra due soggetti e si configura quando uno dei due sia inadempiente rispetto alle obbligazioni dedotte in contratto;
  • Extra-contrattuale: non richiede la necessaria esistenza di un contratto, ma discende da un principio generale dell’ordinamento giuridico, che è quello del neminem laedere, vale a dire dal principio, sancito agli artt. 2043 e ss. cc., per cui nelle attività di vita ordinarie occorre prestare attenzione a non cagionare agli altri dei danni ingiusti. Chi cagiona ad altri un danno ingiusto, in maniera dolosa o colposa, ne risponde ed è quindi tenuto a risarcire il danno.

Entrambe le forme di responsabilità possono, naturalmente, configurarsi in relazione all’utilizzo di sistemi intelligenti, talvolta potendo addirittura sovrapporsi con riferimento al medesimo evento dannoso  (per fare il classico esempio riguardante l’auto a guida autonoma, se qualcosa nel sistema si inceppa e l’utilizzatore riporta dei danni, la responsabilità che potrà essere fatta valere nei confronti del produttore dell’auto avrà natura contrattuale; se, tuttavia, in conseguenza del difetto riscontrato, l’auto impatta un altro veicolo, cagionando danni materiali ad un terzo, il proprietario della prima risponderà nei confronti di quest’ultimo per danno extracontrattuale).

Tanto premesso, non esiste, ad oggi, alcuna normativa italiana o europea che vada specificamente a disciplinare il ricorso a sistemi di intelligenza artificiale e a normare ad hoc le conseguenze giuridiche derivanti dalle condotte dei robot, tuttavia esiste comunque un quadro legislativo applicabile ai sistemi di AI considerati come “prodotti”.

Tale normativa, è sostanzialmente riconducibile a 3 direttive europee:

  • La direttiva “Macchine” (Direttiva 2006/42/CE), che disciplina i requisiti di salute e sicurezza imposti in sede di progettazione e costruzione delle macchine e necessari perché queste possano essere immesse in commercio (la cui presenza è attestata dalla marcatura CE);
  • La Direttiva 01/95/CE sulla sicurezza generale dei prodotti, che impone un requisito generale di sicurezza per ogni prodotto (non solo, dunque, i macchinari) immesso sul mercato e destinato al consumo, compresi i prodotti utilizzati nell’ambito di servizi;
  • La Direttiva 99/44/CE sulla vendita e le garanzie dei beni di consumo: probabilmente la più nota tra queste normative, disciplina i diritti e le garanzie riconosciuti ai consumatori in relazione ai prodotti destinati alla vendita al consumo.

Ciò posto, non c’è alcun dubbio che, nelle ipotesi di difetti di produzione, il sistema intelligente possa venir trattato come un mero bene di consumo e il suo fruitore tutelato dalle garanzie commerciali e dai rimedi previsti in caso di vizi di conformità.

Analogamente, in caso di danni (all’utilizzatore e a terzi) causati da tali difetti di produzione, troverà applicazione la normativa europea (e, conseguentemente, quella italiana), che disciplina la responsabilità da prodotto difettoso accogliendo il principio della responsabilità oggettiva del produttore in caso di danno. Se, pertanto, un soggetto subisce un danno derivante da un sistema intelligente difettoso, responsabile sarà il produttore di tale sistema, indipendentemente dalla sussistenza di profili di dolo o di colpa.

Da notare che, per “produttore”, ai sensi della normativa europea, si intende “il fabbricante di un prodotto finito, di una materia prima o di una parte del prodotto finito”. Accogliendo ed applicando una simile definizione alla produzione di sistemi di artificial intelligence potremmo arrivare ad affrenare la responsabilità oggettiva non solo del “produttore” del sistema finito, ma anche del produttore di una sua semplice componente, quale ad esempio lo sviluppatore del software o addirittura del solo algoritmo alla base del sistema.

Tuttavia, la normativa sulla responsabilità del produttore riesce a dirimere solo le casistiche in cui il sistema intelligente sia considerato come un “prodotto”, cioè un oggetto, ma non aiuta nei casi in cui il sistema agisca come un “agente”.

In sostanza, se il sistema intelligente è programmato per apprendere e decidere autonomamente la propria condotta per effetto della propria esperienza e della propria interazione con l’ambiente, anche eventualmente superando il controllo umano, chi lo progetta, lo programma o lo costruisce potrebbe non essere in grado di prevederne interamente le reazioni rispetto al mondo che lo circonda.

Regole civilistiche da applicare all’impiego della robotica

Ad un’attenta analisi, è facile intuire che in una fattispecie di danno potrebbero potenzialmente essere chiamati in causa più soggetti, (ad esempio, il creatore e l’ideatore dell’algoritmo, il programmatore, il produttore, l’utente, il proprietario, ecc.).  Ma le attuali norme in materia di responsabilità civile non consentono di dare all’interrogativo una risposta certa, poiché la capacità del sistema intelligente di autodeterminarsi potrebbe dar luogo a condotte imprevedibili o inevitabili, in ogni caso idonee ad interrompere uno stretto nesso di causalità tra la condotta del produttore e/o dell’utilizzatore del sistema AI e l’evento dannoso.

Per indirizzare le problematiche legali aperte e attualmente non risolvibili sulla base delle normative vigenti, nel febbraio 2017, il Parlamento Europeo ha approvato una Proposta di Risoluzione recante “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”: in pratica, ha invitato la Commissione a formulare e sottoporre a iter legislativo una proposta di direttiva che individui le regole civilistiche da applicarsi, in maniera uniforme in tutti gli Stati Membri, all’impiego della robotica.

In materia di responsabilità civile, il Parlamento prospetta due possibili modelli di attribuzione della responsabilità:

  • Un regime di responsabilità oggettiva o di “strict liability” del produttore: il produttore dell’intelligenza artificiale o di un suo componente incorrerebbe sempre in responsabilità per i danni cagionati dalla macchina, a prescindere da eventuali profili di dolo o di colpa;
  • Un approccio di “gestione dei rischi”, che dovrebbe servire ad individuare, tra i soggetti potenzialmente coinvolti nel verificarsi della lesione (coloro che fanno parte dei processi di ideazione, progettazione, produzione e commercializzazione del sistema intelligente), quello che possa essere ritenuto responsabile del danno in quanto reputato “causalmente più vicino al prodotto”, a seconda del tipo di malfunzionamento verificatosi e, dunque, più idoneo a gestirne a monte il relativo rischio.

Proprio con l’obiettivo di gestire al meglio il rischio, nell’ottica del Parlamento Europeo, accanto a tale regime di responsabilità, occorrerebbe valutare anche:

  • Istituzione di un regime assicurativo obbligatorio relativo a categorie specifiche di robot self-learning, in virtù del quale, come avviene già per le automobili, venga imposto ai produttori e i proprietari dei robot di sottoscrivere una copertura assicurativa per i danni potenzialmente causati dai loro robot;
  • La costituzione di un apposito fondo per garantire al soggetto leso il risarcimento del danno cagionato dal robot in caso di mancata copertura assicurativa;
  • L’istituzione di una forma di immatricolazione individuale dei robot, al fine di associare in modo evidente il robot al suo fondo e consentire a chiunque interagisce con il robot di essere informato sulla natura del fondo, sui limiti della responsabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti.

Il tema è ormai all’ordine del giorno nella discussione tra esperti e l’evoluzione della tecnologia lo rende sempre più attuale ed urgente. La risposta legislativa dovrà essere necessariamente sovranazionale e ben ponderata, poiché potrebbe sancire su quali soggetti, nell’intera catena di ideazione, produzione, distribuzione e fruizione dei sistemi AI, ricadano i costi del progresso tecnologico, con conseguenti possibili spinte ovvero ipotetici freni alla produzione e all’adozione di queste tecnologie.

***

Anna Italiano

*Anna Italiano è Senior Legal Consultant di Partners4Innovation

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati