L’Europa decide su intelligenza artificiale e responsabilità civile

Lo scorso 20 ottobre il Parlamento europeo ha emanato tre importanti risoluzioni per un disegno di legge che disciplini lo sviluppo dell’AI

Pubblicato il 17 Mar 2021

Silvia Pari

avvocato

Silvia Stefanelli

avvocato, studio legale Stefanelli&Stefanelli

responsabilità civile

Alla fine 2020 il Parlamento Europeo ha emanato, nella stessa giornata (20 ottobre), tre importanti risoluzioni con le quale suggerisce un articolato disegno giuridico per disciplinare lo sviluppo della AI in Europa. Titolata infatti “Raccomandazioni alla Commissione su un Regime di Responsabilità Civile per l’Intelligenza Artificiale”, la Risoluzione esce a valle di una serie di documenti comunitari pubblicati nei mesi passati, presentando una Proposta di Regolamento europeo inerente (appunto) il tema della responsabilità civile legata all’utilizzo dei sistemi di intelligenza artificiale.

La prima Risoluzione (A9 – 0186/2020) è relativa ai profili i etici che le applicazioni di intelligenza artificiale dovranno rispettare per garantire sicurezza, trasparenza e presa di responsabilità, e evitare la creazione di pregiudizi e di discriminazioni, stimolando la responsabilità sociale e ambientale. La seconda Risoluzione (A9- 0176/2020) riguarda i diritti di proprietà intellettuale, con la quale il Parlamento ha ribadito l’importanza di avere un sistema efficace per un ulteriore sviluppo dell’intelligenza artificiale, tra cui il rilascio di licenze e nuovi processi creativi. La terza Risoluzione (A9-0178/2020) – che qui si commenta – riguarda il rilevante tema dei profili di responsabilità civile per danni e pregiudizi arrecati da sistemi di AI.

I principi del quadro giuridico in materia di responsabilità civile nei sistemi di AI

La proposta di Regolamento si pone un chiaro obiettivo: definire un quadro giuridico certo in materia di responsabilità civile per infondere fiducia nella sicurezza e nella affidabilità dei sistemi di AI.

Ciò può avvenire trovando un punto di bilanciamento tra diversi obiettivi:

  • tutelare gli utenti che possano subire un danno e/o un pregiudizio – sgombrando il campo da malintesi e ingiustificati timori legati all’utilizzo delle tecnologie di intelligenza artificiale
  • consentire una sufficiente libertà di azione alle imprese che intendano sviluppare nuove tecnologie nel settore, creando stabilità per gli investimenti.

Il risultato cui occorre tendere, dunque, è quello di individuare, in tutto il territorio dell’Unione Europea, una legislazione uniforme in materia di AI, fondata su un quadro giuridico orizzontale e armonizzato, basato su principi comuni e ciò nella (necessaria) forma del Regolamento.

La proposta di Regolamento, insieme alla già vigente “Direttiva sulla responsabilità per danno da prodotti difettosi (85/374/CEE)”, dovrebbero, dunque, rappresentare i due pilastri del quadro comune europeo sulla responsabilità civile per l’AI.

In ragione poi delle specificità della AI, i punti cardine da definire appaiono due:

a) l’individuazione dei coefficienti di rischio legati all’utilizzo dei sistemi di intelligenza artificiale, oltre che

b) la corretta allocazione delle responsabilità fra i diversi soggetti che intervengono all’interno della catena di valore che, dalla progettazione della tecnologia, porta sino alla sua interazione con il mondo e al suo utilizzo da parte dell’utente, passando attraverso le attività di manutenzione e controllo.

Su questi punti la proposta di regolamento (sul solco della parallela proposta relativa al quadro etico) distingue tra “sistemi di AI ad alto rischio” per cui è prevista una responsabilità oggettiva e “altri sistemi di AI” per cui è prevista una responsabilità per colpa.

Cinque capi e quindici articoli nella bozza di Regolamento

Più precisamente la bozza di Regolamento consta di cinque capi, per un totale di quindici articoli nei quali, dopo le norme di apertura – dedicate alla individuazione dell’oggetto e dell’ambito di applicazione del Regolamento, nonché delle definizioni principali – si arriva alla distinzione fra sistemi di AI ad alto rischio (cui è dedicato il Capo II) e altri sistemi (cui è dedicato, invece, il Capo III):

  1. per quanto riguarda i sistemi di AI ad alto rischio, la previsione centrale è quella secondo la quale l’operatore (nelle due accezioni indicate in premessa) deve essere considerato oggettivamente responsabile per qualsiasi danno e/o pregiudizio causato da una attività, un dispositivo o un processo (sia esso fisico o virtuale) guidato attraverso tale sistema di AI.

I sistemi di AI ad alto rischio sono elencati in un Allegato al Regolamento e per essi è previsto l’obbligo di stipulare idonea copertura assicurativa per la responsabilità civile.

La norma prosegue indicando, poi, l’entità del risarcimento che l’operatore di un sistema di AI ad alto rischio (che sia stato ritenuto responsabile per danni e/o pregiudizi ai sensi del Regolamento) potrà essere chiamato a pagare:

a) fino a un massimo di 2 milioni di euro in caso di morte o danni alla salute e/o all’integrità fisica cagionati a terzi;

b) fino a un massimo di 1 milione di euro in caso di danni patrimoniali cagionati a terzi.

Circa il termine di prescrizione dell’azione risarcitoria, lo stesso è diversificato a seconda che il danno sia patrimoniale o non patrimoniale:

  • per i danni non patrimoniali, infatti, il termine di prescrizione dell’azione è fissato in anni 30 (trenta) a decorrere dalla data in cui si è verificato il danno;
  • per i danni patrimoniali, invece, è previsto, in aggiunta al termine di cui si è appena detto, un termine prescrizionale speciale di anni 10 (dieci) a decorrere dalla data in cui si è verificato il danno al patrimonio, dovendosi dare applicazione al termine che finisca per primo il proprio decorso.
  1. Per quanto riguarda, invece, gli altri sistemi di AI (ossia quelli che non siano qualificati ad alto rischio), è previsto un regime di responsabilità per colpa con riguardo ai danni e/o ai pregiudizi causati da una attività, da un dispositivo o da un processo fisico o virtuale guidato attraverso uno strumento di intelligenza artificiale.

In tal caso è previsto che l’operatore possa liberarsi da responsabilità qualora riesca a dimostrare che il danno e/o il pregiudizio si sono determinati per causa a lui non imputabile (attivazione del sistema senza che l’operatore ne fosse a conoscenza, rispetto della dovuta diligenza, cause di forza maggiore).

Con riguardo al termine di prescrizione dell’azione risarcitoria e all’entità dei risarcimenti, invece, è espressamente previsto che debba farsi riferimento alle leggi dello Stato membro in cui si è verificato il danno e/o il pregiudizio.

responsabilità civile

Ripartizione della responsabilità civile fra gli operatori della catena del valore

Il Capo IV della proposta di Regolamento è, poi, quella più innovativa sotto i profili soggettivi della responsabilità.

Si stabilisce infatti una ripartizione della responsabilità fra i diversi operatori della catena di valore, prevedendosi, in tal senso, che, in presenza di più operatori, gli stessi saranno da considerarsi responsabili in solido (art. 11): vale a dire che il soggetto che ha subito il danno potrà chiedere l’ammontare dell’intero risarcimento a qualsiasi operatore della catena.

Laddove ricorra tale ipotesi, le proporzioni della responsabilità interna dovranno essere poi individuate in considerazione del rispettivo grado di controllo che ciascun operatore ha esercitato sul rischio connesso all’operatività e al funzionamento del sistema di AI, dovendosi attuare il recupero delle rispettive quote attraverso il meccanismo dell’azione di regresso.

Sul punto poi la proposta di Regolamento introduce le nuove figure di:

“operatore”: operatore sia di front-end sia di back-end, a condizione che la responsabilità di quest’ultimo non sia già coperta dalla direttiva 85/374/CEE (art. 3 lett. D)

e) “operatore di front-end”: la persona fisica o giuridica che esercita un certo grado di controllo su un rischio connesso all’operatività e al funzionamento del sistema di IA e che beneficia del suo funzionamento (art. 3 lett. E)

f) “operatore di back-end”: la persona fisica o giuridica che, su base continuativa, definisce le caratteristiche della tecnologia e fornisce i dati e il servizio di supporto di back-end essenziale e pertanto esercita anche un elevato grado di controllo su un rischio connesso all’operatività e al funzionamento del sistema di IA (art. 3 lett. F)

E circa la responsabilità di tali soggetti e le relative discipline da applicarsi l’art. 11 stabilisce che:

  • se l’operatore c.d. di “front-end” è da qualificarsi come produttore del sistema di AI, le previsioni del Regolamento sono chiamate a prevalere su quelle della Dir 85/374/CEE sulla responsabilità per danno da prodotti difettosi;
  • se, invece, è l’operatore c.d. di “back-end” è da qualificarsi anche come produttore, sarà la Dir. 85/374/CEE a prevalere sul Regolamento;
  • se, infine, vi è un solo operatore e tale operatore è da qualificarsi anche come produttore, saranno le disposizioni del Regolamento a prevalere su quelle della Dir. 85/374/CEE.

Conclusioni

Infine, si introduce una ipotesi di concorso di responsabilità da parte dell’interessato.

L’art. 10 stabilisce infatti che se il danno è causato non solo dal sistema di AI ma anche dalle azioni di una persona interessata il grado di responsabilità dell’operatore ai sensi del presente regolamento sarà ridotto di conseguenza.

L’operatore non sarà responsabile se la responsabilità del danno o del pregiudizio causato è esclusivamente imputabile alla persona interessata o alla persona di cui questa è responsabile.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2