Gli effetti giuridici e le problematiche legali riconnesse alla progettazione, alla produzione e all’utilizzo di nuove tecnologie come quelle legate all’ambito dell’intelligenza artificiale sono da iscriversi nel contesto della normativa attuale e da dirimersi sulla base delle categorie e dei principi giuridici esistenti. Questo perché, di fatto, non esiste ad oggi una legislazione specificamente indirizzata a normare il ricorso ai sistemi di intelligenza artificiale, né le conseguenze derivanti, sul piano civilistico e penalistico, rispettivamente da eventi dannosi o fattispecie di reato dipendenti o connesse al loro utilizzo.
Ciò significa che, per le fattispecie di responsabilità in ordine alla produzione di eventuali danni, dovrà farsi riferimento alla tradizionale dicotomia tra responsabilità contrattuale e responsabilità extra-contrattuale, con tutte le differenze, in termini di conseguenze risarcitorie, allocazione dell’onere della prova e disciplina prescrizionale, che ne derivano.
Analogamente, per la tutela della proprietà intellettuale ed industriale legata all’ideazione e alla creazione dei sistemi intelligenti e degli output ottenibili dal loro utilizzo, si farà riferimento alla normativa in materia di diritto d’autore e al codice della proprietà industriale.
Infine, per dirimere le tematiche relative alla complessa materia del trattamento dei dati di natura personale e della tutela dei diritti e delle libertà degli interessati, il quadro normativo di riferimento è oggi costituito dal nuovo Regolamento Europeo n. 679/2016, che, pur non facendo mai espresso e specifico riferimento a nuove tecnologie, muove proprio dal presupposto di adeguare la materia del trattamento e della protezione dei dati personali al contesto tecnologico attuale, anche e soprattutto per i rischi legati all’innovazione e alla pervasività delle strumentazioni più avanzate rispetto all’intimità e alla sfera personale degli individui.
La vera peculiarità dell’artifcial intelligence rispetto al resto delle tecnologie innovative consiste nella capacità del sistema, grazie al ricorso a meccanismi di machine learning, di autodeterminarsi in base agli input provenienti dall’ambiente esterno e ai dati raccolti. Questo, sotto un profilo strettamente giuridico, può tradursi in un’interruzione del nesso di causalità tra la condotta di chi ha ideato, progettato o costruito il sistema e gli output cui lo stesso sistema dà luogo. Il tutto, con conseguenti evidenti problemi di riconducibilità giuridica delle condotte autonome dell’AI.
Orientarsi tra le norme applicabili in materia richiede comunque una prima fondamentale e doverosa premessa: occorre tener distinti e separati l’ambito civile e quello penale, poiché si tratta di due rami del diritto che rispondono a logiche e principi giuridici molto diversi.
E se alla sfera del diritto civile non sono del tutto sconosciute fattispecie di responsabilità per fatto altrui e/o di responsabilità oggettiva (si pensi – un esempio su tutti, peraltro molto calzante in quest’ambito – alla responsabilità per l’esercizio di attività pericoloso, di cui all’art. 2050 c.c.), al contrario, nel diritto penale, stanti i principi di stretta legalità e tassatività delle fattispecie incriminatrici, nonché quello di personalità della pena (non è possibile che un individuo sconti una sanzione penale per una fattispecie di reato commessa da qualcun altro), è ben più difficile ipotizzare che un individuo possa essere assoggettato a sanzione per le condotte autonome, inevitabili ed imprevedibili di un sistema intelligente in grado di autodeterminarsi.
Oltre due anni fa ormai, nel febbraio del 2017, prendendo atto dell’esistenza di un’evidente lacuna normativa in materia, nonché della necessità di disciplinare in maniera quanto più possibile omogenea tra i diversi Stati Membri le problematiche legali connesse al ricorso ai sistemi di artificial intelligence, il Parlamento Europeo ha approvato una Risoluzione recante “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”. Con tale atto, il Parlamento ha sostanzialmente richiesto alla Commissione di formulare e sottoporre al lungo iter legislativo previsto dall’ordinamento unionale, una proposta di direttiva che individui le regole civilistiche da applicarsi, in maniera uniforme in tutti gli Stati Membri, all’impiego della robotica.
Nella risoluzione, il Parlamento analizza le principali “questioni aperte” – a partire da quella, sicuramente centrale, della responsabilità civile – offrendo spunti di riflessione e, in qualche caso, anche possibili soluzioni giuridiche.
In particolare, la tematica della responsabilità e del risarcimento del danno è molto complessa e solo in parte può essere affrontata basandosi su una lettura ed una interpretazione estensiva del quadro normativo già esistente.
Il fulcro della problematica consiste nella distinzione tra responsabilità per danni causati o connessi all’utilizzo dei sistemi intelligenti considerati quali “prodotti” e responsabilità per danni causati o connessi all’utilizzo di sistemi intelligenti considerati quali “agenti”.
Se la prima casistica non presenta criticità particolari, la seconda può dar luogo a complessità dovute all’impossibilità di prevedere, prevenire o, nei casi più estremi, orientare le decisioni e le condotte autonome dei sistemi intelligenti.
Si tratta, in tutta evidenza, di una tematica dai risvolti pratici molto delicati, poiché gli orientamenti del legislatore o della giurisprudenza in relazione all’allocazione degli oneri risarcitori possono costituire un freno o, al contrario, un incentivo rispetto al ricorso all’AI e, in ultima analisi, finiscono col sancire su quali soggetti (produttori o utilizzatori) debbano ricadere i costi del progresso tecnologico.
***
*Anna Italiano è Senior Legal Consultant di Partners4Innovation