Responsabilità penale dell’intelligenza artificiale, due diversi orientamenti

Pubblicato il 17 Mar 2020

Luca Bassi

Counsel, Baker McKenzie

Michele Ingenito

Associate, Baker McKenzie

Il robot Asimo scende le scale

Robot e computer stanno progressivamente sostituendo l’uomo nelle proprie attività. Finché l’essere umano si è servito dei meccanismi di automazione come meri “strumenti”, cioè quali dispositivi che eseguono una volontà che non è propria, in punto di responsabilità penale nessuna differenza è stata rilevata rispetto all’utilizzo di congegni più comuni quali un telefono, un’autovettura o anche, semplicemente, un cacciavite[1]: perseguibile per un eventuale utilizzo distorto dello strumento è il soggetto che di esso si è servito.

La situazione è apparsa diversa quando il livello di sofisticazione delle macchine è diventato tale da trasformarle in dispositivi non più solo in grado di elaborare processi logici predefiniti ma, piuttosto, capaci (apparentemente) di “pensare”. In questi termini, in cibernetica, si parla di intelligenza artificiale (IA) con ciò riferendosi alla capacità di una macchina di imitare comportamenti tipici dell’intelligenza umana. Detto altrimenti, l’IA riproduce parzialmente l’attività intellettuale propria dell’uomo (con particolare riguardo ai processi di apprendimento, di riconoscimento e di scelta) attraverso macchine che utilizzano a tal fine elaboratori ad hoc (detti cervelli elettronici).

Orbene, se il pensiero umano può essere imitato dall’IA, ci si è chiesti se ad essa (la macchina) sia possibile applicare le regole della responsabilità penale valide per l’uomo: in sostanza e in termini generali, se l’IA viola un precetto penale (banalmente, non uccidere), può quel comportamento del dispositivo essere considerato colpevole in quanto consapevole?

Intelligenza artificiale e intelligenza umana

Per comprendere i termini del problema pare opportuno trarre le mosse da alcune definizioni. In primo luogo, è essenziale trattare, senza pretese di esaustività, i caratteri dell’intelligenza umana. Questo, per poi valutare se questi ultimi possano essere replicati da una macchina al punto da fare ritenere che i comportamenti che essa stessa assume siano genuinamente “suoi e propri”.

Come è noto, per “intelligenza”, quale connotato tipico dell’uomo, si intende quel complesso di facoltà psichiche e mentali che consentono di pensare, comprendere e spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare e creare nessi logici. Tutto questo, accompagnato dalla consapevolezza e dall’autoconsapevolezza, rende l’essere umano capace di adattarsi a situazioni nuove (nonché di modificare la situazione stessa quando questa presenti ostacoli all’adattamento).

Si nota agilmente come il denominatore comune (nonché sua modalità di espressione) delle forme di intelligenza sopracitate sia la capacità di ragionamento che, come sottolineava C.S. Peirce, si coniuga nell’uomo in tre modi distinti: deduzione, induzione e abduzione[3].

La prima (deduzione) è l’applicazione a un caso concreto di una regola generale conosciuta (se so che tutti gli uomini sono mortali e so che Socrate è un uomo, posso concludere che Socrate è mortale).

La seconda (induzione) è la creazione di una regola generale sulla base di molteplici casi concretamente percepiti (se ho percepito che Socrate, Platone e Aristotele son uomini e ho osservato che i tre sono mortali, posso pensare che tutti gli uomini siano mortali).

L’ultimo modo di ragionare (abduzione) è l’intuizione, ossia la capacità di creare dei nessi tra concetti tra loro originariamente scollegati (se osservo che Socrate è mortale e ipotizzo che tutti gli uomini sono mortali, posso chiedermi se Socrate è un uomo). Detto diversamente, l’abduzione è la formulazione di un quid nuovo che non deriva da precedenti, è una teoria per cui si cercano elementi a supporto.

Per quanto qui di interesse, ciò che sin qui si è ricostruito (in assenza di fattori patologici che possano in qualche modo influire sulla capacità di autodeterminazione dell’individuo) rappresenta la premessa per ritenere penalmente responsabile un soggetto rispetto ad un fatto tipico ove tutti i parametri di imputazione e qualificazione oggettiva e soggettiva siano integrati.

Ebbene, come si è accennato, resta da vedere se i cardini del sistema penale consentono a oggi di ritenere perseguibile (nonché punibile) una macchina dotata di IA.

Dispositivi meccanici e diritto penale, due diversi orientamenti

Sul rapporto tra dispositivi meccanici e diritto penale si sono confrontati due fondamentali orientamenti.

La prima corrente nega l’applicazione diretta del diritto penale alle macchine. Si sostiene che pacificamente il diritto penale, probabilmente più di ogni altro, risulta essere quel settore dell’ordinamento ontologicamente legato all’operare degli uomini. Infatti, solo questi ultimi possono davvero delinquere e solo essi possono ragionevolmente essere puniti in segno di biasimo per le loro scelte criminali e colpevoli. Solo gli uomini: non le macchine[4]. Stando così le cose, l’interrogativo sulla possibilità di identificare dispositivi di IA quali attori (o come anche definiti, “attanti”[5]) criminosi è presto risolto: machina delinquere (et puniri) non potest[6].

Dunque, parafrasando la classica formula che negava lo status di agente delittuoso alle societates, si è giunti a esplicitare un dogma inespresso del diritto penale: macchine, robot e soggetti artificiali di ogni genere non possono essere direttamente responsabili per la commissione di reati.

Da ciò ne consegue che, nel caso in cui un meccanismo artificiale commetta materialmente un fatto avente rilevanza penale, si dovrà fare riferimento al più tradizionale modello imputativo della “responsabilità vicaria dell’uomo”. In esso, la macchina va considerata come un mero strumento nelle mani del vero autore (e attore) umano sia che questi la utilizzi direttamente o che la predisponga ad atteggiarsi (ove questa sia dotata di un pur minimo grado di autonomia) in base ai propri fini.

Secondo questo orientamento, dunque, i due modelli idealmente contrapposti (responsabilità diretta della macchina da un lato o responsabilità indiretta dell’uomo dall’altro), sono tali solo in astratto giacché, dal punto di vista giuridico-positivo, macchine, robot e soggetti artificiali di ogni genere non possono essere direttamente responsabili per la commissione di reati.

La seconda corrente, invece, forte degli avanzamenti tecnologici registrati, ha iniziato a mettere in crisi la linearità del rapporto tra macchine e diritto penale[7]. Questo, in ragione del fatto che gli algoritmi complessi che guidano i dispositivi non sono più interamente preimpostati, tassativi e insuscettibili di cambiamenti, ma sono aperti ad automodifiche strutturali che traggono origine dalle esperienze che “vive” la macchina. Oggi, il congegno di intelligenza artificiale “ricorda” il passato, apprende dal proprio “vissuto” (grazie al cd. machine learning) e modifica conseguentemente il proprio comportamento, così adattandolo ai nuovi stimoli ricevuti. In molti casi persino, l’IA può acquisire conoscenza non solo dall’esperienza propria, ma anche da quella dei suoi “simili”, mediante il ricorso alle tecnologie di cloud computing[8].

Insomma queste tecnologie, in grado di incrementare sempre di più la rapidità di apprendimento delle IA diminuendo in parallelo il grado di controllo che l’uomo è in grado di esercitare, danno vita a entità il cui comportamento diviene ex ante non del tutto prevedibile dall’uomo e, dunque, “autonomo”. A sostegno dell’imprevedibilità dei comportamenti, espressione di quella che dovrebbe essere la formazione di un’intelligenza propria della macchina, si è parlato talvolta di black box algorithm[9]. Con ciò si è indicata quella incapacità umana di comprendere appieno il rapporto che si instaura nel dispositivo tra i dati di input e i comportamenti di output.

Se così stanno le cose, l’approccio penalistico tradizionale alle res mechanicae entra in crisi poiché si opacizza e si indebolisce l’antitesi tra “pensare criminale” e IA.

Questa seconda visione è stata aspramente criticata dai sostenitori del primo orientamento, i quali si sono avvalsi (innanzitutto) di argomenti a confutazione che tendono a ribadire, tra gli altri, due princìpi fondamentali del diritto penale: il principio di colpevolezza e la funzione della pena.

In estrema sintesi, per dimostrare che lo stato attuale della legislazione (de iure condito) non consente di ritenere le macchine penalmente rimproverabili per sé, si è innanzitutto ribadito che l’IA non può essere considerata “colpevole” in senso stretto giacché, seppure il fatto commesso possa essere voluto dall’IA e corrispondente a quanto vietato dalla norma penale, manca alla macchina (anche se tra le più avanzate) quella capacità di autodeterminazione egoistica (colpevolezza) tipica dell’uomo[10].

Ulteriormente, si è contestato a chi voleva una responsabilità diretta della macchina, che così facendo si sarebbe svilita ogni funzione della pena (retributiva, rieducativa e di prevenzione generale). Infatti, intuitivamente, l’incapacità della macchina di essere suscettibile di un rimprovero colpevole rende l’applicazione della pena sostanzialmente estranea alle rationes che la giustificherebbero.

Primo orientamento: la capacità della macchina di “autodeterminazione contraria”

Al di là delle ragioni già illustrate, pare opportuno sollevare in questa sede alcune ulteriori riflessioni che, come si vedrà, portano a concludere che la responsabilità autonoma dell’IA resta nel nostro attuale ordinamento un quid impraticabile.

Punto di partenza è l’evoluzione del concetto di intelligenza artificiale. Infatti, se negli anni Ottanta veniva definita come “lo straordinario sforzo di permettere ai computer di ragionare[11], oggi si può fare riferimento a quanto stabilito dall’Unione Europea che ha parlato dell’IA come di “sistemi che mostrano un comportamento intelligente analizzando l’ambiente e prendendo decisioni con diversi gradi di autonomia, per raggiungere obiettivi specifici[12]. Dunque, si è partiti con l’idea dell’uomo che crea una macchina dotata di una mente propria, per arrivare a una definizione certamente più rispondente alla realtà (in questa cornice, è certo che l’avvento dei big data ha consentito di avere a disposizione una enorme quantità e varietà di dati che possono essere utilizzati dagli algoritmi della IA).

La seconda teoria, quella a favore della responsabilità diretta delle macchine, ha messo l’accento sulle capacità “pensanti” dell’IA al punto da definirle thinking machine[13]. Fulcro del “pensiero” è il procedimento di machine learning che, informalmente, può essere definito come “un software che impara come svolgere un insieme di compiti attingendo dall’esperienza, ma questa esperienza, man mano che incrementa, migliora e quindi permette di svolgere sempre meglio il suo compito[14].

Se si osserva con attenzione la modalità logica di “pensiero” dell’IA, anche in virtù di quanto indicato in precedenza, si individua facilmente che si tratta di un ragionamento induttivo (peraltro con più o meno ampio margine di errore). Si tratta dunque dell’emulazione di uno dei modi in cui si esprime il ragionamento umano. Va detto che, altrettanto, le macchine possono agilmente svolgere ragionamenti deduttivi soprattutto nella dimostrazione di teoremi[15]. Tuttavia, ciò che ad oggi manca a qualsiasi macchina, è la capacità di sviluppare un ragionamento abduttivo, di intuizione che, in presenza di una regola generale certa e di un caso concreto solo probabile, elabori una teoria.

Allora, mancando alle macchine la capacità di creare nessi indipendenti dai precedenti, l’equiparazione con l’intelligenza umana resta a tutt’oggi una forzatura e, così pure, l’applicabilità diretta delle norme penali all’IA. Se così non fosse, l’agente artificiale intelligente dovrebbe essere in grado di determinarsi in modo diverso da quanto derivante dagli input (indotti o rielaborati) ricevuti. Si pensi alla pena: se applicare una pena a una macchina fosse assimilabile a infliggere una sanzione a un individuo, il congegno che ha scontato la pena, in presenza dei medesimi input che hanno determinato in precedenza il comportamento criminoso, dovrebbe essere capace di modificare il proprio output sulla base del solo rimprovero colpevole che gli era contestato. Visto dall’altro lato, per ritenere responsabile penalmente di un fatto l’IA sarebbe necessario che questa stessa si fosse autonomamente distaccata da un precetto (non uccidere) pur in presenza di input di obbedienza. Solo in casi del genere, potrebbe rinvenirsi quella mens rea richiesta dal diritto penale per la punibilità del fatto.

Per completezza, si fa presente che ad oggi, in ragione del menzionato black box algorithm, la macchina non spiega se stessa, non fornisce ragioni umanamente comprensibili del perché di un determinato output. Ma anche laddove così fosse, si pensi alle difficoltà di accertamento: ove una macchina rivelasse che alla base della propria condotta sta la volontà di infrangere un precetto penale, come si potrebbe accertare che quell’output non sia in realtà stato inserito dal programmatore/utilizzatore proprio per far ricadere sulla macchina le conseguenze del comportamento criminoso in realtà da egli tenuto? Oppure, se la macchina fosse in grado di recepire i cardini e i princìpi del processo penale (tra cui il privilegio contro l’autoincriminazione), perché dovrebbe rivelare le ragioni che l’hanno portata ad agire contra ius?

Stante tutto quanto supra, non può che aderirsi a quel modello (il primo) secondo cui la macchina è da considerarsi ancora come un mero strumento nelle mani del vero autore che la utilizzi direttamente o la predisponga ad atteggiarsi (ove questa sia dotata di un pur minimo grado di autonomia) in base ai propri fini[16]. Ad oggi, non ha (ancora) senso parlare di responsabilità morale o giuridica della macchina, dal momento che la stessa è priva di coscienza e di intenzionalità delle proprie azioni, è priva della capacità di determinarsi diversamente. Nemmeno potrebbe mai essere rimproverata per un fatto da lei materialmente cagionato perché, al contrario dell’individuo, non è libera ma determinata: la mancanza della libertà del volere si riflette in una carenza ineliminabile di colpevolezza. La “machina sapiens” è ancora lontana dall’orizzonte.

“Quid iuris” se una macchina “commette” (rectius esegue) un reato?

Se, come si è detto sinora, si ritiene che i congegni di IA siano ancora strumenti dell’uomo si pone il problema di qualificare la responsabilità di chi ne è referente. In altre parole, in caso di errore dei robot, quali sono i requisiti per ritenere responsabili le persone “dietro le macchine”? Il punto è l’individuazione del titolo di imputazione soggettiva a carico della persona fisica.

Di facile soluzione è l’ipotesi dolosa: ogni volta che, direttamente o indirettamente, l’azione “volontaria” dell’agente artificiale costituisce la longa manus dell’uomo, è su di esso che grava la responsabilità penale per il fatto compiuto. Infatti, la responsabilità penale dell’operatore non presenta problemi di sorta se egli programma intenzionalmente l’agente intelligente in modo da commettere reati: il robot – non importa se intelligente o meno – è gestito come strumento che funziona per volontà dell’essere umano. In questo caso, l’agire intenzionale della macchina coincide perfettamente con la volontà dell’utilizzatore o del programmatore.

Criticità emergono invece nell’ambito della colpa che, come si può agilmente intuire, rappresenterà in futuro (almeno numericamente) il terreno elettivo della “criminalità robotica”. Due in particolare sono le figure umane che possono venire in gioco, entrambe passibili di imputazione colposa per un fatto materialmente commesso da un’entità artificiale intelligente.

In primo luogo, vengono in rilievo gli utilizzatori (se mantengono qualche potere di impedire l’evento). Si pensi, per tutti, al settore delle self-driving car: ove la vettura sia ancora dotata di comandi che permettano di intervenire in caso di emergenza, possono residuare margini di responsabilità colposa del guidatore che non è intervenuto. Diverso il caso in cui, invece, l’automazione del mezzo sia completa al punto da rendere superflua la presenza di comandi: l’impossibilità oggettiva di interventi umani impedisce di contestare una qualsiasi colpa penale all’utilizzatore che, in questo caso, è ridotto a mero passeggero.

In secondo luogo, l’attenzione va rivolta a quegli individui che svolgono funzioni di programmazione oppure di assemblaggio della macchina. Agilmente infatti si comprende che al ‘costruttoreassemblatore” verranno contestati gli errori di ‘fabbricazione’ così come al programmatore saranno imputabili quelle mancanze classificabili come errori di programmazione (intesi sia come errori veri e propri che come omissioni). Fin qui si verte nell’ambito della responsabilità per danno da prodotto che, pur con le sue asperità, costituisce un campo noto d’azione.

Tuttavia, va tenuto presente che le IA di seconda generazione compiono un passo ulteriore rispetto al paradigma classico in cui il prodotto dannoso è ancora oggetto. Le macchine intelligenti possono tenere dei veri e propri comportamenti attivi assolutamente imprevedibili derivanti, come si è detto, da quel “lavorìo autoevolutivo” determinato dal machine learning. Se ciò è vero, è indubbio che al rischio da prodotto più tradizionale si aggiunge un ulteriore e nuovo profilo di rischio radicato nella peculiare natura parasoggettiva e “autonoma” delle macchine.

Peraltro, così ragionando non possono escludersi casi dove le peculiarità dei (s)oggetti artificiali ostacolino l’individuazione efficace di un referente umano cui ricondurre la responsabilità per il fatto colposo. Questo, con un conseguente vuoto di tutela penale per tali tipi di offese. Da ciò possono derivare due conclusioni opposte. Infatti, se si ritiene che l’agire di un robot con capacità di elaborazione indipendente delle informazioni non sia mai prevedibile, l’agente autonomo non potrà mai essere ritenuto responsabile per negligenza e i fatti criminosi causati dalla macchina dovranno essere ricondotti a ipotesi di caso fortuito o forza maggiore. Antiteticamente, se si ritiene che l’agire intelligente sia comunque in qualche misura sempre prevedibile, chi immette nella realtà dei consociati forme di IA deve essere ritenuto responsabile per ogni tipo di fatto criminoso e, ciò, anche qualora manchino leggi scientifiche di spiegazione causale o ove l’evento dannoso non sia in alcun modo prevedibile dall’agente ex ante. In sostanza, dovrebbe ritenersi responsabile per colpa ogni progettista, programmatore o utilizzatore che non abbia previsto l’imprevedibilità del robot intelligente. Unico fattore comune alle due conclusioni appena citate è, in ogni caso, far emergere la necessità di predisporre una legislazione ad hoc necessaria alla regolamentazione di un settore di attività quanto mai presente.

  1. L’esempio è tratto da G. Hallevy, The criminal liability of artificial intelligence entities. From science fiction to legal social control, in Akron Intellectual Property Journal, Vol. 4, 2010, p. 172.
  2. C.S. Peirce, Illustrations of the Logic of Science, in Popular Science Monthly, Novembre 1877 – Agosto 1878.  Sull’applicazione delle teorie di Peirce al diritto, ex multis, G. Tuzet, La prima inferenza: l’abduzione di C. S. Peirce fra scienza e diritto, Torino, 2006.
  3. In questi termini, A. Cappellini, Machina delinquere non potest? Brevi appunti sulla intelligenza artificiale e responsabilità penale, in www.discrimen.it, Criminalia, 2019, p. 2.
  4. Ex multis, B. Latour, Pandora’s hope. Essays on the reality of science studies, Cambridge (Massachusetts), 1999, p. 122 ss.; Id., Reassembling the Social. An Introduction to Actor-Network-Theory, Oxford, 2005, p. 54 ss.
  5. L’espressione è di A. Cappellini, Machina, cit., p. 3.
  6. Su tutti, G. Hallevy, When Robots Kill. Artificial Intelligence under Criminal Law, Boston, 2013.
  7. Con tale termine si fa riferimento al collegamento tra loro di più soggetti artificiali in modo da renderli capaci di scambiarsi informazioni in cloud e, conseguentemente, di “sommare” le “esperienze di vita” di una moltitudine di macchine intelligenti, sottoposte agli scenari più diversi. Così, A. Cappellini, Machina, cit., p. 6.
  8. S. Donciuex, J.B. Mouret, Beyond black-box optimization: a review of selective pressures for evolutionary robotics, in Evolutionary Intelligence, 2014, p. 71 ss.
  9. Così, A. Cappellini, Machina, cit., p. 14.
  10. J. Haugeland, Artificial intelligence: the very idea, Cambridge (Massachusetts), 1985, p. 2 ss.
  11. European Commission, A definition of AI: Main capabilities and scientific disciplines High-Level Expert Group on Artificial Intelligence, 8 Aprile 2019 ↑
  12. G. Hallevy, The criminal liability, cit., p. 175.
  13. F. Mercorio, Big Data, Intelligenza Artificiale, Industria 4.0: un’overview, in Aa. Vv., Metropolis, dai social media all’intelligenza artificiale, a cura di M. Carvelli, G. Sapelli, Padova, 2019, p. 14
  14. Il rischio della deduzione, tuttavia, è che una macchina può giungere a dimostrare qualsiasi cosa ma se la premessa è falsa, la conclusione sarà necessariamente sbagliata.
  15. Sulla responsabilità del produttore si tenga presente la Dir. 85/374/CEE in materia di responsabilità per danno da prodotti difettosi. Questa normativa prevede una disciplina molto specifica sulla responsabilità civile per danno da prodotti difettosi in tema di produzione e vendita di beni e servizi d’IA. Le criticità emergono considerando, da un lato la mancanza di un unico quadro legislativo che disciplini il campo della progettazione, costruzione e impiego di sistemi d’IA, dall’altro, oltre al vuoto normativo in tema di responsabilità penale, la mancata definizione di alcuni concetti tra i quali: cosa si intende per prodotto, chi è il soggetto responsabile per i danni provocati dallo stesso e com’è ripartito l’onere probatorio.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4