Etica e ai

Scenari giuridici dell’intelligenza artificiale: ancora troppi vuoti



Indirizzo copiato

Quali sono, attualmente, le leggi che regolano l’utilizzo e le azioni dei sistemi di AI e dei robot? Le macchine possono compiere dei reati o esserne vittime? Molte domande ancora in cerca di risposte certe

Pubblicato il 30 dic 2020



film intelligenza artificiale

L’intelligenza artificiale (AI) è già presente in molti aspetti della nostra vita quotidiana: Internet, App., Gps, videogame, droni, guida autonoma, banche dati (banche, ospedali, compagnie assicurative, negozi, ristoranti, ecc.)[1]. Grazie a ciò si sono compiuti rapidi progressi nell’attuazione di una AI sempre più prestazionale resa possibile: dall’aumento delle capacità computazionali, l’aumento dei dati digitali e IoT, diffusione di sistemi di machine learning[2], ovvero software che impara autonomamente dall’ambiente esterno, tramite i dati che immagazzina ed elabora, e modifica le proprie prestazioni adattandole agli esiti del procedimento di apprendimento. È il caso quindi esaminare gli attuali scenari giuridici dell’intelligenza artificiale.

A questo proposito in una risoluzione del Parlamento Europeo sulla robotica[3] si legge: “è possibile che a lungo termine l’AI superi la capacità intellettuale umana”(norme di diritto civile sulla robotica 2015/2103 INL).

È notizia recente che il Parlamento Europeo, su iniziativa legislativa del parlamentare Iban García del Blanco (S&D, ES) stia lavorando per presentare, a inizio del prossimo anno, un nuovo quadro giuridico che definisca i principi etici e gli obblighi legali che dovranno essere seguiti nello sviluppo e uso dell’intelligenza artificiale, della robotica e tecnologie che includano software, algoritmi e dati[4].

Da qui la necessità di approfondire possibili scenari e correlazioni tra AI e diritto, in particolare diritto penale, che a prima vista potrebbe apparire come la più lontana[5].

Tant’è che, in un diritto penale coniugato al futuro, si inizia a dibattere sulla “costruzione” di una responsabilità penale del robot, incontestabilmente dotato di una struttura materiale “esistente”, tramite la quale produrre comportamenti empiricamente verificabili e capaci di offendere beni giuridici penalmente significativi.[6]

Intelligenza artificiale e scenari giuridici, alcune definizioni

La definizione che dà l’Enciclopedia Treccani di responsabilità penale: condizione di chi deve rispondere di comportamenti penalmente rilevanti.

Ai sensi dell’art. 27, co.1, Cost. la responsabilità penale è personale, se ne deve comprovare la colpa o il dolo, conservando il soggetto la signoria sulle proprie scelte e sui propri impulsi, in un rapporto di causalità tra condotta ed evento offensivo conseguente.[7]

Se chiara ed evidente è la definizione di responsabilità penale, non si può dire altrettanto per la definizione di AI.[8]

La definizione di AI è cambiata, nel corso degli ultimi quarant’anni del secolo breve e l’inizio del nuovo millennio, più e più volte.

Una nozione univoca di robot[9] (o bot) o di AI[10] non esiste.

Quando si parla di AI si tratta di algoritmi in grado di elaborare milioni di dati e fornire su basi statistiche delle risposte.[11] L’input resta quello umano: è quest’ultimo che sceglie l’obiettivo che l’applicazione di AI deve perseguire.

Quando però gli algoritmi apprendono elaborazioni complesse e ottengono effetti capaci di modificare la realtà, interagendo con l’essere umano, sostituendone il processo volitivo limitatamente alla scelta iniziale del suo ideatore e utilizzatore le cose cambiano notevolmente.[12]

Sia che si tratti di AI o robot, con forme umanoidi o meno,[13] la loro definizione si esplicita tramite cinque caratteristiche, così come nella Risoluzione del Parlamento europeo del 16 febbraio 2017[14]:

  • capacità di comunicazione
  • conoscenza di sé
  • conoscenza della realtà esterna
  • condotta orientata ad un fine
  • creatività, ovvero capacità di decisioni alternative.

In questa risoluzione sono quattro i temi fondamentali affrontati: la responsabilità per eventuali danni, uno status giuridico dei robot come “persone elettroniche”, l’affezione e le possibili dipendenze emotive degli esseri umani rispetto ai robot dotati di una autonoma capacità di apprendimento e la disoccupazione conseguente alla robotizzazione di attività industriali e non.[15]

Nel corso del 2017 vi sono stati altri tentativi di regolamentazione non solo a livello europeo, anche da parte della Società Giapponese per l’AI (JSAI) con l’approvazione delle Linee Guida sull’intelligenza artificiale che dovranno essere osservate dai membri di JSAI. La loro finalità è quella di instaurare un dialogo continuo tra pubblico e ricercatori sul tema delle tecnologie e dell’AI e del suo riflesso sui temi etici.

C’è inoltre da sottolineare che l’art. 9 di tali linee guida abbia un contenuto innovativo: riconosce una soggettività alle creazioni di AI, un’autonomia e una distintività così elevata rispetto ai suoi ideatori e programmatori tale da rendere necessario che le stesse applicazioni di AI debbano a loro volta rispettare le linee guida, e in questo modo riconosce l’AI come autonomo membro della società[16].

Nello stesso anno il governo sudcoreano ha annunciato che avrebbe presentato nuovi standard legali per definire gli status giuridici, le responsabilità e gli standard etici delle nuove industrie basate sull’AI, auto a guida automatica e così via in modo che la società sudcoreana possa essere preparata alla rivoluzione industriale 4.0.[17]

Lo stato dell’arte dell’intelligenza artificiale

“Non faremo mai una macchina più intelligente di noi!”[18], ha affermato il neuroscienziato Danko Nikolic. Questa sua convinzione è supportata dalle sue ricerche sul cervello umano e dall’evidenza che il cervello non è l’unico “hardware” che consente agli esseri umani d’essere intelligenti.

Per Nikolic, infatti gli strumenti di base per l’apprendimento sono le istruzioni contenute nei nostri geni in migliaia e migliaia di anni di evoluzione. Quindi per raggiungere l’AI questo grado di apprendimento dovrebbe ripercorrere tutti i gradi dell’evoluzione umana.

Howard Gardner, docente di Harvard, ci avverte che “non importa quanto sei intelligente, importa come lo sei” e indica che ogni persona è dotata di almeno sette tipi di intelligenza:[19]

  • logico-matematica
  • linguistico-verbale
  • cinestetica
  • visivo-spaziale
  • musicale
  • intrapersonale
  • interpersonale

La sfida, quindi, è data tra AI verticale e intelligenza umana multipla.

Le macchine, i sistemi autonomi verticali vinceranno nelle attività verticali in cui l’uomo è superabile come logica e analisi dei dati, ma l’uomo conserva un largo vantaggio su gli altri tipi di intelligenza.

Da quanto detto, allo stato delle nostre incomplete conoscenze sullo stadio raggiunto dagli ingegneri sull’autonomizzazione della AI, sembrerebbe ancora prematuro parlare di pericolosità “attuale” della stessa.

È però altrettanto vero che numerose applicazioni ed evoluzioni dell’AI sono coperte da segretezza per diritti commerciali (brevetti) o per interessi di sicurezza nazionale, e questo non ci dovrebbe indurre ad abbassare la guardia circa un’improvvisa esplosione di contenziosi legali avverso società private o Enti nazionali che detengano il possesso di programmi e software inerenti l’AI.

Infatti, la correttezza e la razionalità dell’AI dipende dal programma di acquisizione dati, che non deve essere incompleto o distorto.

A questo proposito, il sistema di algoritmo predittivo più famoso e utilizzato negli Usa, il COMPAS (Correctional Offender Management Profiling for Alternative Sanctions)[20] elaborato e commercializzato dalla Northpointe, è stato stigmatizzato in quanto ad affidabilità e soprattutto per distorsioni su base razziale.

Al momento in Europa gli algoritmi predittivi non hanno avuto accesso nelle nostre aule penali.

Nel 2006 l’Executive Office of the President National Science and Technology Council Committee on Technology (EOPNSTCCT) ha pubblicato il documento :”Preparing for the future of Artificial Intelligence” che si conclude con 23 raccomandazioni, di esse ci sembra sia utile evidenziare la numero 18: le scuole e le università dovrebbero includere l’etica e gli argomenti correlati in materia di sicurezza, privacy e salute, come parte integrante dei programmi di studio sull’AI, il Machine Learning, la Computer Science e la Data Science.[21]

Nell’affrontare questa nuova frontiera bisogna essere meno ingegneristici e più umanisti, adottando quei principi etici fondamentali che ci fanno distinguere i buoni dai cattivi comportamenti.

Gli scenari giuridici dell’intelligenza artificiale

L’impiego di sistemi di AI nell’attività di “law enforcement” è già una realtà che si presenta in crescita per i prossimi anni.[22]

Sono già in uso in alcuni Stati macchine robotiche, non necessariamente umanoidi, utilizzate per attività di pattugliamento, sorveglianza, disinnesco bombe, individuazione di atteggiamenti sospetti, riconoscimento facciale.

Tali applicazioni se da un lato hanno il merito di preservare dai pericoli gli agenti impiegati nell’indagine, dall’altro sollevano una serie di problematiche sulla libertà di scelta da lasciare alla macchina, sulla questione aperta della privacy dei cittadini controllati.

Nei casi in cui queste applicazioni siano fornite con armi non letali (taser o spray al peperoncino) o letali (armi da fuoco) si dovrebbe accuratamente discutere a chi attribuire l’eventuale errore, al programmatore o all’utente.

A tal proposito, N. Sharkey, massimo esperto di robotica,[23] riferisce dei lavori in corso presso le Nazioni Unite per l’adozione di un Trattato internazionale che proibisca lo sviluppo e l’uso di armi robotizzate.

Per “polizia predittiva”[24] si intende l’insieme di attività rivolte allo studio e all’applicazione di metodi statistici che abbiano come obiettivo di predire chi possa commettere un reato, dove e quando.

I software di polizia predittiva si dividono in due categorie:

  • quelli che individuano gli hotspot
  • quelli che seguono le serialità criminali di soggetti, crime linking.

Rientrano nel primo tipo di sistemi il Risk Terrain Modeling, utilizzato per reati di spaccio, il PredPol, in uso presso gli Usa e Uk, per l’individuazione di un numero più elevato di reati, l’XLAW, dispositivo in uso presso la polizia italiana. Altri sistemi software sono Keycrime, in uso presso la questura di Milano, poi divenuto di proprietà d’una azienda privata; in Germania il Precobs, in Inghilterra l’Hart. Questi software si basano sull’idea che alcune forme di criminalità si manifestano in un arco temporale e in una zona geografica molto circoscritti, raccogliendo e integrando i dati provenienti da varie fonti questi software “profilano” il possibile autore e ne prevedono le mosse.[25] Se indubbiamente ci sono ricadute positive di tali attività di polizia predittiva, d’altra parte sorgono pure delle perplessità.

Il loro uso non pare sia stato finora “regolato” in nessun Paese a livello normativo, per cui condizioni e modalità d’uso sono affidate alla sensibilità e all’esperienza dei singoli operatori di polizia. È da stigmatizzare che la gran mole di dati raccolti a livello delle singole persone possano lederne la tutela della privacy, oltre che i diritti civili (etnia, sesso, religione, classe sociale)[26].

Questi sistemi non regolati e spesso in possesso di aziende private, tramite i brevetti depositati, con forte pregiudizio sui criteri di trasparenza del loro utilizzo, possono portare a una “militarizzazione” nella sorveglianza di zone e soggetti e profilare possibili scenari di scompenso del libero gioco democratico di un Paese.[27]

Ancora più grave appare lo scenario di algoritmi basati sull’AI utilizzati ai fini decisionali (Automated Decision System) sia all’interno della pubblica amministrazione che in ambito privato.[28] Per ora gli ADS sono utilizzati in questioni civili (risarcimento danni, assicurazioni, danni da prodotto), mentre in Estonia su decisioni del valore fino a 7 mila euro.[29]

La possibilità di una diffusione di decisioni giudiziarie algoritmiche anche in materia penale ha richiamato l’attenzione del Consiglio d’Europa che ha adottato la Carta etica europea per l’uso dell’AI nei sistemi di giustizia penale e nei relativi ambienti.

Vengono individuate alcune linee guida, alle quali “dovranno attenersi i soggetti pubblici e privati responsabili del progetto e sviluppo degli strumenti e dei servizi della AI”, secondo i seguenti principi:

  • rispetto dei diritti fondamentali
  • non discriminazione
  • qualità e sicurezza
  • trasparenza, imparzialità e correttezza
  • garanzia del controllo umano

Quanto ai procedimenti penali, il documento evidenzia che “anche se non sono specificatamente progettati per essere discriminatori, l’uso di algoritmi basati sull’AI ha mostrato il rischio di favorire la rinascita di teorie deterministiche a scapito delle teorie dell’individualizzazione della pena” (p. 48).

Ci sono poi ragioni più squisitamente procedurali[30] che renderebbero arduo l’impiego di algoritmi nell’ambito penale.

Come farebbe un computer ad individuare nel corso della testimonianza se il teste abbia detto il vero, sia stato reticente o abbia mentito?

I criteri di valutazione di una prova sono plurimi e non predeterminati, e ancora più difficile sarebbe per un algoritmo stabilire se gli indizi siano gravi, precisi e concordanti, come da art. 192, comma 2, c.p.p.

Sembra impossibile che un algoritmo possa giudicare in base all’art. 533, comma 1, c.p.p., basato sull’ “oltre ogni ragionevole dubbio”.[31]

Scenari giuridici: l’intelligenza artificiale può compiere reati?

N. Sharkey[32] riferisce di un sospetto cecchino ucciso a Dallas nel 2016 tramite l’intervento di un drone, e fa notare che con questo atto si è varcato un confine fino ad allora impensabile: una macchina ha ucciso un uomo.

Altro episodio, in Arizona nel 2018, significativo di quanto la realtà preceda ogni norma giuridica, è quello di un’auto guidata da AI che investe un pedone.[33]

Mentre ultimamente un software sofisticato per auto-guida di un Boeing 737 Max ha causato una serie di disastri aerei interferendo con l’intervento umano del pilota.[34]

Questi casi ci dicono come già ora l’AI possa essere coinvolta in reati.

  • “machina delinquere non potest”

Fino al recente passato, i sistemi di intelligenza artificiale e le macchine automatiche operavano mediante algoritmi integralmente preimpostati dal programmatore, il loro comportamento, quindi, era del tutto predeterminato. Rispetto a questi sistemi il modello di imputazione della responsabilità diretta dell’uomo ha tenuto e tiene senza particolari problemi, perché la macchina, in quei casi di uso improprio, è un mero strumento del reato commesso dall’uomo, pur tuttavia essa deve essere confiscata, in funzione preventiva, anche a prescindere da una sentenza di condanna (v. l’art. 240 c.p.).[35]

In questa ipotesi che l’AI venga utilizzata come strumento[36] da un uomo per compiere condotte criminali, il campo è già molto vasto:

  • crimini informatici,
  • economici e ambientali,
  • traffici di sostanze stupefacenti o altri prodotti illeciti,
  • tratta di esseri umani,
  • violazione della privacy, trattamento dati personali, una recente inchiesta del New York Times, dimostra come l’AI applicata alla tecnologia di face recognition (Clearview AI) possa estrapolare dalle piattaforme sociali, con gravi pregiudizi per la privacy degli utenti, le immagini scattate e compararle senza l’autorizzazione degli utenti e superando le restrizione delle stesse piattaforme sociali: “you take a picture of a person, upload it and get to see public photos of that person, along with links to where those photos appeared[37]”.
  • intelligenza artificiale scenari giuridiciviolazione della proprietà intellettuale e industriale,
  • reati di diffamazione,
  • abuso della credulità popolare, attraverso bot che creano fakenews destinate alla rete.

Fa parte di questa casistica il bagarinaggio online: acquisto attraverso bot ad alta velocità di biglietti, che vengono rivenduti a prezzi più alti, secondary ticketing, con fenomeni di elusione ed evasione fiscale da parte dei bagarini.[38]

Mediante gli HTF (High Frequency Traders) si sono verificati condotte di manipolazione abusiva del mercato, eseguendo migliaia di operazioni al secondo e causando improvvise e rapide oscillazioni dei prezzi sui mercati finanziari, con chiara rilevanza penale.[39]

  • “machina delinquere potest”

Ma le ultime frontiere dell’AI vanno nella direzione del deep network, reti neurali artificiali ovvero un metodo di computazione ispirato al modo di funzionare del cervello.[40]

La peculiarità di queste reti è la loro capacità di apprendere, di impostare e modificare il proprio comportamento in funzione degli errori commessi, mediante il Reinforcement Learning. Quando la rete sbaglia riceve un segnale “negativo” (punizione) che scoraggia la rete a ripetere l’azione sbagliata nelle stesse condizioni, viceversa, se la rete produce un’azione corretta, riceve un segnale “positivo” (premio) che rinforza le connessioni sinaptiche al fine di generare un’azione simile nelle stesse condizioni.

Tutto ciò affina nella macchina la capacità del dubbio, che è l’input a predire gli esiti di future azioni e guida la scelta del comportamento da intraprendere verso il raggiungimento del risultato vantaggioso (non punizione/premio)[41].

Se l’AI è fornita di capacità di apprendimento e di autonomia decisionale, qualora sia in grado di porre in essere azioni e movimenti indipendentemente dal contributo del programmatore o dell’utente, essa può diventare autore del reato e ne dovrà rispondere penalmente.

Una risposta positiva a tale questione proviene da una parte della letteratura straniera di common law e, in particolare, da G. Hallevy.[42] Secondo l’Autore, non ci sono ragioni valide per negare la punibilità dei sistemi di AI. Quanto all’actus reus – come inteso negli ordinamenti di common law, in termini meramente materialistici – potrebbe essere ricondotto direttamente al sistema di AI, sia che si tratti di condotta attiva, che di omissione.

Per quanto attiene al profilo psicologico, si potrebbero configurare alcune forme di mens rea, come negligence o addirittura il general intent che comprende intention, knowledge, recklessness. D’altra parte, a differenza delle persone giuridiche, i sistemi di AI sono dotati sempre – in quanto software funzionanti tramite hardware – di un corpo fisico su cui può incidere la pena.

Hallevy ha teorizzato tre paradigmi di responsabilità:

  • il primo, definito perpetraction through another, rappresenta l’aggiornamento di quello tradizionale, di responsabilità indiretta dell’uomo: in base ad esso, i sistemi di AI ricadono nella categoria degli “agenti innocenti”, utilizzati dal programmatore o dall’utente, che ne risponderà in maniera esclusiva;
  • il secondo, natural probable consequence, e il terzo paradigma, direct liability, prevedono la possibilità di individuare una responsabilità dell’entità intelligente in via cumulativa o autonoma rispetto alla responsabilità del programmatore o utente.[43]

La questione di attribuzione di responsabilità penale a entità diverse dall’uomo non è così moderna, se si pensa che Platone, ne “Le Leggi”, attribuiva responsabilità ad animali e cose[44]; prima dell’Illuminismo venivano celebrati processi penali a carico di animali delinquenti[45]; in Italia nel 2001 è stata configurata una responsabilità da reato in capo agli Enti (d.lgs. 231 del 2001), per effetto d’una fictio giuridica (persone giuridiche)[46].

intelligenza artificiale scenari giuridici

Anche per le AI questa frontiera di essere considerati “persone” è stata superata (Arabia Saudita, caso androide Sophia; Municipalità di Tokyo riconoscimento residenza a una chabot, Shibuya Mirai.)

Tra gli scienziati di AI, anche J. Kaplan, in intelligenza artificiale, cit., p.153, afferma: “un sistema di AI può commettere reati? La risposta è sì.”

Uno dei requisiti fondamentali della responsabilità penale è la colpevolezza. Essa esprime il coinvolgimento soggettivo dell’autore e comporta la possibilità di muovergli un rimprovero qualora siano ravvisabili imputabilità, dolo, colpa, conoscenza della norma violata, libero coinvolgimento motivazionale[47].

Secondo quanto detto sopra possiamo riferire a un sistema di AI di ultima generazione il criterio di “colpa” (mancata osservanza di una regola precauzionale di comportamento) e “dolo” (consapevole realizzazione del fatto).[48]

Anche nei Considerando della Risoluzione del Parlamento Europeo sulla robotica al punto Z recita: “oggi i robot sono in grado di svolgere attività che tradizionalmente erano tipicamente ed esclusivamente umane, mediante lo sviluppo di caratteristiche di autonomia e cognitive, che li ha resi agenti che interagiscono con l’ambiente, in tale contesto, la questione della responsabilità giuridica derivante dall’azione nociva di un robot diventa essenziale”.

È dunque chiaro che la questione di una responsabilità, anche penale, derivante dall’azione nociva di un robot, da meramente teorica, sia diventata cogente e dovrà essere oggetto di attenta riflessione dottrinale per elaborare un quadro concettuale che possa supportare in modo adeguato il futuro legislatore.

Quale è la funzione della pena? Fino a oggi nel Diritto positivo è tripartita:

  • far pagare il male recato con il reato (funzione retributiva),
  • l’ammontare della pena deve avere una funzione dissuasiva (funzione general-preventiva), l’esecuzione della pena pone il condannato nelle condizioni di non commettere in futuro il reato (funzione special-preventiva).

Di queste tre funzioni, la prima e la terza sembrano realizzabili anche nei sistemi di AI attraverso lo spegnimento definitivo o temporaneo della macchina e mediante un nuovo training rieducativo.

Più difficile l’esplicazione della funzione dissuasiva, salvo ipotizzare la formulazione del precetto penale in termini digitali che possa essere recepito ed elaborato dalla “comunità” dei sistemi di AI o tramite l’Internet delle cose.[49]

Se la vittima del reato è la macchina

Se è vero che l’AI ha valenza di “persona”, come tale, malgrado Kaplan affermi che i sistemi di AI “non hanno, né avranno mai, veri sentimenti” [50], possono essere vittime di reato.

intelligenza artificiale scenari giuridici

È il caso di robot riproducenti bambole o animali (doll therapy o pet therapy) rivolti a soggetti autistici, malati di Alzheimer, disabili mentali, la cui distruzione, maltrattamento o danneggiamento potrebbero configurare maltrattamenti contro familiari e conviventi (art. 572 c.p.), maltrattamento di animali (art. 544 c.p.), fino al fenomeno di “stupro robotico”. Anche tali questioni necessitano di riflessione e successivo intervento del legislatore.

Infatti, tutti gli scenari fin qui descritti sono accomunati dall’attuale assenza di una regolamentazione

normativa, che sappia prevenire o reprimere offese penalmente rilevanti. Di fronte al vuoto di tutela penale connesso

ai nuovi sistemi di AI, a parte i possibili rimedi civilistici o amministrativi, le strade sono due: o si vieta radicalmente la realizzazione di tali sistemi, in base al principio di precauzione, oppure si individua un’area di rischio consentito attraverso complessi bilanciamenti tra utilità collettiva e i rischi imponderabili dei vari sistemi.[51]

Conclusioni

Alcuni tra i pessimisti, in un rigurgito luddista, vorrebbero porre un limite invalicabile allo sviluppo tecnologico, per evitare i rischi di media gravità legati alla AI di oggi e quelli più drammatici dovuti a super-intelligenze incontrollabili di domani.

Queste constatazioni devono però portarci non a un’accettazione passiva e acritica di tutto ciò che la tecnologia ci propone, soprattutto quando ci viene spacciata dai suoi interessati produttori come una miracolosa panacea. È meglio sempre riflettere sempre sul cui prodest. Ricordandosi, nel contempo, che Internet fu proposta come strumento di democrazia diretta e di libera informazione.

Mentre, nel tempo, essa è stata monopolizzata da pochi e super-ricchi attori, che ci forniscono servizi in cambio dei nostri dati personali, e da minoranze loquaci che diffondono odio e disinformazione. Quindi, in tutti gli ambiti, stiamo sempre attenti a come le tecnologie vengono usate, da chi e perché.[52]

  1. F. Basile, “Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine”, DPU, Milano PDF.
  2. S. Russel, P. Norvig, “Artificial Intelligence: A Modern Approach”, cit., pp. 634 ss.
  3. COM (2018) 237 final, del 25 aprile 2018. cit. C.F. Di Alessia, “AI e Diritto Penale: 4 possibili sviluppi.”, Liberticida 2 febbraio 2020.
  4. “Future laws should be made in accordance with several guiding principles, including: a human-centric and human-made AI; safety, transparency and accountability; safeguards against bias and discrimination; right to redress; social and environmental responsibility; and respect for privacy and data protection.” https://www.europarl.europa.eu/news/en/press-room/20201016IPR89544/parliament-leads-the-way-on-first-set-of-eu-rules-for-artificial-intelligence.
  5. A. Cappellini, “Machina delinquere non potest? Brevi appunti su Intelligenza Artificiale e Responsabilità penale”, Criminalia in disCrimen dal 27.3.2019.
  6. D. Falcinelli, “Il dolo in cerca di una direzione penale. Il contributo della scienza robotica ad una teoria delle decisioni umane”. www.archiviopenale.it PDF 18 maggio 2012.
  7. Responsabilità penale. Enciclopedia Treccani on line www.treccani.it
  8. C. Trevisi “La regolamentazione in materia di AI, robot, automazione: a che punto siamo” MediaLaws 25 giugno 2018
  9. La parola “robot” ha origine dal dramma di K. Capek del 1921, intitolato, RUR (Rossum’s Universal Robots) dal termine ceco “robota” che significa “lavoro forzato” (cfr. nota n. 23 M.C. Carrozza, I Robot e noi, Bologna, 2017).
  10. J. Kaplan, Intelligenza artificiale Guida al futuro prossimo, Roma, 2017, 31.
  11. M.C. Carrozza, op. cit.
  12. C. Trevisi op. cit.
  13. S. Hénin, “AI Intelligenza Artificiale tra incubo e sogno” cap.2 Costruire un’intelligenza, pp 21 e ss. Microscopi, Hoepli Milano 2019.
  14. C.Trevisi op. cit.
  15. L.B. Solum, “Legal personhood for AI”, Illinois Public Law and Legal TheoryResearch Papers, Series n° 9-13 march 20, 2008.
  16. L. Floridi, “La quarta rivoluzione. Come l’infosfera sta trasformando il mondo”. Milano, 2017.
  17. A. Giaume, “Intelligenza Artificiale Dalla sperimentazione al vantaggio competitivo” Business 4.0 Franco Angeli 2018, p.128 ss.
  18. H. Gardner, “Frames of mind” 1983, cit. A. Giaume, op. cit. pp.129.
  19. J. Dressel, H. Farid. “The accurancy, fairness and limits of predicting recidivism” in Science Advances, fasc. 4, 2018, pp. 1 ss: gli AA riportano stime dalle quali risulterebbe che COMPAS, da quando è stato sviluppato nel 1998, è stato utilizzato in più di un milione di casi.
  20. A. Giaume, già cit. pp. 136.
  21. A. G. Ferguson, “The rise of big data policing: surveillance, race and the future of law enforcement.” New York University Press, 2017, pp. 3 ss.
  22. N. Sharkey, La robotica p. 196, cit. da F. Basile, op.cit.
  23. R. Pelliccia, Polizia predittiva: il futuro della prevenzione criminale? In cyberlaws.it, 9 maggio 2019.
  24. F. Basile op. già cit. pp. 11 ss.
  25. A. Bonfanti, “Big data e polizia predittiva: riflessioni in tema di protezione del diritto alla privacy e dei dati personali.” In MediaLaws 24 ottobre 2018.
  26. F. Basile, op. cit. “considerazioni conclusive sui sistemi di polizia predittiva” pp. 13.
  27. D.U. Galetta, J.G. Corvalan, “Intelligenza artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto”. In federalism.it Rivista di Diritto Pubblico italiano, comparato europeo. 6 febbraio 2019, pp. 1 ss.
  28. A. Cappellini, op. già cit. rinvia a C. Lavalle, “In Estonia il giudice sarà un’intelligenza artificiale”. 4 aprile 2019, in “La Stampa”.
  29. A. Traversi, “Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?”, in Questione Giustizia online, 10 aprile 2019, p. 3.
  30. S. Gaboriau, “Libertà e umanità del giudice: due valori fondamentali della giustizia. La giustizia digitale può garantire nel tempo la fedeltà a questi valori?” in Questione Giustizia, fasc. 4, 2018. p. 11.
  31. N. Sharkey, La Robotica, pg. 197, cit. F. Basile op. cit.
  32. L. Butti, “Le auto guideranno da sole ma con quale responsabilità?” in Il Bo: Live, 9 novembre 2018.
  33. G.F. Italiano, “Intelligenza artificiale che errore lasciarla agli informatici”. In Agendadigitale.eu 11 giugno 2019.
  34. S. Riondato, “Robot: talune implicazioni di diritto penale”, in P. Moro, C. Sarra (a cura di), “Tecnodiritto, Temi e problemi di informatica e robotica giuridica”, Milano, 85 ss.
  35. T.C. King et al, “Artificial Intelligence crime: an interdisciplinary analysis of foreseeable threats and solutions”, in Science and engineering ethics, 14 febbraio 2019.
  36. Pubblicata su CNN al seguente link https://edition.cnn.com/2020/02/12/opinions/clearview-facial-recognition-app-danger-alaimo/.
  37. R. Borsari, “Intelligenza artificiale e responsabilità penale: prime considerazioni” intervento svolto Convegno JusTech e Industry 4.0 Padova 14 febbraio 2019, in MediaLaws.
  38. F. Consulich, “Il mostro di Mobius. Intelligenza artificiale e imputazione penale nelle nuove forme di abuso del mercato in Banca Borsa Titoli di credito” 2018 pp.195 ss.
  39. Buttazzo, “Quando l’algoritmo sbaglia”, in QN-La Nazione, giovedì 6 luglio 2017, 25.
  40. Robot a scuola di insicurezza, 5 agosto 2016, in http://www.focus.it/ricerca?formPosted=FORM–81069–27407&search=robot&ch=&type=&advanced=true&sm=0&ord=1&pg27407=3.
  41. G. Hallevy, “Liability for crimes involving artificial intelligence system”, Berlino, 2015, 47 ss.
  42. R. Borsari op.cit.
  43. C. Bagnoli, “Teoria della responsabilità” cit., p.72.
  44. A. Cappellini, “Machina”, cit.p.20; C. Bagnoli cit. p.73.
  45. F. Basile op. cit. p. 29.
  46. F. Mantovani, “Diritto penale, parte generale, X ed., CEDAM, 2017, p. 288.
  47. D. Falcinelli, “Il dolo in cerca di una direzione penale. Il contributo della scienza robotica ad una teoria delle decisioni umane”, in Arch. Pen., fasc.1, 2018, p. 9.
  48. J. Kaplan, “Intelligenza artificiale”, cit. p. 126.
  49. idem
  50. R. Borsari op. cit.
  51. S. Hénin op. cit.

Articoli correlati

Articolo 1 di 3