Intelligenza artificiale etica: una sfida giuridica, normativa, politica (ed etica)
18 novembre 2018
FacebookTwitterLinkedIn

Intelligenza artificiale etica: una sfida giuridica, normativa, politica (ed etica)

Il tema dell’intelligenza artificiale etica impone la necessità di disciplinare specifiche problematiche connesse all’utilizzo dell’IA che non sono facilmente risolvibili alla luce delle categorie e dei principi giuridici esistenti e che impongono adesso l’adozione di una specifica normativa in materia

intelligenza artificiale etica
di Anna Italiano*

L’intelligenza artificiale (IA) – per la trasversalità della sua possibile applicazione e la sua potenziale attitudine ad incrementare e migliorare la produttività, riducendo i costi – appare oggi come una delle tecnologie più promettenti dei nostri tempi; uno dei fattori abilitanti di quella che, non a caso, viene considerata come una nuova rivoluzione industriale, l’Industria 4.0.

La disponibilità di tecnologie con capacità di calcolo e computazionali sempre più elevate e potenti (il cloud, in primis), unitamente alla diffusione di dispositivi e macchine connesse alla rete e tra di loro (IoT) in grado di censire, raccogliere ed elaborare quantità di dati in misura neanche lontanamente paragonabile al passato sono le ragioni oggi alla base di una crescita dell’IA che non sembra fermarsi e dalla quale si attendono numerosi benefici.

L’utilizzo di sistemi intelligenti nei settori dell’healthcare, della circolazione e dei trasporti, della logistica, dell’istruzione scolastica, del pubblico impiego, dell’amministrazione della giustizia e dell’assistenza alle persone; la progressiva automazione dei processi produttivi, con un presumibile ed auspicabile miglioramento, per gli individui, della qualità e, probabilmente, anche della quantità di lavoro necessario a produrre un determinato risultato; una maggiore efficienza nella somministrazione di servizi al cittadino e nel processo di valutazione dell’interesse pubblico; la maggiore velocità nell’identificazione e nel contrasto alle minacce, grazie all’applicazione dell’intelligenza artificiale al settore sempre più importante della cyber-sicurezza; la possibilità di profilare in maniera sempre più precisa le preferenze e le abitudini degli individui, con un conseguente affinamento delle strategie di produzione e vendita, nonché di assistenza al cliente; una netta riduzione dei costi sociali in conseguenza dei progressi della medicina – curativa e predittiva – nonché dell’incremento della sicurezza (si pensi, tra gli altri, ai benefici che, in termini di riduzioni dei sinistri da circolazione stradale potrebbe derivare da una capillare diffusione e dall’inesorabile progresso tecnologico delle auto a guida autonoma o alla riduzione degli incidenti sul lavoro che potrebbe ottenersi adibendo le macchine intelligenti alle mansioni più pericolose): sono solo alcuni degli innumerevoli benefici attesi dallo sviluppo dell’Intelligenza Artificiale.

 

VERSO UNA INTELLIGENZA ARTIFICIALE ETICA: I RISCHI DA PREVEDERE E PRESIDIARE

A far da contraltare agli scenari più ottimistici, è innegabile che il ricorso a forme di robotica e sistemi intelligenti porti con sé una serie di rischi che è essenziale prevedere e presidiare. Per elencarne i maggiori: una possibile compressione o illegittima aggressione della sfera di riservatezza degli individui; le ricadute giuslavoristiche e sociali della progressiva automazione dei processi produttivi, anche in termini di perdita di posti di lavoro; le aumentate minacce alla sicurezza informatica, in virtù di un esponenziale aumento della superficie di attacco, unitamente alla capacità delle tecnologie di pervadere la vita quotidiana; il rischio che i sistemi intelligenti possano basarsi su parametri potenzialmente discriminatori per fornire soluzione ai quesiti ad essi sottoposti; la possibilità che la disponibilità di Big Data in capo a poche imprese possa favorire la creazione di nuovi monopoli o essere fonte di distorsioni della concorrenza sul mercato.

A ciò si aggiunge la necessità di disciplinare specifiche problematiche connesse all’utilizzo dell’IA – quali ad esempio, l’allocazione della responsabilità per le condotte non prevedibili o controllabili tenute dalla macchine intelligenti o l’applicabilità della normativa in materia di proprietà intellettuale al mondo dell’IA – che non sono facilmente risolvibili alla luce delle categorie e dei principi giuridici esistenti e che impongono adesso l’adozione di una specifica normativa in materia.

A tale proposito, come è noto, lo scorso febbraio 2017, il Parlamento Europeo ha approvato una Proposta di Risoluzione recante “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”: in pratica, ha invitato la Commissione a formulare e sottoporre a iter legislativo una proposta di direttiva che individui le regole civilistiche da applicarsi, in maniera uniforme in tutti gli Stati Membri, all’impiego della robotica.

La necessità di una nuova regolamentazione, in realtà, non è sostenuta in maniera unanime.

C’è chi ritiene che non occorra una nuova normativa: basterebbe procedere ad un’interpretazione evolutiva delle norme già esistenti. C’è chi, invece, ritiene che un intervento del legislatore sia non solo opportuno, ma addirittura estremamente necessario, sia per fondare nuove categorie giuridiche e nuove regole in relazione ad una materia nuova che presenta casistiche cui i principi civilistici tradizionali si applicano con difficoltà, sia perché alcuni Stati Extra Europei – tra i quali, in particolare, gli Stati Uniti, il Giappone, la Cina e la Corea del Sud – si stanno già dotando di norme, più o meno settoriali, concernenti vari aspetti della materia (per esempio, l’ambito delle automobili self-driving e dei droni), con il rischio che un eccessivo ritardo del legislatore europeo e, a valle, dei legislatori nazionali, porterebbe l’Europa a dover accettare e subire soluzioni normative etero-determinate (e magari non del tutto rispondenti alle caratteristiche e alle esigenze  dei sistemi economici e giuridici degli Stati Membri o agli obiettivi primari dell’UE – libera circolazione, tutela della concorrenza e del mercato e principio di non discriminazione, in primis).

Gli impatti che l’IA avrà sul mondo del lavoro, su quello produttivo e sulla società civile dipenderanno, in grandissima parte, dagli orientamenti e dalle scelte, non solo normative, ma anche politiche, che si intraprenderanno nei prossimi anni.

Oltre all’elaborazione di una normativa specifica, che abbia come obiettivo la mitigazione e la gestione del rischio legato al ricorso ai sistemi intelligenti, senza ostacolarne lo sviluppo e la diffusione, sarà indispensabile promuovere un’attività di istruzione e formazione, anche a livello universitario, in materia di IA, con l’obiettivo di dar vita a nuove professionalità dirette a far fronte alle esigenze occupazionali dei mercati emergenti e, al contempo, a favorire una riallocazione delle professionalità già esistenti e che verranno in parte sostituite da robot e sistemi intelligenti.

 

SERVE UN DIBATTITO PER LA SICUREZZA E L’INTELLIGENZA ARTIFICIALE ETICA

Si renderà, inoltre, necessario favorire e promuovere il dibattito sulla sicurezza dei sistemi di IA e sull’intelligenza artificiale etica (e l’etica nell’utilizzo dell’IA), in modo da indurre gli operatori di settore ad approntare, già in sede di ideazione e progettazione dei sistemi intelligenti, non solo cautele di tipo tecnologico (“security by design” e “by default”), ma anche accorgimenti e cautele di tipo etico (in virtù di un nuovo principio che potremmo denominare “ethics by default”) che prevedano la valutazione preventiva della proporzionalità dell’impiego dell’IA rispetto agli obiettivi perseguiti.

Infine, alla luce del fatto che l’anello più debole dei sistemi informatici è sempre l’utente, nell’ottica di innalzare la sicurezza generale, a livello di scelte politiche occorrerebbe considerare l’avviamento di un’opera di sensibilizzazione e di educazione dei cittadini/utenti delle tecnologie intelligenti, volta a colmare la situazione di “asimmetria informativa” che, al giorno d’oggi, si riscontra in relazione all’ambito del digitale in generale, al fine di rendere più consapevoli e critiche le condotte e le scelte di coloro che si troveranno a fruire dei servizi e dei processi condotti mediante sistemi di AI.

 

Anna Italiano

 

 

 

*Anna Italiano è Senior Legal Consultant di Partners4Innovation

 

 

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn

Questo sito utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all’uso dei cookie. Leggi la nostra Cookie Policy per esteso

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi