Il 28 gennaio 2022 il Ministero dell’Economia, del Commercio e dell’Industria del Giappone ha pubblicato le “Linee guida sulla governance per la pratica dei principi dell’IA” come ulteriore tappa di implementazione della propria strategia innovativa, all’esito di un periodico esame di monitoraggio promosso con il coinvolgimento di esperti che operano in svariati settori legati all’innovazione, con il compito di elaborare la revisione della regolamentazione volta a disciplinare l’evoluzione tecnologica dell’AI.
Il Giappone, secondo paese al mondo a lanciare un piano nazionale di AI
Dopo la strategia innovativa presentata nel 2017 dal governo del Canada – che è stato il primo Paese nel mondo ad adottare una strategia nazionale per l’intelligenza artificiale, prevedendo un corposo investimento pubblico, ulteriormente integrato da fondi provenienti dal settore privato sulla base delle raccomandazioni espresse dal “CIFAR” (Canadian Institute for Advanced Research) in collaborazione con i centri di innovazione esistenti nel Paese e le start-up specializzate nello sviluppo di servizi tecnologici – il Giappone è cronologicamente il secondo Paese a livello globale che ha lanciato il suo piano nazionale in materia di Intelligenza Artificiale nel 2018, oggetto di costante aggiornamento mediante la pubblicazione di revisioni periodiche.
A tal fine, un ruolo particolarmente rilevante è svolto dal Consiglio Strategico per la tecnologia dell’intelligenza artificiale, preposto a stimolare la trasformazione innovativa del settore industriale, anche mediante il ricorso sistemico a forme di partenariato pubblico-privato secondo una precisa roadmap di implementazione che, in attuazione delle azioni prioritarie fissate dal documento “Japan’s Society 5.0”, si prefigge di diffondere l’uso dell’AI nel settore pubblico e privato per la creazione di un ecosistema digitale avanzato.
Il rapporto AI Social Implementation Architecture Study Group
Nell’ambito della citata Strategia nazionale, proprio al fine di rafforzare la competitività industriale del Giappone e migliorare la sostenibilità sociale dell’IA, è stato definito il rapporto AI Social Implementation Architecture Study Group dedicato all’esame dello stato attuale della governance dell’AI in Giappone, che offre una panoramica generale sullo stato attuale delle fonti vigenti in materia, tenuto conto dei regolamenti, linee guida e standard tecnici elaborati nel corso del tempo come complessiva cornice di riferimento.
Per favorire lo sviluppo equo e sostenibile dell’intelligenza artificiale, anche sulla base dei contributi pervenuti dal basso e utilizzati per integrare la periodica elaborazione di rapporti intermedi, sono state approvate le “Governance Guidelines for Implementation of AI Principles” al fine di definire un catalogo generale di principi applicabili al settore dell’AI, con il supporto di un gruppo di studio, composto da esperti in materia societaria, accademica, giuridica e di revisione, nonché da esperti in standard e protezione dei consumatori, nella prospettiva di fornire linee guida pratiche agli operatori.
I principi sociali dell’AI in Giappone
Ispirandosi alle Raccomandazioni dell’OCSE sull’intelligenza artificiale, il documento formalizza una serie di principi sociali per l’AI in Giappone da implementare nello sviluppo di tale tecnologia emergente.
In particolare, le linee guida mirano a:
- favorire l’approccio umano-centrico,
- incrementare l’istruzione/alfabetizzazione,
- proteggere la privacy,
- garantire la sicurezza
- assicurare la concorrenza leale,
- promuovere l’equità, la responsabilità e la trasparenza
- diffondere l’innovazione.
Sulla falsariga di quanto avviene nel panorama normativo dei principali Paesi relativamente all’approccio regolatorio predisposto in materia di AI, anche nel caso giapponese vengono in rilievo linee guida dal valore “leggero”, in quanto prive di efficacia cogente, emblema del cd. “soft law”, come peculiare intervento “tecno-normativo” sempre più utilizzato dagli Stati nel settore dell’AI, con l’obiettivo di supportarne la diffusione e stimolare l’uso consapevole delle relative applicazioni.
In ogni caso, le citate linee guida, pur non sono giuridicamente vincolanti, configurano, in un orizzonte temporale medio-lungo, il perseguimento di una serie di specifici obiettivi progettuali che dovrebbero essere attuati da ogni azienda coinvolta nel business dell’AI.
L’ambito di applicazione delle linee guida include, in senso ampio e generale, tutti i sistemi di intelligenza artificiale che, con diversi livelli di autonomia, si basano su qualsivoglia utilizzo di dispositivi di apprendimento automatico nella capacità di processare dati, sino a comprendere i più avanzati e sofisticati software in grado di sostituire il processo decisionale umano per fare previsioni o raccomandazioni che influenzano ambienti reali o virtuali.
Pur essendo indubbie le potenzialità dei sistemi di intelligenza artificiale, in ragione dell’ormai riconosciuto impatto positivo che ne deriva sull’economia, ottimizzando le risorse umane e organizzative e riducendo gli sprechi esistenti, grazie al proficuo miglioramento della produttività, tuttavia, al contempo, il funzionamento di tale tecnologia emergente è esposto a inediti rischi che determinano rilevanti problemi di sicurezza.
Un’analisi preventiva dei rischi
In tale prospettiva, si rende necessario, come principale priorità di intervento da considerare prima di qualsivoglia sviluppo concreto di progetti innovativi di AI, sollecitare un’analisi preventiva dei rischi per assicurare la concreta valutazione di tutte le implicazioni negative legate all’uso delle applicazioni di intelligenza artificiale.
A tal fine, nell’ottica di assicurare una supervisione uniforme sulle buone pratiche adottate, si sollecita anche la nomina di un responsabile della governance dell’AI, unitamente alla costituzione di un comitato di revisione dell’etica AI che funge da organo di supporto, incaricato di valutare le lacune esistenti nel settore e superare le criticità provocate dal non corretto funzionamento dei sistemi di AI.
Per tale ragione, secondo il documento, le aziende che sviluppano e gestiscono sistemi di intelligenza artificiale dovrebbero monitorare periodicamente la propria attività facendo sempre riferimento alla portata applicativa della propria esperienza realizzata, senza limitarsi a una mera vigilanza passiva, ben oltre la semplice predisposizione teorica e astratta dei rischi.
Inoltre, sempre nell’ottica di favorire l’uso consapevole dei sistemi di intelligenza artificiale, si auspica il miglioramento generale del livello di alfabetizzazione culturale del personale preposto allo svolgimento di attività e mansioni nel settore AI, nell’ambito di un processo di apprendimento continuo delle competenze che tenga il passo dell’evoluzione tecnologica.
Del pari, gli operatori dovrebbero fornire agli utenti adeguate informazioni sul funzionamento dei servizi di AI e sui possibili rischi derivanti dal relativo utilizzo, nel rispetto di efficaci politiche di protezione dei dati personali, in modo da prevenire possibili incidenti e identificare in anticipo le eventuali conseguenze di danni, grazie all’adozione di effettive di misure di soccorso da intraprendere in caso di pregiudizi.
Conclusione
Nella formulazione generale delle linee guida, il documento è integrato dall’indicazione concreta di specifici esempi di situazioni che si possono verificare nella prassi tecnologica, al fine di esplicitare con chiarezza applicativa le definizioni teoriche dei principi elaborati in materia, mediante l’analisi di specifiche circostanze configurabili nel processo di implementazione dei sistemi di intelligenza artificiale.