Analisi

Diritto dell’AI: il ruolo dell’etica

L’AI Act in discussione a Bruxelles stabilirà per la prima volta un quadro giuridico uniforme, con l'obiettivo di garantire che i sistemi commercializzati all'interno dell'UE rispettino i valori democratici dell'Unione e la legislazione vigente. È necessario però interrogarsi sui fondamenti etici dell’AI [...]
Roberto Carrozzo

Head of Intelligence & Data Minsait

AI bias
  1. Home
  2. Intelligenza Artificiale
  3. Diritto dell’AI: il ruolo dell’etica

La nuova legge sull’intelligenza artificiale in discussione a Bruxelles è un innegabile passo avanti verso un maggiore controllo democratico di questo settore, decisivo per il nostro presente e il nostro futuro. La normativa sarà messa a punto nei prossimi mesi e regolamenterà solo i sistemi di AI commercializzati nell’UE e considerati rischiosi (il che rappresenta solo uno su dieci sistemi presenti sul mercato). Tuttavia, l’AI Act stabilirà per la prima volta un quadro giuridico uniforme, con l’obiettivo di garantire che i sistemi commercializzati all’interno dell’UE rispettino i valori democratici dell’Unione e la legislazione vigente.

Il dibattito sui fondamenti etici dell’AI

Un importante passo in avanti, quindi, molto necessario, ma non sufficiente. Sarebbe un errore affidare tutto il controllo democratico di questa materia alla regolamentazione, rinunciando al necessario dibattito critico sulla conformità etica degli attuali sistemi di AI. L’interrogazione etica è importante per la regolamentazione in due sensi: da un lato, quella che Luciano Floridi chiama etica hard aiuta a configurare la legge, a tradurre i principi etici condivisi nel quadro normativo; dall’altro, l’etica soft guida l’attuazione, l’applicazione e la governance della regolamentazione. Si tratta quindi di una doppia influenza, precedente e successiva alla legge, che la ispira e la integra.

Prima di regolamentare, è quindi necessario interrogarsi sul contesto, l’uso, lo scopo, la progettazione e i dati che compongono i sistemi di intelligenza artificiale. È un dibattito e un’analisi critica costante che dobbiamo affrontare come società, coinvolgendo le grandi aziende Over the Top che stanno guidando lo sviluppo dell’AI, ma anche aziende tecnologiche, start-up, istituzioni pubbliche e società civile.

Senza questo dibattito preliminare sui fondamenti etici della nostra AI, potremmo correre il rischio di regolamentare (legittimando de facto) sistemi che non hanno basi scientifiche e/o sono contrari al bene comune. Supponiamo che un’azienda metta a punto uno strumento che mira a determinare la probabilità di recidiva in base ai tratti fisici del criminale. Per quanto i dati che alimentano l’algoritmo rispettino la privacy, siano conformi alla legge sulla protezione e non siano discriminatori, il problema non è lì: il problema è che il sistema si basa sulla premessa, scartata più di un secolo fa, che esista una correlazione tra tratti fisici e propensione alla criminalità. Regolamentare i dati che alimentano questo algoritmo equivale a legittimare un sistema basato su un presupposto che non ha alcuna base scientifica ed è contrario al bene comune. Questo esempio piuttosto estremo può sembrare strano. Eppure, accettiamo senza battere ciglio altri sistemi che cercano di scoprire i sentimenti dalle espressioni e che hanno la stessa base (a)scientifica della frenologia.

intelligenza

Etica e regolamentazione

WHITEPAPER
Sanità: quali le applicazioni di AI in radiologia, oncologia e cardiologia?
Intelligenza Artificiale
Sanità

Il problema riguarda l’eticità dell’utilizzo dei dati e concerne la finalità e le fondamenta dei sistemi, la loro logica, gli usi e il contesto di applicazione. Questi aspetti dovrebbero preoccuparci ancor prima di regolamentare un sistema di AI o di valutare se tale sistema applica i principi di responsabilità, “esplicabilità”, equità e rispetto della privacy nell’uso dei dati.

È un sistema orientato al bene comune, cioè creato con la finalità di contribuire al bene comune? è un sistema il cui uso è favorevole al bene comune? è un sistema progettato per il bene comune, rispettando i principi di delimitazione della responsabilità, “esplicabilità”, equità e privacy? è un sistema utilizzato nel giusto contesto? Queste sono solo alcune delle domande rilevanti che ci dovremmo porre prima della valutazione e della regolamentazione dei sistemi di AI.

Il dibattito etico è inevitabile e non può essere sostituito da una regolamentazione. I primi sforzi per regolamentare la materia sono benvenuti. Ma devono essere il risultato di una riflessione preliminare sulla conformità etica dei sistemi di intelligenza artificiale. Interrogarsi sull’idoneità etica dell’AI significa interrogarsi sul modello di società che vogliamo costruire e sul ruolo che la tecnologia dovrebbe svolgere nella sua progettazione.

 

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn