Intelligenza artificiale etica: i problemi (e i pregiudizi) da risolvere
21 settembre 2018
FacebookTwitterLinkedIn

Intelligenza artificiale ed etica: i problemi da affrontare

intelligenza artificiale etica
Gianluigi Torchiani - @GTorchiani

Intelligenza artificiale etica ha una duplice accezione di analisi, l’etica nell’utilizzo dell’AI e l’intelligenza artificiale sviluppata in modo etico. I programmi di AI, nonostante si basino sull’apprendimento automatico, in origine sono sempre compilati  da esseri umani. La possibilità di commettere errori o perpetuare pregiudizi è sempre dietro l’angolo

 

Intelligenza artificiale etica, possono stare insieme queste parole? La corsa dell’intelligenza artificiale sta avendo già oggi importanti impatti sui modelli di business aziendali e sull’organizzazione del lavoro. Una rivoluzione tale da incrociarsi con una parola non certamente di uso comune nell’ICT, l’etica appunto. Tralasciando per un attimo la questione lavoro (la AI ruberà o meno posti di lavoro agli esseri umani?), la domanda che esperti e addetti ai lavori si pongono può essere riassunta così: come possiamo essere sicuri che i programmi di intelligenza artificiale agiscano in modo etico?

 

Intelligenza artificiale etica: il rischio dei pregiudizi

Il problema è che i software alla base delle applicazioni e servizi di AI non nascono da soli, ma sono preparati da qualcuno: più precisamente, i sistemi di apprendimento automatico hanno bisogno di dati “annotati” da esseri umani (supervised learning) o quantomeno selezionati e preparati (unsupervised learning). Il punto è che, essendo preparati da persone in carne e ossa, rischiano di portarsi dietro gli errori o i pregiudizi (bias) introdotti anche involontariamente dai progettisti, replicandoli in ogni futura applicazione. Un caso esplicativo di questo rischio è quanto effettivamente già successo nel sistema giudiziario statunitense, dove sono stati impiegati dei software di AI con l’obiettivo di prevedere quali individui più di altri rischiano di essere “futuri criminali”: l’analisi successiva ha messo in evidenza la presenza di bias/pregiudizi nei confronti di individui di colore. In questi casi, come si può parlare di intelligenza artificiale etica? Qual è il confine tra l’etica umana e l’utilizzo etico dell’intelligenza artificiale?

 

Intelligenza Artificiale Decentralizzata

 

Dataset troppo sbilanciati?

Quando si parla di intelligenza artificiale etica il rischio, più in generale, è la preparazione di dataset sbilanciati, che sovrastimano o sottostimano il peso di alcune variabili nella ricostruzione della relazione causa–effetto necessaria per spiegare certi eventi e, soprattutto, per prevederli. Il punto è che, come mette in luce il libro bianco dell’Agid, in uno scenario positivo, i sistemi di AI possono essere utilizzati per “aumentare”, migliorare il giudizio umano e ridurre i nostri pregiudizi, consci o inconsci che siano. Tuttavia, dati, algoritmi e altre scelte progettuali che possono influenzare i sistemi di AI possono riflettere e amplificare le assunzioni culturali esistenti in un dato momento storico e, di conseguenza, le disuguaglianze. Insomma, l’etica è un tema che dovrà essere sempre più presente nello sviluppo futuro dell’intelligenza artificiale, a partire dalla regola base che prevede che la AI debba essere sempre messa al servizio delle persone e non viceversa. Da questo assunto discendono una serie di principi cardine come quello procedurale (non arbitrarietà delle procedure), formale (uguale trattamento per individui o gruppi uguali) e sostanziale (rimozione effettiva degli ostacoli di natura economico-sociale), così come il soddisfacimento di alcuni bisogni di base universali tra cui il rispetto delle libertà e dei diritti degli individui e della collettività.

Un decalogo per l’intelligenza artificiale etica

Questi principi sono stati ben esplicitati da un decalogo stilato dalla UNI Global Union, una federazione internazionale che unisce i sindacati del settore dei servizi. Tra i punti più significativi del documento c’è la necessità dello sviluppo di un’intelligenza artificiale responsabile, sicura e utile, dove le macchine mantengano lo status legale di strumenti e i responsabili legali tengano sempre il controllo e la responsabilità su queste macchine. Ciò implica che i sistemi di AI debbano essere progettati e gestiti ai sensi di legge in vigore, privacy inclusa. Non solo: i lavoratori devono avere il diritto di accedere, gestire e controllare i dati generati dai sistemi di AI, vista la potenza dei sistemi di analizzare e usare questi dati. I dipendenti, inoltre, devono anche avere il “diritto di spiegazione” quando i sistemi di AI vengono usati nelle attività delle risorse umane come l’assunzione, la promozione o il licenziamento. Come accennato in precedenza, nella progettazione e nella manutenzione dell’intelligenza artificiale, è fondamentale che il sistema tenga conto di pregiudizi umani negativi o dannosi e che ogni errore – di genere, etnia, orientamento sessuale, età, ecc. – sia identificato e non diffuso dal sistema.

 

Cagliaritano trapiantato a Milano, in dieci anni ha scritto di qualsiasi argomento. Papà, un passato in canoa olimpica e un presente nel calcetto. Patito di classic rock. Redattore gruppo Digital 360

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn

Questo sito utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all’uso dei cookie. Leggi la nostra Cookie Policy per esteso

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi