Intelligenza artificiale ed etica: i problemi da affrontare

Intelligenza artificiale etica ha una duplice accezione di analisi, l'etica nell'utilizzo dell'AI e l'intelligenza artificiale sviluppata in modo etico. I programmi di AI, nonostante si basino sull’apprendimento automatico, in origine sono sempre compilati  da esseri umani. La possibilità di commettere errori o perpetuare pregiudizi è sempre dietro l’angolo [...]
intelligenza artificiale matematica
  1. Home
  2. Intelligenza Artificiale
  3. Etica e Lavoro
  4. Intelligenza artificiale ed etica: i problemi da affrontare

Intelligenza artificiale etica ha una duplice accezione di analisi, l’etica nell’utilizzo dell’AI e l’intelligenza artificiale sviluppata in modo etico. I programmi di AI, nonostante si basino sull’apprendimento automatico, in origine sono sempre compilati  da esseri umani. La possibilità di commettere errori o perpetuare pregiudizi è sempre dietro l’angolo

 

Intelligenza artificiale etica, possono stare insieme queste parole? La corsa dell’intelligenza artificiale sta avendo già oggi importanti impatti sui modelli di business aziendali e sull’organizzazione del lavoro. Una rivoluzione tale da incrociarsi con una parola non certamente di uso comune nell’ICT, l’etica appunto. Tralasciando per un attimo la questione lavoro (la AI ruberà o meno posti di lavoro agli esseri umani?), la domanda che esperti e addetti ai lavori si pongono può essere riassunta così: come possiamo essere sicuri che i programmi di intelligenza artificiale agiscano in modo etico?

 

Intelligenza artificiale etica: il rischio dei pregiudizi

Il problema è che i software alla base delle applicazioni e servizi di AI non nascono da soli, ma sono preparati da qualcuno: più precisamente, i sistemi di apprendimento automatico hanno bisogno di dati “annotati” da esseri umani (supervised learning) o quantomeno selezionati e preparati (unsupervised learning). Il punto è che, essendo preparati da persone in carne e ossa, rischiano di portarsi dietro gli errori o i pregiudizi (bias) introdotti anche involontariamente dai progettisti, replicandoli in ogni futura applicazione. Un caso esplicativo di questo rischio è quanto effettivamente già successo nel sistema giudiziario statunitense, dove sono stati impiegati dei software di AI con l’obiettivo di prevedere quali individui più di altri rischiano di essere “futuri criminali”: l’analisi successiva ha messo in evidenza la presenza di bias/pregiudizi nei confronti di individui di colore. In questi casi, come si può parlare di intelligenza artificiale etica? Qual è il confine tra l’etica umana e l’utilizzo etico dell’intelligenza artificiale?

 

WHITEPAPER
La nuova frontiera del Cognitive Search. Ecco come evolve l'AI
Intelligenza Artificiale
Realtà virtuale

Intelligenza Artificiale Decentralizzata

 

Dataset troppo sbilanciati?

Quando si parla di intelligenza artificiale etica il rischio, più in generale, è la preparazione di dataset sbilanciati, che sovrastimano o sottostimano il peso di alcune variabili nella ricostruzione della relazione causa–effetto necessaria per spiegare certi eventi e, soprattutto, per prevederli. Il punto è che, come mette in luce il libro bianco dell’Agid, in uno scenario positivo, i sistemi di AI possono essere utilizzati per “aumentare”, migliorare il giudizio umano e ridurre i nostri pregiudizi, consci o inconsci che siano. Tuttavia, dati, algoritmi e altre scelte progettuali che possono influenzare i sistemi di AI possono riflettere e amplificare le assunzioni culturali esistenti in un dato momento storico e, di conseguenza, le disuguaglianze. Insomma, l’etica è un tema che dovrà essere sempre più presente nello sviluppo futuro dell’intelligenza artificiale, a partire dalla regola base che prevede che la AI debba essere sempre messa al servizio delle persone e non viceversa. Da questo assunto discendono una serie di principi cardine come quello procedurale (non arbitrarietà delle procedure), formale (uguale trattamento per individui o gruppi uguali) e sostanziale (rimozione effettiva degli ostacoli di natura economico-sociale), così come il soddisfacimento di alcuni bisogni di base universali tra cui il rispetto delle libertà e dei diritti degli individui e della collettività.

Un decalogo per l’intelligenza artificiale etica

Questi principi sono stati ben esplicitati da un decalogo stilato dalla UNI Global Union, una federazione internazionale che unisce i sindacati del settore dei servizi. Tra i punti più significativi del documento c’è la necessità dello sviluppo di un’intelligenza artificiale responsabile, sicura e utile, dove le macchine mantengano lo status legale di strumenti e i responsabili legali tengano sempre il controllo e la responsabilità su queste macchine. Ciò implica che i sistemi di AI debbano essere progettati e gestiti ai sensi di legge in vigore, privacy inclusa. Non solo: i lavoratori devono avere il diritto di accedere, gestire e controllare i dati generati dai sistemi di AI, vista la potenza dei sistemi di analizzare e usare questi dati. I dipendenti, inoltre, devono anche avere il “diritto di spiegazione” quando i sistemi di AI vengono usati nelle attività delle risorse umane come l’assunzione, la promozione o il licenziamento. Come accennato in precedenza, nella progettazione e nella manutenzione dell’intelligenza artificiale, è fondamentale che il sistema tenga conto di pregiudizi umani negativi o dannosi e che ogni errore – di genere, etnia, orientamento sessuale, età, ecc. – sia identificato e non diffuso dal sistema.

 

FacebookTwitterLinkedIn