etica ai

Machine ethics, l’AI nel bene e nel male



Indirizzo copiato

Le decisioni prese dall’intelligenza artificiale devono tener conto dei valori sociali, delle considerazioni morali ed etiche. Occorre che la macchina, per quanto dotata di intelligenza artificiale, sia sempre supervisionata dall’uomo

Pubblicato il 2 feb 2021



AI cervello

Negli ultimi tempi gli sviluppi dell’intelligenza artificiale stanno cominciando a porre con forza il problema della cosiddetta machine ethics. Vediamo di cosa si tratta.

L’etica delle macchine secondo Isaac Asimov

Isaac Asimov, uno degli scrittori di fantascienza più famosi del XX secolo aveva intuito questo problema e aveva cercato di codificarlo attraverso le tre leggi della robotica:

  • prima legge – un robot non può fare del male a un essere umano o permettere che venga fatto del male a un essere umano;
  • seconda legge – un robot deve obbedire agli ordini datigli dagli esseri umani tranne nei casi in cui tali ordini siano in conflitto con la prima legge;
  • terza legge- un robot deve proteggere la propria esistenza finché tale protezione non è in conflitto con la prima o la seconda legge.

Sono principi di buon senso, probabilmente semplicistici, ma molto difficili da tradurre in azioni concrete. La realtà attuale dell’intelligenza artificiale è molto diversa da questo scenario ottimistico. Dalla metà del XX secolo in poi l’uomo ha acquisito la capacità di autodistruzione. Fino ad allora aveva sempre la possibilità di creare grandi danni e tragedie, ma mai di attentare alla sopravvivenza dell’umanità. Le armi nucleari, le manipolazioni genetiche e il progressivo degrado dell’ambiente costituiscono delle minacce alla sopravvivenza dell’umanità, minaccia che può assumere il volto di una guerra termonucleare, di un virus mutato letale rispetto al quale non abbiamo difesa, di un disastro ambientale che coinvolge l’intero pianeta.

machine ethics
Sofia Robot – Esempio di robot androide

Le capacità dell’intelligenza artificiale

L’intelligenza artificiale consiste essenzialmente nella capacità delle macchine di assumere decisioni autonome, come sintesi di una gran mole di informazione che viene elaborata in maniera continua. L’uomo sta affidando all’intelligenza artificiale scelte sempre più rilevanti e difficili. Un’intelligenza artificiale che viene addestrata per ridurre il consumo di carburante di un aereo correggendo il suo assetto di volo può anche portare allo stallo dell’aereo se si verificano determinate condizioni per raggiungere il suo obiettivo.

I sistemi di arma intelligenti costituiscono una frontiera etica molto sensibile. Se un’arma può decidere autonomamente se colpire un ospedale, un ponte o un’installazione militare cosa ci fa pensare che non possa decidere autonomamente di colpire un ospedale? O un veicolo a guida autonoma come si comporterebbe di fronte alla scelta se rischiare di autodistruggersi con una manovra pericolosa o investire un bambino che sta attraversando la strada? Lo strumento raggiungerà nel modo più efficiente possibile il risultato che l’uomo gli ha impostato.

Il concetto di machine ethics nell’intelligenza artificiale responsabile

L’introduzione del concetto di machine ethics parte dall’assunto che le decisioni prese dall’intelligenza artificiale devono tener conto dei valori sociali, delle considerazioni morali ed etiche. Il concetto machine ethics è poi strettamente connesso con il concetto di intelligenza artificiale responsabile, nel senso che le decisioni prese dall’intelligenza artificiale devono essere in linea con il sistema valoriale della società per garantire un benessere equo e sostenibile.

machine ethics

Virginia Dignum, docente al Dipartimento di Computing Science all’università di Umea, in Svezia, dove guida il gruppo di ricerca Social and Ethical Artificial Intelligence, individua tre livelli di interazione fra etica e intelligenza artificiale:

  • Etica by design che consiste nell’ l’integrazione tecnico/algoritmica delle capacità di ragionamento etico nell’ambito del comportamento dell’intelligenza artificiale e si realizza attraverso un approccio che includa strumenti formali per descrivere una situazione e principi etici in grado di far formulare autonomamente un giudizio e giustificare perché una determinata decisione è eticamente, o meno, accettabile;
  • Etica in design che individua i metodi normativi e ingegneristici che supportano l’analisi e la valutazione delle implicazioni etiche dei sistemi di IA in quanto questi integrano o sostituiscono le strutture sociali tradizionali, Il che significa che gli algoritmi che governano le nostre vite devono essere trasparenti, equi e responsabili rispetto ai valori condivisi dagli stakeholder.
  • Etica per design che consiste nella progettazione di codici di condotta, nella definizione di standard e di processi di certificazione che garantiscano l’integrità di sviluppatori e utenti mentre ricercano, progettano, costruiscono, impiegano e gestiscono sistemi intelligenti artificiali. Ovviamente in questo caso ai progettisti deve essere dato un insieme chiaro e coerente di principi etici in modo tale che il sistema possa prendere decisioni seguendo questi principi e avvisare gli utenti quando si discosta da tale sistema valoriale.

Come si può evincere si tratta di modelli complessi il cui effettivo funzionamento va testato di volta in volta.

In generale, quando l’attività decisoria dell’intelligenza artificiale può presentare profili di rischio è sempre opportuno agire nel rispetto del principio di precauzione. In questi casi, quindi, occorre dunque che la macchina, per quanto dotata di intelligenza artificiale, sia sempre supervisionata dall’uomo.

La supervisione umana sulle decisioni dell’intelligenza artificiale

Il principio della supervisione umana sulle decisioni dell’intelligenza artificiale va e andrà sempre più salvaguardato, perché solo la sinergia fra intelligenza artificiale e supervisione umana può assicurare un livello di funzionalità quasi normale anche nei casi più gravi.

Questa procedura chiamata “intelligenza artificiale estesa” permette di associare dei driver etici umani alle capacità di apprendimento delle intelligenze artificiali, evitando sia i bias discriminatori, sia evitando anche che la decisione presa nell’ambito ristretto dell’intelligenza artificiale sia ottimale per un singolo problema, ma devastante per il governo complessivo del processo. Questi driver etici devono essere veicolati anche alle intelligenze artificiali, ipotizzando un’interazione uomo-intelligenza artificiale in cui sia sempre l’uomo a dettare le regole del gioco e la macchina sia un utile strumento per la risoluzione di problemi.

È necessario in sostanza assicurare che l’essere umano sia sempre in grado di intervenire per garantire che il comportamento dei sistemi di intelligenza artificiale sia sempre vantaggioso per l’umanità. Si tratta, quindi, di inserire una sorta di “pulsante di emergenza” che consenta l’interruzione dell’azione e lo spegnimento della macchina, impedendo al sistema di apprendere come bypassare questa azione nel caso in cui l’osservatore dovesse riscontrare violazioni dei principi etici predefiniti.

Conclusioni

L’intelligenza artificiale per essere etica deve riprodurre uno schema valoriale di riferimento, basandosi su quelli condivisi dalle strutture sociali e istituzionali umane. È chiaro che quando si parla di strutture sociali e istituzionali condivise si può generare una certa ambiguità perché i diversi sistemi sociali oggi sviluppano regole di comportamento sociale che possono essere molto differenti. In generale potremmo quindi definire l’agire etico dell’intelligenza artificiale come la capacità di prendere decisioni che siano sempre capaci di salvaguardare la dignità della persona, operare secondo i principi della sussidiarietà e agire in maniera solidale.

Luciano Floridi - L'etica dell'IA e le sue conseguenze - Conferenza Statuto Etico e Giuridico IA

Video: L’etica dell’AI – prof. Luciano Floridi

Articoli correlati

Articolo 1 di 3