L’intelligenza artificiale e la responsabilità

La pubblicazione di un articolo scritto interamente da una intelligenza artificiale ci pone di fronte, ancora una volta, a problemi filosofici e giuridici relativi alla natura dei robot intelligenti e alla loro relazione con gli esseri umani [...]
intelligenza artificiale e responsabilità
  1. Home
  2. Intelligenza Artificiale
  3. L’intelligenza artificiale e la responsabilità

Poche settimane fa il Guardian ha pubblicato un articolo scritto interamente dal GPT-3, un’intelligenza artificiale. La traccia che è stata “data in pasto” all’algoritmo era decisamente peculiare: doveva convincere gli umani a non avere paura dei robot intelligenti. Il testo pubblicato è frutto di un lavoro editoriale del Guardian, che ha combinato tra loro otto articoli elaborati dal GPT-3 a partire da quella traccia, tutti contenenti argomentazioni diverse ma piuttosto interessanti (secondo la nota editoriale che accompagna l’articolo). In ogni caso, oltre al modo in cui è stato sviluppato il tema, il testo ha fatto scalpore per la sua somiglianza con un qualsiasi articolo di giornale: sembra scritto da una persona, non da un software. Al di là della tecnologia innovativa che sta alla base di GPT-3, questa vicenda mette in luce uno degli aspetti più affascinanti e dibattuti nel settore della robotica: potranno mai le intelligenze artificiali essere considerate agenti, anche in senso giuridico, e quindi avere la responsabilità delle proprie azioni?

I robot sembrano solo uguali a noi, in realtà sono molto diversi

Il GPT-3 è stato in grado di scrivere un articolo paragonabile a quello uscito dalla penna di un qualsiasi giornalista umano; d’altronde, questa intelligenza artificiale è stata progettata appositamente per l’elaborazione di testi imitando il linguaggio usato normalmente dalle persone. Nel mondo della robotica e dell’intelligenza artificiale c’è da sempre un anelito verso la creazione di sistemi tecnologici il più possibile simili all’intelletto umano, tanto che la definizione stessa di intelligenza artificiale si basa sull’imitazione dell’uomo. Siamo infatti di fronte a intelligenza artificiale quando un computer è in grado di superare il test di Turing: interagendo con una persona posta in una stanza diversa, il computer deve essere in grado di ingannarlo facendogli credere di essere un umano a sua volta. Il test è stato superato per la prima volta nel 2014 da un chatbot che si fingeva un ragazzo ucraino di 13 anni, non senza alcune polemiche da parte della comunità scientifica: è più facile raggirare un esaminatore se ci si finge un ragazzino immaturo che non parla bene l’inglese. Forse il problema è questo: definire l’intelligenza artificiale a partire dall’inganno. Proprio di inganno si tratta nel caso di GPT-3, che con il suo stile accattivante quasi riesce a convincere il lettore di essere di fronte a una tecnologia senziente, utilizzando l’empatia a proprio vantaggio nel momento in cui tutto ciò che fa è cercare di convincerci a non avere paura di lui. La nostra tendenza ad animare gli oggetti, particolarmente forte in Giappone per via dei retaggi dell’animismo shintoista, ci porta a cercare di creare delle tecnologie con cui empatizzare. Per questo motivo sono stati sviluppati i robot companions, dei robot che imitano animali da compagnia, particolarmente efficaci quando si tratta di specie esotiche (è più facile lasciarsi ingannare da un robot-cucciolo-di-foca che da un robot-gattino visto che, presumibilmente, nessuno di noi ha mai tenuto in braccio un cucciolo di foca) e che si sono dimostrati utili per stimolare soggetti affetti da patologie come l’Alzheimer e la demenza senile.

Tuttavia, ci sono alcuni scienziati che si stanno spingendo oltre il semplice regno animale. È il caso del professor Hiroshi Ishiguro, che sta tentando di creare dei robot indistinguibili dagli esseri umani, anche dal punto di vista estetico. In una intervista per il Japan Times nel 2019, Ishiguro ha affermato: “If I can develop the Blade Runners that means I can deeply understand what human is” (“Se potessi creare i Blade Runners questo vorrebbe dire che posso comprendere a fondo cosa sia l’essere umano”, traduzione nostra). La creazione del robot in grado di imitare perfettamente una persona sarebbe quindi un modo per capire noi stessi e la nostra natura profonda, una sorta di specchio per l’animo umano.

In ogni caso, siamo ancora ben lontani dal raggiungere questo obiettivo: i robot creati da Ishiguro sembrano delle bambole parlanti e in essi c’è qualcosa di inquietante. In robotica si parla di effetto “uncanny valley”: lo studioso Masahiro Mori ha analizzato le sensazioni suscitate nelle persone dai robot dimostrando che, se fino a un certo punto le caratteristiche antropomorfiche dei robot possono risultare piacevoli e stimolare un senso di familiarità nelle persone, superato un certo limite di somiglianza queste sensazioni positive vengono sostituite da un senso di repulsione e turbamento. È quello che ci succede quando ci inteneriamo di fronte a robot come NAO e Pepper, con i loro occhietti simpatici e le forme umanoidi stilizzate, ma ci sentiamo in qualche modo a disagio di fronte alla replicante Q2 creata dal team di Ishiguro. Paradossalmente, la nostra tendenza a empatizzare con gli oggetti che ci suscitano sensazioni positive potrebbe portarci più facilmente a ipotizzare uno status giuridico per i robot più semplici che per quelli elaboratissimi ma che ci ispirano reazioni negative e forse, inconsciamente, percepiamo come una minaccia. Magari è proprio quella ricerca di conferme sulla comprensione dell’animo umano di cui parla Ishiguro che ci fa sentire disturbati da un essere che arriva quasi ad ingannarci, ma non del tutto; sono quelle piccole imperfezioni che rompono lo specchio e ci riportano alla realtà, ricordandoci che ci troviamo di fronte a qualcosa di molto diverso da noi.

Può un robot essere considerato un agente in senso giuridico?

L’essere umano è inserito in un contesto di relazioni e il fondamento che sta alla base di tutta la regolamentazione del tessuto sociale è il concetto di responsabilità. Ogni persona, dal momento in cui nasce, compie delle azioni da cui derivano delle conseguenze di cui deve rispondere proprio perché frutto di scelte da lei compiute in modo più o meno consapevole. È vero anche che esistono diversi tipi e gradazioni di responsabilità: basti pensare ai bambini, per i quali nella maggior parte dei casi rispondono i genitori, o agli incapaci di intendere e di volere, che spesso non sono considerati responsabili delle proprie azioni in sede giuridica.

In un mondo ormai impregnato dalle nuove tecnologie e nel quale i robot e le intelligenze artificiali stanno diventando sempre più diffusi, si è posto il problema di comprendere lo status giuridico di questi nuovi esseri creati quasi a nostra immagine e delle loro relazioni con le persone. Proprio per i suddetti motivi ha assunto un ruolo centrale il discorso relativo alla coscienza dei robot: se è possibile immaginare una macchina talmente intelligente da avere delle intenzioni, e quindi potere decisionale e comprensione delle conseguenze delle proprie azioni, allora questa macchina forse potrà essere considerata responsabile in senso giuridico e dunque, ad esempio, sanzionata se arreca dei danni a delle persone.

Mathias Gutmann, Benjamin Rathgeber e Tareq Syed, nel saggio intitolato “Action and Autonomy: a Hidden Dilemma in Artificial Autonomous Systems”, hanno proposto una soluzione interessante alla questione. Gli studiosi distinguono tra comportamento e azione: il comportamento è qualcosa su cui il soggetto non ha pieno controllo, è un istinto naturale come quello che governa gli animali, mentre l’azione è una scelta libera orientata verso un fine determinato dall’agente. Perché vi sia un’azione è quindi necessaria una combinazione tra volontà, intenzione e libertà. Utilizzando un approccio neokantiano (rispolveriamo un po’ di concetti di filosofia) sarà impossibile ipotizzare che una macchina creata dall’uomo possa compiere delle azioni: un robot non potrà mai avere un’intenzione libera perché non sarà mai un “fine in sé”, ma sarà sempre un mezzo per ottenere un fine determinato da altri (gli esseri umani che l’hanno creato). Il discorso regge anche immaginando un robot talmente intelligente da poter imparare ed essere totalmente autonomo, quindi slegato da qualsiasi controllo umano: resta il fatto che gli ingegneri responsabili della sua progettazione l’hanno creato per un fine specifico, che può essere anche solo quello di diventare il robot più sofisticato del mondo, capace di imitare nel migliore dei modi possibili il comportamento umano. Secondo questa teoria, dunque, una macchina non potrà mai essere un agente morale, quindi una intelligenza artificiale non potrebbe avere mai responsabilità: non ci sarà mai autonomia in senso forte, che è quella da cui deriva la responsabilità, ma solo autonomia in senso debole, che si ha nei casi in cui i robot compiano dei comportamenti autonomi, i cui fini saranno sempre e comunque determinati dagli esseri umani e, quindi, non imputabili alla macchina.

Dunque, cosa succede nel caso in cui un robot impazzisce e causa dei danni a delle persone? Chi è responsabile? Una possibile soluzione per questi problemi si trova applicando la disciplina della responsabilità da prodotto difettoso: per quanto i robot e le intelligenze artificiali possano apparire senzienti, il fine ultimo dei loro comportamenti è sempre ricavabile dalla progettazione da parte dei vari ingegneri o informatici che li hanno creati e, in definitiva, saranno loro a dover rispondere delle conseguenze di un eventuale malfunzionamento. Dobbiamo resistere alla tentazione di trattare i robot e le intelligenze artificiali come se fossero pari agli umani: per quanto sofisticati possano essere, si tratta sempre di prodotti tecnologici.

Conclusioni

Il progresso scientifico ci permette oggi di maneggiare con disinvoltura strumenti che fino a dieci anni fa sembravano fantascientifici; allo stesso modo, quello che adesso ci sembra impensabile domani potrebbe essere una realtà scontata e quotidiana. Porci oggi le domande fondamentali in merito alla natura dei robot e delle intelligenze artificiali in grado di imitare quella umana è essenziale per comprendere fino in fondo i rischi e le possibilità di queste nuove tecnologie e gettare le basi per una regolamentazione chiara e precisa, necessaria per consentirne e incentivarne lo sviluppo. Capire, ad esempio, lo status giuridico e le potenzialità dei robot nell’ambito delle cure sanitarie agli anziani, ci può aiutare a favorire la loro diffusione e il loro utilizzo consapevole ed etico.

Siamo in un campo nuovo che tuttavia, come abbiamo accennato in questo contributo, ci pone di fronte a questioni filosofiche ancestrali su noi stessi e sul mondo. Anche nelle questioni più spinose, alla base di ogni soluzione deve esserci sempre il rispetto della dignità umana: solo non perdendo mai di vista questo valore fondamentale possiamo riuscire a riadattare i vari istituti giuridici al mondo che cambia, non perdendoci nell’inganno da noi stessi messo in piedi nel momento in cui progettiamo macchinari intelligenti a immagine e somiglianza dell’essere umano.

 

FacebookTwitterLinkedIn