“Restiamo umani e non deleghiamo il nostro futuro alle macchine. Per questo, di fronte alle sfide e ai pericoli dell’Intelligenza artificiale, serve una visione etica e il primato della buona e sana politica”. È questo l’appello sull’intelligenza artificiale che papa Francesco ha rivolto il 14 giugno, nella sezione outreach del G7, davanti ai grandi del mondo nel vertice di Borgo Egnazia. “L’umanità è senza speranza se dipenderà dalla scelta delle macchine”, ha sottolineato il Pontefice.
Aggiungendo poi, in riferimento ad esempio all’uso dell’AI nella guerra, che “in un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette ‘armi letali autonome’ per bandirne l’uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano”.
Un discorso di principi, ma anche di esempi concreti, quindi, quello tenuto dal Pontefice. Tutto incentrato sull’ambivalenza dell’intelligenza artificiale e sulla necessità di un suo controllo da parte degli uomini e delle donne di oggi e di domani.
AI affascinante e terribile al tempo stesso, c’è bisogno di etica
Quando il Papa ha preso la parola, ha subito annunciato di avere una versione lunga, da consegnare e una corta da leggere. E proprio questa ha letto, in tutto in una mezz’ora scarsa. L’intelligenza artificiale è affascinante e terribile allo stesso tempo. Perciò richiama il rapporto “tra libertà e responsabilità” e questo “vuol dire parlare di etica”.
“Quando i nostri antenati, infatti, affilarono delle pietre di selce per costruire dei coltelli, li usarono sia per tagliare il pellame per i vestiti sia per uccidersi gli uni gli altri. Lo stesso si potrebbe dire – ha affermato il Papa – di altre tecnologie molto più avanzate, quali l’energia prodotta dalla fusione degli atomi come avviene sul Sole, che potrebbe essere utilizzata certamente per produrre energia pulita e rinnovabile ma anche per ridurre il nostro pianeta in un cumulo di cenere”.
Secondo il papa Francesco, “l’intelligenza artificiale, però, è uno strumento ancora più complesso. Direi quasi che si tratta di uno strumento sui generis. Così, mentre l’uso di un utensile semplice (come il coltello) è sotto il controllo dell’essere umano che lo utilizza e solo da quest’ultimo dipende un suo buon uso, l’intelligenza artificiale, invece, può adattarsi autonomamente al compito che le viene assegnato e, se progettata con questa modalità, operare scelte indipendenti dall’essere umano per raggiungere l’obiettivo prefissato”. Ecco perché c’è bisogno che l’uomo non ne perda il controllo.
Regolamentare l’AI contro il pericolo delle fake news
Il G7 di Hiroshima del 2023 aveva proposto un codice morale, di adesione volontaria, per le aziende e le istituzioni pubbliche che sfruttano l’intelligenza artificiale. Il vertice di Borgo Egnazia si basa sul summit precedente e, nella sessione di venerdì 14 giugno ospita papa Francesco, che ha ripetutamente sottolineato l’importanza di stabilire limiti etici a una tecnologia che, se non regolamentata, potrebbe alimentare in modo innovativo la disinformazione e presentare sfide inedite su temi come la privacy e l’identità digitale.
Bergoglio ha affrontato il tema nel messaggio pubblicato in occasione dell’ultima Giornata Mondiale della Pace, lo scorso 1° gennaio. Nel 2020 il Vaticano aveva avviato un’iniziativa per promuovere una dimensione etica che definisca dei confini chiari all’applicazione degli algoritmi. L’obiettivo della presidenza italiana è raggiungere un accordo su una serie di standard che regolino l’uso di tali tecnologie, rendendole “centrate sull’uomo” e prevenendo quindi che abbiano un impatto negativo sul mercato del lavoro, alimentando la disoccupazione.
La preoccupazione più pressante riguarda tuttavia l’impatto che l’intelligenza artificiale avrà, e sta già avendo, su una disinformazione digitale già diffusa che potrebbe ulteriormente minare il processo democratico con “fake news” sempre più difficili da riconoscere come tali anche per un occhio esperto, una preoccupazione particolarmente sentita in un anno, il 2024, che vede quasi la metà della popolazione globale recarsi alle urne.
A livello nazionale, il governo italiano ha recentemente approvato il cosiddetto “Ddl cyber”, basato su tre principi: la difesa del diritto d’autore, l’identificazione dei contenuti generati dall’intelligenza artificiale e l’inasprimento delle sanzioni nei confronti di chi produce “deepfake“.