approfondimento

La Dichiarazione di Bletchley e la competizione Usa-Regno Unito



Indirizzo copiato

Sottoscritto da 28 Paesi, più l’Unione europea, l’accordo internazionale dimostra la volontà di collaborare alla ricerca sulla sicurezza in materia di intelligenza artificiale. Ma mette in luce anche una gara per la guida del processo normativo

Pubblicato il 2 nov 2023

Luigi Mischitelli

Legal & Data Protection Specialist – Fondazione IRCCS Casa Sollievo della Sofferenza.



Dichiarazione Bletcheley
Immagine Wikipedia

Con una mossa che potremmo definire “a sorpresa”, alcuni Paesi, che rappresentano la parte più tecnologicamente evoluta del pianeta, hanno stipulato un accordo internazionale in materia di intelligenza artificiale. Nel corso dell’AI Safety Summit 2023 che si è tenuto a Bletchley (non lontano da Londra), il Regno Unito, gli Stati Uniti, l’Unione Europea, l’Australia, la Cina e altri paesi interessati hanno concordato una dichiarazione congiunta[1] sul rischio “catastrofico” per l’umanità che potrebbe rappresentare un’intelligenza artificiale libera di agire senza alcuna regola.

Si tratta della prima dichiarazione internazionale che affronta “di petto” la questione regolamentare dell’intelligenza artificiale. In attesa che l’Unione Europea vari il tanto atteso Regolamento in materia[2], e con gli Stati Uniti che nel frattempo emanano nuovi atti presidenziali[3], ventotto governi (più l’Unione Europea) hanno sottoscritto la cosiddetta “Dichiarazione di Bletchley”, mostrando una certa volontà di collaborare alla ricerca sulla sicurezza in materia di intelligenza artificiale. Da tale summit è emerso che gli Stati Uniti e il Regno Unito sono in competizione tra loro per assumere la guida nello sviluppo delle prime norme internazionalmente condivise in materia.

I rischi legati all’AI “di frontiera”

Per la prima volta nella storia, i Paesi firmatari della Dichiarazione di Bletchley sono d’accordo sulla necessità di esaminare non solo in modo indipendente (e internamente) – ma anche collettivamente – i rischi legati all’intelligenza artificiale cd. “di frontiera”. Con tale definizione si fa riferimento ai sistemi più avanzati di intelligenza artificiale che, secondo alcuni esperti, potrebbero diventare più intelligenti delle persone in una serie di compiti a essi affidati.

Il patron di Tesla e X (già Twitter), Elon Musk, ha tenuto a mettere in guardia sul fatto che, per la prima volta, ci troviamo di fronte a una situazione in cui c’è qualcosa che sarà “molto più intelligente dell’uomo più intelligente”, e che non è chiaro quanto saremo pronti a controllare un’evenienza del genere.

La Dichiarazione di Bletchley segna un successo diplomatico per il Regno Unito e per il suo Primo Ministro Rishi Sunak, il quale ha ha deciso di ospitare il vertice quest’estate dopo essersi preoccupato del modo in cui i modelli di intelligenza artificiale stavano (e stanno, N.d.A.) avanzando rapidamente senza alcun controllo. Inoltre, nel Summit è parso necessario fermare la sfrenata avanzata dei privati nel campo in oggetto, prima che sia troppo tardi.

Dichiarazione Bletchley: la sorpresa della Cina

Tra tutti i grandi firmatari, la più “inattesa alla firma” è stata la Cina (che ha stupito tutti). La Repubblica Popolare ha firmato la dichiarazione, che include la frase: “accogliamo con favore gli sforzi compiuti finora dalla comunità internazionale per cooperare sull’Intelligenza artificiale al fine di promuovere una crescita economica inclusiva, lo sviluppo sostenibile e l’innovazione, di proteggere i diritti umani e le libertà fondamentali e di promuovere la fiducia pubblica nei sistemi di Intelligenza Artificiale per realizzare pienamente il loro potenziale”. La Cina ha giurato di sostenere i principi di rispetto reciproco, uguaglianza e vantaggi reciproci. Inoltre, Pechino ha sottolineato che tutti i Paesi, a prescindere dalle loro dimensioni e dalla loro scala, hanno gli stessi diritti di sviluppare e utilizzare l’intelligenza artificiale, senza prevaricazioni od ostacoli.

Nel frattempo, alcuni paesi pensano ai prossimi summit in materia di intelligenza artificiale. La Corea del Sud ha accettato di ospitare un altro vertice di questo tipo tra sei mesi, mentre la Francia ne ospiterà un altro tra un anno.

La competizione fra Regno Unito e Usa sull’AI

La nota dolente è che, finora, vi è “ben poco accordo internazionale” su come potrebbe passarsi da una dichiarazione a un insieme globale di regole sull’intelligenza artificiale (nonché su chi dovrebbe stilarli, redigerli e renderli esecutivi e cogenti). Nel Regno Unito, alcuni funzionari speravano che la Dichiarazione di Bletchey portasse direttamente, da parte dei contraenti, ad accettare di instituire una task force internazionale tra i vari governi (magari, con il governo di Sua Maestà come guida) in merito alla tecnologia in esame, in modo da poter testare i nuovi modelli di intelligenza artificiale, provenienti da tutto il mondo, prima che vengano resi pubblici e messi in commercio.

Invece, gli statunitensi hanno approfittato del vertice britannico per annunciare la creazione di un “American AI Safety Institute” all’interno del National Institute of Standards and Technology (NIST) americano, definito da Washington come una terza parte neutrale per sviluppare gli standard migliori della categoria nel campo dell’intelligenza artificiale; un istituto che, nelle intenzioni a stelle e strisce, svilupperà le proprie regole per la sicurezza, la protezione e i test sulla tecnologia in esame.

Peraltro, gli statunitensi hanno messo recentemente il “turbo” in materia di intelligenza artificiale. Come accennato in premessa all’articolo, qualche giorno fa l’amministrazione Biden ha emanato un ordine esecutivo che impone alle aziende statunitensi di intelligenza artificiale, come OpenAI e Google, di condividere con il governo americano i risultati dei loro test di sicurezza prima di rilasciare modelli di AI sul mercato. L’amministrazione democratica, infatti, spinge molto sull’importanza di regolamentare i modelli di intelligenza artificiale esistenti, nonché quelli più avanzati che emergeranno in futuro. Siamo di fronte, come anticipato, a una sorta di sfida anglo-americana su chi debba essere la guida del settore nel “mondo libero”.

Il ruolo dell’Unione Europea

Nel frattempo, l’Unione Europea è – finalmente – sulla linea di arrivo per approvare il suo Regolamento sull’intelligenza artificiale (AI Act), cogente per tutti i ventisette stati dell’Unione, che mira a sviluppare una serie di principi per la regolamentazione della tecnologia in esame, oltre a introdurre regole per tecnologie specifiche come la “temuta” tecnologia del riconoscimento facciale. Staremo a vedere nei prossimi mesi chi prenderà le redini e diventerà la nuova guida in materia. [4]

Note

  1. The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023. The UK Government. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
  2. EU aiming to reach agreement on AI regulation before 2024. Research Professional News. https://www.researchprofessionalnews.com/rr-news-europe-regulation-2023-11-eu-aiming-to-reach-agreement-on-ai-regulation-before-2024/
  3. What You Need to Know About Biden’s Sweeping AI Order. The executive order covers AI safety, algorithmic bias, and privacy. IEEE Spectrum. https://spectrum.ieee.org/biden-ai-executive-order
  4. UK, US, EU and China sign declaration of AI’s ‘catastrophic’ danger. The Guardian. https://www.theguardian.com/technology/2023/nov/01/uk-us-eu-and-china-sign-declaration-of-ais-catastrophic-danger

Articoli correlati

Articolo 1 di 3