Normative

Usa: cosa contiene l’AI Executive Order del presidente Biden



Indirizzo copiato

Si tratta della prima iniziativa per regolare l’intelligenza artificiale adottata negli Stati Uniti finora. L’Ordine è parzialmente vincolante e non integralmente fondato su impegni volontari da parte delle Big Tech; indirizza le agenzie governative statunitensi a intraprendere azioni mirate al fine di rendere il Paese avanguardia globale nello sviluppo della “tecnologia più importante del nostro tempo”

Pubblicato il 23 nov 2023

Vincenzo Tomasello

Avvocato – netforLegaL



washington

Lo scorso 31 ottobre, il presidente Joe Biden ha firmato l’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, la prima e più rivoluzionaria iniziativa per regolare l’intelligenza artificiale mai adottata negli Stati Uniti sino ad oggi. Un Ordine esecutivo parzialmente vincolante, e non integralmente fondato su impegni volontari da parte delle Big Tech come avvenuto sinora, che indirizza le agenzie governative statunitensi ad intraprndere azioni mirate per garantire che il Paese rappresenti un’avanguardia globale nello sviluppo della “tecnologia più importante del nostro tempo” (secondo le parole di Biden).

Usa e Ue, due modelli a confronto

Mentre i co-legislatori europei sembrano essersi inceppati sulla disciplina dei foundation models, con il rischio di mettere a repentaglio l’intero impianto della Proposta di regolamento sull’intelligenza artificiale, la Casa Bianca prova a fronteggiare il Brussels Effect e a guadagnare terreno nel ruolo di leader mondiale per la definizione di uno standard di regolamentazione dell’AI.

Rispetto al modello europeo, prevalentemente orientato alla protezione dei diritti fondamentali, l’Ordine esecutivo ruota attorno ai due concetti cardine di “safety and security”, come si evince dal titolo stesso, introducendo un approccio più legato alla cybersecurity e alla protezione dalle interferenze esterne che possano minacciare la sicurezza nazionale.

Il documento identifica come principali interlocutrici le agenzie federali governative alle quali sono attribuiti specifici compiti da portare a termine prima delle prossime elezioni del 2024. Uno strumento che l’amministrazione Biden vorrà presumibilmente utilizzare per dare una spinta finale al proprio indirizzo politico ed influenzare il processo legislativo sull’intelligenza artificiale in fase di preparazione al Congresso.

Scorrendo il lungo e articolato elenco di raccomandazioni, però, alcune contraddizioni interne sembrerebbero rivelare una più ampia confusione di fondo sulla reale posizione degli Stati Uniti verso l’AI: rappresenta una minaccia per la società e per la sicurezza nazionale? È un’arma geopolitica? È una tecnologia irrinunciabile per migliorare la vita delle persone?

Joe Biden

Le contraddizioni dell’Ordine esecutivo: qual è la vera posizione degli Stati Uniti?

Il livello di pervasività dell’intelligenza artificiale nella società e all’interno delle nostre vite (unitamente a una sempre maggiore ed esponenziale capillarità di diffusione) ha probabilmente spinto l’amministrazione statunitense a ricomprendere nel documento tutti gli interessi in gioco, spesso però in maniera ambivalente e senza stabilire un approccio guida.

D’altronde, le consultazioni preliminari hanno visto il coinvolgimento dei principali leader multinazionali del settore (tra cui Google, OpenAI, Microsoft, Anthropic) e, allo stesso tempo, dei più esponenti gruppi rappresentativi dei diritti civili particolarmente attivi nel contrasto alle Big Tech sui temi delle tutele per consumatori, lavoratori e altre fasce vulnerabili della popolazione.

Partendo dal progetto iniziale del Blueprint for an AI Bill of Rights (una “Carta dei Diritti” per i cittadini contro i potenziali rischi derivanti dall’IA) presentato dalla stessa amministrazione prima del lancio sul mercato di ChatGPT nel novembre 2022, l’Ordine si focalizza sui modelli di intelligenza artificiale generativa e sul loro linguaggio preoccupantemente umano.

La narrazione di fondo è ripresa dal famoso “Statement of AI risks”, del maggio 2023, secondo cui l’intelligenza artificiale – accanto agli enormi benefici – pone gravi rischi alla sicurezza di tutti, e potrebbe addirittura in prospettiva minacciare l’esistenza stessa dell’umanità.

Cosa sono i “modelli di frontiera”

L’attenzione è in particolare riservata ai “dual-use foundation models”, chiamati all’interno dell’Ordine come modelli di “frontiera” (frontier IA) secondo una terminologia coniata e resa popolare dalle stesse aziende che intendono sviluppare queste tecnologie all’interno di un paper pubblicato la scorsa estate, scritto a “quattro mani” da OpenAI e Google DeepMind.

Riprendendo, quasi testualmente, alcuni passaggi del paper, l’Ordine definisce i modelli di frontiera in relazione agli impatti potenzialmente devastanti per la società. Questi modelli pongono sfide normative peculiari: fattore “sorpresa” (rischio che il sistema faccia emergere pericoli “inaspettatamente” e in modo incontrollato), difficoltà di impedire efficacemente che il modello venga utilizzato in modo improprio e che proliferi su larga scala.

Accogliendo l’invito dei promotori dell’iniziativa, sul solco delle medesime preoccupazioni, l’Ordine esecutivo promuove la definizione di standard e descrive dettagliatamente come le agenzie governative dovrebbero affrontare gli impatti futuri e potenziali dell’AI sulle minacce chimiche, biologiche, radiologiche e nucleari.

La stessa attenzione, però, non viene riservata ai temi dell’istruzione e della (dis)informazione, nonostante le applicazioni su larga scala della tecnologia attualmente presenti sul mercato in questi settori, con i correlati rischi di canalizzare fake news per orientare l’opinione pubblica. Forse perché strumenti attualmente utilizzati nei conflitti in Ucraina e Palestina?

E come se, preoccupata di scongiurare potenziali minacce future, l’amministrazione decidesse (deliberatamente?) di trascurare, o quanto meno mettere in secondo piano, alcune tematiche concrete con impatti effettivi sulla società.

Climate change e lavoro

Sul fronte del climate change, il documento riconosce il ruolo che l’intelligenza artificiale può svolgere nel rafforzare la resilienza contro i cambiamenti climatici. Ma non menziona neppure una volta le ingenti risorse energetiche e idriche necessarie per sviluppare e implementare modelli di intelligenza artificiale di grande portata, né le emissioni di carbonio che producono, omettendo di indicare la via da seguire per un progresso tecnologico sostenibile.

Anche il tema del lavoro sembrerebbe trattato solo in maniera parziale e prospettica: vengono stanziate risorse federali per sostenere le categorie di lavoratori, i cui impieghi potrebbero essere potenzialmente a rischio con l’avvento di nuove applicazioni dell’intelligenza artificiale, ma non vengono mai menzionati i temi legati allo sfruttamento dei dipendenti da parte delle aziende per alimentare il mercato dell’AI (ad esempio, persone sottopagate per fornire manualmente feedback ai chatbot).

La contraddizione sul fronte internazionale

Un’altra contraddizione in termini sembrerebbe derivare dalle disposizioni introdotte sul fronte internazionale, nelle relazioni con i principali competitor globali (con un chiaro riferimento alla Cina).

Da un lato, in nome della sicurezza nazionale, si prevede la definizione di nuove regole per imporre ai principali cloud provider statunitensi (Microsoft, Google, Amazon) di notificare al governo l’utilizzo dei servizi da parte di terzi ubicati in Paesi stranieri per la realizzazione di modelli di intelligenza artificiale che potrebbero essere utilizzati per scopi “dannosi”. Al contempo, il documento sottolinea l’importanza dei lavoratori internazionali per lo sviluppo della tecnologia, incentivando una sempre maggiore acquisizione di talenti con esperienza nel settore dell’AI per apportare valore aggiunto al Paese, tramite la semplificazione dell’iter di approvazione dei visti lavorativi di ingresso.

Guarda caso, secondo un recente studio di Marco Polo, è proprio la Cina il principale bacino di talenti di intelligenza artificiale per gli Stati Uniti.

La necessità di ampliare la cooperazione internazionale

Al netto della guerra “fredda” in corso per il predominio tecnologico, su un fronte sembrerebbe esserci una larga unanimità di vedute. Proprio nel momento in cui le relazioni tra USA e Cina sembrano aver raggiunto il punto più basso nelle relazioni commerciali (qualche settimana fa gli Stati Uniti hanno inasprito l’embargo dei chip verso la Cina), i leader delle due super-potenze hanno avviato i negoziati per vietare l’uso dell’intelligenza artificiale nel settore militare delle armi autonome (come i droni, sempre più utilizzati nelle guerre moderne, e i sistemi che controllano testate nucleari). Un punto a favore della collettività.

Le contraddizioni dell’Ordine esecutivo sui diversi valori e approcci all’intelligenza artificiale riflettono il tentativo di tracciare un percorso in un contesto in cui nessuno ha una mappa affidabile che indichi la direzione da seguire.

Circa un anno fa, in pochi potevano immaginare come i chatbot e i generatori di video e immagini avrebbero cambiato così drasticamente il modo in cui pensiamo agli effetti di Internet sulla sfera politica, sull’istruzione, sul mondo del lavoro. Qualche mese fa, l’integrazione dell’intelligenza artificiale nei motori di ricerca sembrava un’applicazione futuristica. Tutto questo, e molto altro ancora, è iniziato sul serio nella nascente rivoluzione dell’intelligenza artificiale.

Ampliare i tavoli di lavoro alle principali potenze globali e alle economie emergenti sembra inevitabile per definire il governo dell’intelligenza artificiale, contenerne efficacemente i potenziali rischi e indirizzarne le future evoluzioni a beneficio dell’umanità.

La dichiarazione dei leader del G7 nell’ambito del processo di Hiroshima, contestuale all’adozione dei principi internazionali sull’intelligenza artificiale e del relativo codice di condotta, ha aperto la cooperazione internazionale in questa direzione.

In modo ancora più efficacie, la Global AI Governance Initiative, annunciata dal Presidente Xi Jinping lo scorso ottobre sui temi legati allo sviluppo, alla sicurezza e alla governance dell’AI per il bene della società, include anche una proposta di istituire un organismo internazionale per governare l’intelligenza artificiale. Un invito che, in questo periodo storico, sembrerebbe irrinunciabile, nella speranza che – una volta per tutte – la politica guardi al bene collettivo al di sopra di quello dei singoli Stati.

Articoli correlati

Articolo 1 di 4