Il tanto atteso disegno di legge sull’intelligenza artificiale del Regno Unito sarà strettamente focalizzato sui modelli più avanzati e non diventerà un “disegno di legge albero di Natale” per regolamentare il nascente settore. Lo ha affermato il segretario alla tecnologia del Regno Unito, Peter Kyle. Alle principali aziende tecnologiche Google, Microsoft e Apple – Kyle ha detto che il disegno di legge sull’AI previsto per la fine di quest’anno si concentrerà esclusivamente su due aspetti: rendere giuridicamente vincolanti gli accordi volontari esistenti tra aziende e governo, e trasformare il nuovo Istituto per la Sicurezza dell’AI del Regno Unito in un ente governativo indipendente.
La preoccupazione delle aziende per un eccesso di normazione
Le aziende sono preoccupate che altre normative possano essere aggiunte al disegno di legge durante il processo legislativo. Kyle e il cancelliere Rachel Reeves hanno incontrato il 31 luglio i dirigenti di numerose importanti aziende tecnologiche e investitori – tra cui Meta, proprietaria di Facebook – per discutere di come il nuovo governo possa supportare i settori tecnologici e dell’AI per stimolare la crescita del Regno Unito.
Sir Keir Starmer era atteso per annunciare un disegno di legge sull’AI nel discorso del Re all’inizio di luglio, ma non lo ha incluso tra i 40 provvedimenti legislativi nominati. Invece, il Re ha detto che il governo laburista “cercherà di stabilire la legislazione appropriata per imporre requisiti a chi lavora per sviluppare i modelli di intelligenza artificiale più potenti”.
Il disegno di legge sull’AI del Regno Unito arriverà entro la fine dell’anno
I funzionari senior sperano che il disegno di legge sarà pronto per la sua prima lettura entro la fine dell’anno. Si concentrerà esclusivamente su modelli di base in stile ChatGPT – grandi modelli di AI realizzati da un numero ristretto di aziende che possono analizzare e generare testo e multimedia – secondo quanto riportato dal Financial Times.
Il disegno di legge sull’AI di Keir Starmer segna un cambiamento rispetto alla strategia adottata dall’ex primo ministro Rishi Sunak, che era riluttante a spingere per interventi legali nello sviluppo e nella diffusione dei modelli di AI troppo presto per timore che una regolamentazione severa potesse ostacolare la crescita del settore.
“Siamo terzi dopo Stati Uniti e Cina per dimensioni del nostro settore tecnologico in rapida crescita, e siamo leader mondiali quando si tratta di sicurezza dell’AI”, ha detto Sunak ai parlamentari.
Alla fine dell’anno scorso, il governo di Sunak ha lanciato l’Istituto per la Sicurezza dell’AI, che valuta i modelli di AI per rischi e vulnerabilità. Durante il Vertice sulla Sicurezza dell’AI del Regno Unito a novembre, aziende leader tra cui OpenAI, Google DeepMind, Anthropic, Amazon, Mistral, Microsoft e Meta hanno firmato un accordo “storico” ma non giuridicamente vincolante con governi tra cui Regno Unito, Stati Uniti e Singapore. In base all’accordo, i governi firmatari avrebbero potuto testare i modelli più recenti e imminenti delle aziende per rischi e vulnerabilità prima che fossero rilasciati a imprese e consumatori. Queste aziende hanno preso ulteriori impegni volontari a Seoul all’inizio di quest’anno, incluso l’impegno “a non sviluppare o distribuire un modello” se i rischi gravi non potevano essere mitigati.
Rendere gli accordi giuridicamente vincolanti
I funzionari del governo del Regno Unito ritengono che vi sia un’urgente necessità di rendere questi accordi volontari giuridicamente vincolanti per garantire che le aziende già firmatarie degli accordi non possano ritirarsi dai loro obblighi se diventi commercialmente conveniente farlo. Una consultazione sui contenuti del disegno di legge è prevista per essere lanciata nelle prossime settimane e dovrebbe durare circa due mesi, secondo funzionari senior.
Rendere l’AISI un ente indipendente rafforzerebbe il suo ruolo come organismo indipendente e rassicurerebbe le aziende che non avrà il governo “sul collo”. Il governo di Starmer è desideroso che l’AISI assuma un ruolo guida nella definizione di standard globali per lo sviluppo dell’AI che potrebbero essere utilizzati dai governi di tutto il mondo. Ulteriori regolamentazioni per affrontare e proteggere contro i potenziali danni associati all’AI, inclusi l’uso della proprietà intellettuale per addestrare modelli senza permesso o compensazione, saranno esaminate separatamente da questo disegno di legge.