Normative

Perché non avremo una disciplina globale sull’intelligenza artificiale

Sarebbe una soluzione avveniristica. Tuttavia, i legislatori europeo e americano si stanno confrontando per garantire una uniformità di approccio dai due lati dell’Atlantico. Anche per evitare che le aziende siano ostacolate da una normativa locale troppo stringente

Pubblicato il 12 Giu 2023

Giulio Coraggio

partner DLA Piper, responsabile dipartimento Intellectual Property and Technology

a-picture-containing-text-description-automatical

L’intelligenza artificiale sta rapidamente trasformando numerosi settori della società moderna, dall’healthcare all’industria, dall’automazione ai trasporti. Tuttavia, di fronte a questa rapida evoluzione tecnologica, è emersa la necessità urgente di stabilire una normativa adeguata a regolamentare l’uso e lo sviluppo dell’intelligenza artificiale.

L’Unione Europea (UE), gli Stati Uniti e la Cina hanno risposto a questo grido di allarme e stanno lavorando per adottare una normativa sull’AI, e per una volta sembra che queste normative stiano andando nella stessa direzione.

L’approccio di Ue e Usa alla regolamentazione dell’AI

L’UE ha adottato un approccio più proattivo nella regolamentazione dell’intelligenza artificiale. Il Parlamento europeo sta attualmente lavorando sull’AI Act, un regolamento che classifica le applicazioni dell’AI in base al loro livello di rischio e impone requisiti rigorosi non solo per le tecnologie ad alto rischio, ma anche per i c.d. foundation model di AI generativa. Infatti, il lancio di sistemi di AI generativa come ChatGPT ha accelerato l’adozione della normativa definitiva. Ha portato all’introduzione nell’AI Act di disposizioni ad hoc per regolare questa nuova tipologia di AI che fino a qualche mese fa era ignota ai più ed ora è vista con molto sospetto. È previsto che il Parlamento europeo voti la proposta a metà giugno e che il testo definitivo verrà approvato entro la fine dell’anno. Il regolamento prevede principi di trasparenza, legittimità dei dati e documenti usati per il training dell’AI e analisi del rischio prima della messa in commercio, creando un quadro regolatorio alquanto completo.

Simili discussioni su una normativa sull’AI sono in corso negli Stati Uniti. All’evento organizzato dallo studio legale DLA Piper il 30 maggio scorso, è intervenuta Victoria Espinel che fa parte del gruppo di super esperti incaricati di lavorare a una bozza di normativa americana sull’intelligenza artificiale. Victoria Espinel ha rappresentato come il legislatore americano si stia concentrando sui problemi etici e di possibile discriminazione che potrebbero sorgere dall’uso dell’AI. I sistemi di intelligenza artificiale infatti non eseguono “ragionamenti”, come se fossero un essere umano, ma “intuiscono” la risposta alla luce delle informazioni con cui sono stati addestrati che però potrebbe essere piena dei c.d. bias, i pregiudizi che potrebbero portare a decisioni discriminatorie.

Secondo la posizione rappresentata da Victoria Espinel non ci sarà una normativa globale sull’intelligenza artificiale perché sarebbe una soluzione avveniristica. Tuttavia, i legislatori europeo e americano si stanno confrontando sempre più per garantire una uniformità di approccio all’AI dai due lati dell’Atlantico. Questo sta avvenendo anche per evitare che le aziende siano in qualche modo danneggiate da una propria normativa locale sull’intelligenza artificiale che sia troppo stringente.

I tempi di attuazione della normativa

Ma anche qualora si giungesse a un approccio condiviso, il problema sarebbe costituito dai tempi di attuazione della normativa. Se l’AI Act fosse adottato a fine 2023, ci sarebbe infatti almeno un anno se non due anni da aspettare prima che divenga vincolante. Ma questa tempistica è compatibile con la velocità dell’evoluzione dell’AI? Non rischiamo che sia adottata una normativa già “vecchia” prima di diventare applicabile? Inoltre, alcuni attivisti sostengono che il mondo non può aspettare due anni per introdurre una disciplina dell’intelligenza artificiale.

Un codice di condotta volontario sull’AI

Per questo motivo, l’Unione europea sta lavorando – in parallelo all’AI Act – a un codice di condotta volontario sull’intelligenza artificiale. Si tratta di una normativa non vincolante, ma di immediata applicazione che potrebbe essere facilmente concordata con gli Stati Uniti e aggiornata con l’evoluzione tecnologica. Non saranno previste delle sanzioni, ma i principi alla base dell’AI Act già sono presenti, in modo confuso e disorganizzato, in altre normative in vigore. Per questo motivo, se le autorità iniziassero ad interpretare obblighi normativi già esistenti in linea con il codice di condotta e i principali operatori di mercato si impegnassero a conformarsi allo stesso, di fatto il codice diventerebbe una disciplina vincolante.

Tutto questo non sembra uno scenario avveniristico se vediamo il numero limitato di imprese che ad oggi controllano il mercato dell’intelligenza artificiale.

Conclusioni

In conclusione, il futuro della normativa sull’intelligenza artificiale sia nell’Unione Europea che negli Stati Uniti dipenderà da numerosi fattori, tra cui in primis la necessità di equilibrare l’innovazione tecnologica con la protezione degli individui. Sia l’UE che gli Stati Uniti sono consapevoli dell’importanza di una regolamentazione adeguata a garantire che l’intelligenza artificiale venga utilizzata in modo responsabile, etico e sicuro. Tuttavia, l’approccio che sarà seguito dipenderà da così tante variabili che ad oggi sembrano incontrollabili e mutevoli velocemente.

L’augurio è che non verrà adottata istintivamente una disciplina eccessivamente restrittiva, semplicemente per paura dell’AI, perché l’intelligenza artificiale generativa è sicuramente l’invenzione più sconvolgente degli ultimi anni e la nostra società ne ha bisogno per crescere.

Per supportare le aziende non solo in questa fase transitoria, ma anche nei futuri utilizzi dell’intelligenza artificiale, DLA Piper sta sviluppando soluzioni di legal tech che consentono in modo efficiente, veloce e affidabile di valutare la conformità alla normativa applicabile e agli standard di mercato delle soluzioni di AI.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2