normative

AI Act: esperti europei chiedono norme stringenti, non l’autoregolamentazione



Indirizzo copiato

Il presidente di Atomium, insieme con Luciano Floridi, inviano una lettera a Italia, Germania e Francia – che vorrebbero un quadro legislativo più leggero – reclamando un regolamento più ferreo. Ci sono rischi per il business

Pubblicato il 1 dic 2023



AI ACT

Tempi stringenti per l’approvazione dell’AI Act europeo; c’è il rischio di non riuscire ad arrivare all’approvazione finale del Consiglio Ue entro la fine dell’anno. Con l’avvento dell’intelligenza artificiale generativa, le posizioni dei vari Paesi europei si sono divise tra chi difende a spada tratta la privacy e l’etica, chiedendo regole stringenti, e chi, invece, vorrebbe regole meno strette per lasciare mano libera alle imprese nell’innovazione.

Tra questi ci sono Italia, Francia e Germania. Proprio a questi tre Paesi è indirizzato l’appello firmato da Luciano Floridi (Founding director del Digital Ethics Center, Yale University, e presidente del comitato scientifico di AI4People Institute) e da Michelangelo Baracchi Bonvicini (presidente di Atomium-Eismd e presidente di AI4People Institute) perché si arrivi all’approvazione della legge europea sull’intelligenza artificiale.

“Contro un approccio di autoregolamentazione, esortiamo tutte le parti coinvolte nel trilogo ad approvare l’AI Act il prima possibile”, si legge nella lettera (Qui il documento completo ) indirizzata alla presidente del Consiglio Giorgia Meloni, al presidente della Repubblica francese Emmanuel  Macron e al cancelliere federale tedesco Olaf Scholz. “È un errore – prosegue la lettera – pensare che la regolamentazione vada contro l’innovazione: è solo attraverso la regolamentazione e quindi una competizione leale che l’innovazione può prosperare, a vantaggio dei mercati, delle società e dell’ambiente”.

L’Ue e la leadership nell’intelligenza artificiale

La resistenza attuale da parte di Francia, Italia e Germania riguardo alla regolamentazione dei modelli AI fondamentali mette a rischio la leadership dell’Ue nella regolamentazione dell’AI”, si legge nella lettera. “L’Ue è stata all’avanguardia, sostenendo regolamentazioni che assicurino che la tecnologia sia sicura ed equa per tutti. Ma questo vantaggio iniziale potrebbe essere perso se le restanti sfide normative non vengono affrontate in modo rapido ed efficace. Una Ue indecisa perderà il suo vantaggio competitivo rispetto a paesi come gli Stati Uniti e la Cina. I cittadini europei rischiano di utilizzare prodotti AI regolamentati secondo valori e programmi non allineati ai principi europei”.

I codici di condotta delle aziende

Per gli esperti europei, nella fase del trilogo l’AI Act è minacciato “da ciò che crediamo sia una reazione sbagliata, da parte dei rappresentanti dei vostri governi, a favore dell’autoregolamentazione da parte delle aziende che implementano modelli fondazionali di Ai (come ChatGPT e Bard). Ciò significa che queste aziende dovrebbero attenersi ai propri codici di condotta, piuttosto che essere regolate direttamente da organismi ufficiali. Il cambiamento di approccio sta ritardando l’approvazione dell’AI Act, soprattutto in vista delle imminenti elezioni del Parlamento europeo a giugno. In modo più critico, potrebbe minare la sua efficacia e rappresentare gravi rischi per i diritti dei cittadini europei e per l’innovazione europea”.

Le aziende non dovrebbero stabilire le regole da sole, argomentano gli esperti: “I codici di condotta, anche quando obbligatori, sono insufficienti e spesso inefficaci. Quando le aziende si autoregolamentano, potrebbero privilegiare i loro profitti sulla sicurezza pubblica e le preoccupazioni etiche”. Inoltre, ci sarebbe anche un danno all’industria dell’intelligenza artificiale, perché “lascia alle aziende il dubbio se i loro prodotti e servizi saranno ammessi sul mercato e se potrebbero affrontare multe dopo la commercializzazione. Le incertezze potrebbero richiedere regole dirette dopo che l’Atto è già stato approvato. Infine, se ogni azienda o settore stabilisce le proprie regole, potrebbe emergere solo un confuso mosaico di standard”.

Innovazione a rischio senza le regole per l’AI

Nella lettera si legge che “ritardare la regolamentazione dell’AI comporta costi significativi”. Senza regole comuni, i cittadini sono esposti a implementazioni di AI che non servono al meglio gli interessi pubblici. Questa mancanza di regolamentazione apre la porta a un possibile abuso delle tecnologie AI.

“Le conseguenze sono gravi, inclusa la violazione della privacy, il pregiudizio, la discriminazione e minacce alla sicurezza nazionale in settori critici come la sanità, i trasporti e le forze dell’ordine”, argomentano gli esperti. “Economicamente, le applicazioni AI non regolamentate possono distorcere la concorrenza e le dinamiche di mercato, creando un campo di gioco disuguale in cui solo le aziende potenti e ben finanziate avranno successo”.

Maggiore innovazione è possibile solo attraverso una migliore regolamentazione, conclude la lettera.

Anche la comunità scientifica italiana si rivolge al governo

Un altro appello arriva al governo Meloni dalla comunità scientifica italiana dell’AI: “Vogliamo far sentire la nostra voce a sostegno della necessità di regole sui grandi modelli generativi, i “foundation model”, nell’ambito della Regolamentazione Europea sull’Intelligenza Artificiale, l’AI act, in corso di negoziazione finale”, si legge nella lettera aperta (Qui il documento).

Le associazioni firmatarie sono AIxIA (Associazione italiana per l’intelligenza artificiale), Cvpl (Associazione Computer vision, pattern recognition and machine learning), Ailc (Associazione italiana di linguistica computazionale), Fondazione Fair-Future artificial intelligence research, Laboratorio nazionale di artificial intelligence and intelligent systems del Cini, e Comitato di coordinamento del Dottorato nazionale in intelligenza artificiale.

I modelli linguistici generativi come GPT-2, GPT-3(.5) e GPT-4, ottenuti tramite addestramento su enormi risorse di dati da varie fonti (web, libri, social media e altro), hanno dimostrato prestazioni sorprendenti in una varietà di compiti linguistici, argomentano gli scienziati. “D’altra parte, questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili (allucinazioni), la facilità di uso per scopi manipolativi (produzione di disinformazione), la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono.

Nel contesto attuale, è difficile valutare l’impatto sulla società e l’economia a medio/lungo termine, inclusi i rischi esistenziali per la democrazia, la scienza e il lavoro, preoccupazioni espresse anche dagli stessi pionieri che hanno contribuito allo sviluppo della tecnologia dell’Ai generativa. Crediamo che l’assenza di regole certe per i modelli generativi, per lo più prodotti da grandi aziende extraeuropee, comporti un forte rischio economico sulle aziende europee e italiane che stanno creando prodotti e servizi basati su tali modelli”.

La lettera conclude: “Facciamo quindi appello al governo italiano perché continui ad adoperarsi per un testo definitivo dell’Ai Act che includa regole chiare per i modelli generativi, rinforzando il ruolo dell’Europa di avanguardia globale della regolamentazione dell’intelligenza artificiale, consentendo di coglierne le opportunità con le migliori salvaguardie per la sicurezza”.

Articoli correlati

Articolo 1 di 4