L’AI Act, entrato in vigore nell’agosto 2024 (Strategia Digitale Europea) è stato concepito come “la più ambiziosa cornice normativa per l’intelligenza artificiale” a livello globale. Obiettivo dichiarato: favorire un’AI “umanocentrica e affidabile”, garantendo al contempo elevati standard di tutela per la salute, la sicurezza, i diritti fondamentali e lo stato di diritto.
Negli ultimi mesi la Commissione Europea ha aperto una consultazione per valutare «come semplificare le regole in materia di dati, cybersecurity e intelligenza artificiale» nell’ambito del pacchetto definito “Digital Omnibus”. (Strategia Digitale Europea)
In parallelo, varie associazioni di imprese e aziende tech (sia europee che statunitensi) hanno sollevato preoccupazioni circa l’eccessivo carico burocratico, la scarsità di chiarezza normativa e il rischio che la rigidità del regime penalizzi la competitività europea.
Inoltre, la pressione internazionale – in particolare da parte degli Stati Uniti – e il timore di ritorsioni commerciali o tecnologiche hanno contribuito a indurre un clima di revisione.
normative
AI Act: Bruxelles pronta a sospendere parti del testo sotto la pressione di Big Tech
La Commissione europea propone un rallentamento del Regolamento, la normativa più severa al mondo per l’intelligenza artificiale, a causa delle pressioni delle grandi aziende tecnologiche e del governo statunitense. Il pacchetto “semplificazione” previsto per il 19 novembre potrebbe prevedere una moratoria di un anno per i sistemi ad alto rischio e il rinvio delle sanzioni fino al 2027

Continua a leggere questo articolo
Argomenti
Canali





