l lancio di GPT-5, avvenuto il 7 agosto 2025, ha acceso un dibattito sulla conformità alle nuove regole dell’AI Act. La normativa richiede ai fornitori di modelli di pubblicare un riassunto dei dati di addestramento e una politica sul copyright, obblighi che GPT-5 sembra non rispettare.
Secondo Petar Tsankov, CEO di LatticeFlow, il modello potrebbe rientrare nella categoria di “rischio sistemico”, soggetta a requisiti ancora più stringenti. La Commissione europea sta valutando se GPT-5 sia da considerarsi un modello nuovo a tutti gli effetti, ma l’applicazione delle sanzioni non inizierà prima dell’agosto 2026.
Indice degli argomenti:
Consultazione UE sulla trasparenza dell’AI
La Commissione europea ha avviato una consultazione pubblica per sviluppare linee guida e un Codice di condotta per la trasparenza dei sistemi generativi. L’obiettivo è aiutare provider e deployer a identificare e segnalare contenuti manipolati o generati dall’intelligenza artificiale.
La scadenza per partecipare è fissata al 2 ottobre 2025, in vista dell’entrata in vigore degli obblighi di trasparenza il 2 agosto 2026.
Berlino contro il governo federale
Dalla Germania arrivano critiche severe al progetto di legge nazionale di attuazione dell’AI Act. Diciassette autorità regionali per la protezione dei dati contestano l’assegnazione delle funzioni di supervisione al regolatore delle telecomunicazioni (BNetzA), ritenendo che ciò riduca le tutele dei diritti fondamentali.
Meike Kamp, a capo dell’autorità privacy di Berlino, ha parlato di un “massiccio indebolimento dei diritti fondamentali”.
L’AI Office non ha abbastanza risorse
Il nuovo AI Office, incaricato di vigilare sull’attuazione della legge, deve gestire oltre 100 compiti, tra cui applicare il Codice di condotta e comminare sanzioni. Tuttavia, con appena 125 dipendenti e difficoltà a reclutare figure altamente specializzate, l’ufficio appare sotto organico.
Le retribuzioni (55.000-120.000 dollari annui) non competono con il settore privato, dove i tecnici più richiesti guadagnano anche milioni. Secondo l’eurodeputato Axel Voss, per garantire la sicurezza e la compliance servirebbero almeno 200 persone in più.
Il nodo irrisolto del copyright
Il rapporto tra diritto d’autore e sviluppo dell’AI continua a essere uno dei punti più delicati. Come sottolinea Bertin Martens, senior fellow di Bruegel, le regole sul copyright riducono la disponibilità dei dati e aumentano i costi di addestramento.
Sebbene la trasparenza e la sicurezza siano gestibili, l’elevato numero di opt-out e i vincoli legali rischiano di compromettere la competitività europea. La maggior parte degli sviluppatori ha aderito al Codice di condotta, con l’eccezione di Meta e xAI.
L’industria europea assente dagli standard
Piercosma Bisconti, che lavora allo sviluppo degli standard CEN e CENELEC, ha criticato la scarsa partecipazione delle imprese europee alla definizione degli standard tecnici previsti dall’AI Act.
Colossi come Airbus, Siemens, Spotify e SAP, pur firmatari dell’iniziativa “AI champions”, non avrebbero preso parte in modo significativo ai lavori. Una contraddizione che alimenta i ritardi e le richieste di rinvio nell’applicazione della normativa.






