normative

GPT-5: sotto la lente dell’UE la trasparenza dei dati di addestramento



Indirizzo copiato

Il debutto dell’ultimo modello di OpenAI solleva dubbi sulla conformità all’AI Act europeo, soprattutto sulla trasparenza dei dati di addestramento. Nel frattempo, Bruxelles avvia consultazioni sulla trasparenza, la Germania contesta l’attuazione nazionale, l’AI Office fatica ad assumere personale e l’industria europea resta assente nei processi di standardizzazione

Pubblicato il 15 set 2025



OpenAI code red

l lancio di GPT-5, avvenuto il 7 agosto 2025, ha acceso un dibattito sulla conformità alle nuove regole dell’AI Act. La normativa richiede ai fornitori di modelli di pubblicare un riassunto dei dati di addestramento e una politica sul copyright, obblighi che GPT-5 sembra non rispettare.

Secondo Petar Tsankov, CEO di LatticeFlow, il modello potrebbe rientrare nella categoria di “rischio sistemico”, soggetta a requisiti ancora più stringenti. La Commissione europea sta valutando se GPT-5 sia da considerarsi un modello nuovo a tutti gli effetti, ma l’applicazione delle sanzioni non inizierà prima dell’agosto 2026.


Consultazione UE sulla trasparenza dell’AI

La Commissione europea ha avviato una consultazione pubblica per sviluppare linee guida e un Codice di condotta per la trasparenza dei sistemi generativi. L’obiettivo è aiutare provider e deployer a identificare e segnalare contenuti manipolati o generati dall’intelligenza artificiale.

La scadenza per partecipare è fissata al 2 ottobre 2025, in vista dell’entrata in vigore degli obblighi di trasparenza il 2 agosto 2026.


Berlino contro il governo federale

Dalla Germania arrivano critiche severe al progetto di legge nazionale di attuazione dell’AI Act. Diciassette autorità regionali per la protezione dei dati contestano l’assegnazione delle funzioni di supervisione al regolatore delle telecomunicazioni (BNetzA), ritenendo che ciò riduca le tutele dei diritti fondamentali.

Meike Kamp, a capo dell’autorità privacy di Berlino, ha parlato di un “massiccio indebolimento dei diritti fondamentali”.


L’AI Office non ha abbastanza risorse

Il nuovo AI Office, incaricato di vigilare sull’attuazione della legge, deve gestire oltre 100 compiti, tra cui applicare il Codice di condotta e comminare sanzioni. Tuttavia, con appena 125 dipendenti e difficoltà a reclutare figure altamente specializzate, l’ufficio appare sotto organico.

Le retribuzioni (55.000-120.000 dollari annui) non competono con il settore privato, dove i tecnici più richiesti guadagnano anche milioni. Secondo l’eurodeputato Axel Voss, per garantire la sicurezza e la compliance servirebbero almeno 200 persone in più.


Il rapporto tra diritto d’autore e sviluppo dell’AI continua a essere uno dei punti più delicati. Come sottolinea Bertin Martens, senior fellow di Bruegel, le regole sul copyright riducono la disponibilità dei dati e aumentano i costi di addestramento.

Sebbene la trasparenza e la sicurezza siano gestibili, l’elevato numero di opt-out e i vincoli legali rischiano di compromettere la competitività europea. La maggior parte degli sviluppatori ha aderito al Codice di condotta, con l’eccezione di Meta e xAI.


L’industria europea assente dagli standard

Piercosma Bisconti, che lavora allo sviluppo degli standard CEN e CENELEC, ha criticato la scarsa partecipazione delle imprese europee alla definizione degli standard tecnici previsti dall’AI Act.

Colossi come Airbus, Siemens, Spotify e SAP, pur firmatari dell’iniziativa “AI champions”, non avrebbero preso parte in modo significativo ai lavori. Una contraddizione che alimenta i ritardi e le richieste di rinvio nell’applicazione della normativa.


Articoli correlati