Durante un’audizione congiunta davanti alla IX Commissione (Trasporti) e alla X Commissione (Attività produttive) della Camera dei Deputati, OpenAI – il principale attore globale nel campo dell’intelligenza artificiale generativa e creatore di ChatGPT – ha espresso una critica articolata al disegno di legge n. 2316, intitolato “Disposizioni e deleghe del Governo in materia di intelligenza artificiale”. Il testo, già approvato in Senato, si trova ora sotto esame alla Camera, ma le osservazioni dell’azienda americana potrebbero incidere sull’iter parlamentare.
Indice degli argomenti:
Ddl AI: mancato allineamento con AI Act, GDPR e NIS2
Secondo OpenAI, il provvedimento italiano manca di armonizzazione con l’AI Act europeo e altre normative comunitarie fondamentali, come il GDPR sulla protezione dei dati personali – in particolare quelli sanitari – e la direttiva NIS2 sulla sicurezza informatica.
“Riteniamo essenziale che l’Italia contribuisca a tale armonizzazione assicurando l’allineamento della normativa nazionale con quella europea, evitando al contempo l’introduzione di requisiti divergenti che ostacolerebbero l’innovazione e creerebbero incertezza giuridica per gli sviluppatori e gli utenti italiani di AI”, si legge nella nota dell’azienda.
Un freno all’adozione dell’AI e un ostacolo per gli investimenti
OpenAI teme che l’attuale formulazione del disegno di legge possa compromettere l’integrità del mercato unico europeo. “Rischi di sovrapposizioni e conflitti normativi rallenterebbero l’adozione dell’AI in Italia e scoraggerebbero gli investimenti a vantaggio di giurisdizioni più coerenti e prevedibili all’interno dell’Unione”, sostiene l’azienda.
L’eventuale frammentazione normativa, dovuta all’introduzione di obblighi non coordinati con il quadro europeo, “causerebbe anche danni economici evidenti al nostro paese scoraggiando gli investimenti esteri”. Un avvertimento, quello di OpenAI, che suona come un campanello d’allarme per il legislatore italiano.

Otto articoli del Ddl AI sotto accusa: OpenAI propone modifiche sostanziali
Sono otto gli articoli del disegno di legge che OpenAI ha individuato come particolarmente problematici: 3, 6, 7, 8, 9, 13, 16 e 24, con enfasi sugli articoli 6, 8 e 16. “Sebbene il disegno di legge affermi di dover essere interpretato ‘in conformità con l’AI Act’, diverse disposizioni divergono tuttavia dal testo europeo e da altre normative, compromettendo potenzialmente tali obiettivi”, si legge nel documento trasmesso alla Camera.
Articolo 3 – Cybersecurity: obblighi troppo estesi
OpenAI critica l’estensione degli obblighi di cybersicurezza a tutti i sistemi di AI, indipendentemente dal rischio. “Il disegno di legge impone obblighi di cybersicurezza per tutti i sistemi di IA e modelli GPAI… ciò va oltre l’ambito dell’AI Act dell’UE”.
Proposta: limitare tali obblighi ai soli sistemi di alto rischio e modelli GPAI con rischi sistemici, per evitare oneri sproporzionati.
Articolo 6 – Localizzazione dei server: un vincolo incompatibile con il GDPR
L’obbligo di localizzare i server per l’AI della PA in Italia contrasta con il principio di libera circolazione dei dati sancito dal GDPR. “La promozione dell’uso dell’IA nei settori pubblico e industriale è oggetto di discussione a livello europeo…”.
Proposta: eliminare l’articolo o limitarlo ai soli casi connessi alla sicurezza nazionale.
Articolo 7 – AI in ambito sanitario: obblighi vaghi e penalizzanti
L’articolo richiede che tutti i sistemi di AI in ambito sanitario siano “affidabili, periodicamente verificati e aggiornati”, senza distinguere per livello di rischio.
Proposta: applicare questi obblighi solo ai sistemi ad alto rischio, come previsto dall’AI Act, per non frenare l’innovazione nel settore.
Articolo 8 – Dati sanitari e interesse pubblico: tutela insufficiente
OpenAI contesta la qualificazione automatica della ricerca sanitaria come “motivo di rilevante interesse pubblico”, temendo una riduzione delle garanzie per i dati personali.
Proposta: allinearsi all’art. 9(2)(j) del GDPR, richiedendo una valutazione d’impatto e, se necessario, l’approvazione di un comitato etico indipendente.
Articolo 9 – Controllo ministeriale sui dati: rischio di conflitto con l’AI Act
Il conferimento al Ministero della Salute di poteri regolatori sul trattamento dei dati tramite IA potrebbe entrare in conflitto con le regole europee sulle sandbox regolatorie.
Proposta: mantenere coerenza con il Capitolo V e il Considerando 72 dell’AI Act.
Articolo 13 – Professioni intellettuali: penalizzazione per i liberi professionisti
OpenAI contesta le restrizioni imposte all’uso dell’AI nelle libere professioni anche in assenza di rischio elevato, oltre all’introduzione di obblighi di trasparenza non previsti dall’AI Act.
Proposta: riformulare l’articolo per allinearsi rigorosamente alla normativa europea.
Articolo 16 – Decreti esecutivi senza limiti: incertezza normativa
La norma delega il Governo a introdurre nuovi obblighi dopo l’entrata in vigore della legge, senza vincoli stringenti.
Proposta: inserire una clausola di salvaguardia per evitare conflitti con l’AI Act e prevedere consultazioni pubbliche e verifica di conformità con l’Ufficio europeo per l’AI.
Articolo 24 – Responsabilità e rimozione: rischio disallineamento
Il rischio secondo OpenAI è che le nuove disposizioni su uso illecito, rimozione e responsabilità divergano dalle norme armonizzate europee.
Proposta: introdurre una clausola che vincoli ogni nuovo decreto alla coerenza con l’AI Act e imponga consultazione con l’Ufficio europeo.
Conclusione: un invito all’allineamento europeo
Le osservazioni di OpenAI rappresentano un appello chiaro alla politica italiana: allineare la normativa nazionale all’AI Act e alle altre disposizioni europee per evitare un effetto boomerang su sviluppo tecnologico, investimenti e competitività. Il messaggio è netto: “Solo un quadro normativo armonizzato può garantire certezza giuridica, favorire l’innovazione e tutelare adeguatamente i cittadini”.