normative

AI Act, l’UE inaugura un altro tassello



Indirizzo copiato

Al via i lavori per un codice di condotta sull’etichettatura dei contenuti generati dall’AI. L’iniziativa, guidata da esperti indipendenti, mira a stabilire linee guida per il contrassegno di testi, immagini, video e audio sintetici, rafforzando la fiducia pubblica e prevenendo la disinformazione

Pubblicato il 7 nov 2025



codice di condotta etichettatura contenuti generati AI

La Commissione europea ha avviato i lavori per un codice di condotta sulla marcatura e l’etichettatura dei contenuti generati dall’intelligenza artificiale. L’obiettivo è garantire che materiali come deepfake, testi sintetici e altri contenuti prodotti dall’AI siano chiaramente identificabili come tali.


Le regole dell’AI Act

Secondo l’AI Act, recentemente approvato, i fornitori e gli utilizzatori di determinati sistemi di AI – in particolare quelli generativi o interattivi – devono rispettare obblighi di trasparenza. Queste norme intendono ridurre i rischi di disinformazione, frode, impersonificazione e inganno dei consumatori, promuovendo al contempo la fiducia nell’ecosistema informativo europeo.


Un processo partecipato e guidato da esperti

La riunione plenaria inaugurale ha segnato l’inizio di un percorso inclusivo di sette mesi, coordinato dallUfficio europeo per l’AI. Un gruppo di esperti indipendenti guiderà i lavori, raccogliendo contributi dalla consultazione pubblica e dagli stakeholder selezionati attraverso una call aperta.


Verso un codice di condotta volontario

Il futuro codice di condotta sulla trasparenza dei contenuti generati dall’AI sarà uno strumento volontario, pensato per aiutare i fornitori di sistemi generativi a rispettare efficacemente i propri obblighi. Il documento includerà linee guida per contrassegnare audio, immagini, video e testi sintetici in formati leggibili dalle macchine, facilitando il riconoscimento automatico dei contenuti.


Applicazione dal 2026

Le nuove disposizioni entreranno in vigore ad agosto 2026 (se non ci saranno rinvii), integrandosi con le regole già previste per i sistemi di AI ad alto rischio e per i modelli di AI di uso generale.
Con questo passo, l’Unione europea ribadisce il proprio impegno nel costruire un ecosistema digitale etico, trasparente e affidabile, dove l’innovazione tecnologica vada di pari passo con la tutela dei cittadini.

Articoli correlati