La Commissione europea ha avviato i lavori per un codice di condotta sulla marcatura e l’etichettatura dei contenuti generati dall’intelligenza artificiale. L’obiettivo è garantire che materiali come deepfake, testi sintetici e altri contenuti prodotti dall’AI siano chiaramente identificabili come tali.
Indice degli argomenti:
Le regole dell’AI Act
Secondo l’AI Act, recentemente approvato, i fornitori e gli utilizzatori di determinati sistemi di AI – in particolare quelli generativi o interattivi – devono rispettare obblighi di trasparenza. Queste norme intendono ridurre i rischi di disinformazione, frode, impersonificazione e inganno dei consumatori, promuovendo al contempo la fiducia nell’ecosistema informativo europeo.
Un processo partecipato e guidato da esperti
La riunione plenaria inaugurale ha segnato l’inizio di un percorso inclusivo di sette mesi, coordinato dall’Ufficio europeo per l’AI. Un gruppo di esperti indipendenti guiderà i lavori, raccogliendo contributi dalla consultazione pubblica e dagli stakeholder selezionati attraverso una call aperta.
Verso un codice di condotta volontario
Il futuro codice di condotta sulla trasparenza dei contenuti generati dall’AI sarà uno strumento volontario, pensato per aiutare i fornitori di sistemi generativi a rispettare efficacemente i propri obblighi. Il documento includerà linee guida per contrassegnare audio, immagini, video e testi sintetici in formati leggibili dalle macchine, facilitando il riconoscimento automatico dei contenuti.
Applicazione dal 2026
Le nuove disposizioni entreranno in vigore ad agosto 2026 (se non ci saranno rinvii), integrandosi con le regole già previste per i sistemi di AI ad alto rischio e per i modelli di AI di uso generale.
Con questo passo, l’Unione europea ribadisce il proprio impegno nel costruire un ecosistema digitale etico, trasparente e affidabile, dove l’innovazione tecnologica vada di pari passo con la tutela dei cittadini.






