normative

Un docente dell’Università di Pisa nominato vice-chair UE per la trasparenza dei contenuti generati dall’AI



Indirizzo copiato

Dino Pedreschi assume la carica di vice-chair del gruppo europeo che svilupperà il Code of Practice on transparency of AI-generated content, parte dell’AI Act. L’obiettivo è definire regole e buone pratiche per rendere riconoscibili i contenuti prodotti da intelligenze artificiali, rafforzando fiducia e responsabilità digitale in Europa

Pubblicato il 7 nov 2025



Dino Pedreschi vice-chair del gruppo europeo AI Act

Dino Pedreschi, docente di Informatica all’Università di Pisa, è stato nominato vice-chair del gruppo di lavoro europeo incaricato di sviluppare il Code of Practice on transparency of AI-generated content, uno dei pilastri del nuovo Regolamento europeo sull’Intelligenza Artificiale (AI Act).

La nomina, annunciata dalla Commissione Europea il 5 novembre 2025, segna l’avvio ufficiale dei lavori che porteranno nei prossimi mesi alla pubblicazione della prima versione del codice.


Trasparenza e fiducia nell’era dell’AI generativa

Il Code of Practice, promosso dallo European AI Office della Commissione Europea, mira a definire linee guida operative per la marcatura e l’etichettatura dei contenuti generati da sistemi di intelligenza artificiale – testi, immagini, audio e video – rendendoli chiaramente riconoscibili come tali.

Lo strumento è destinato a supportare l’attuazione dell’articolo 50 dell’AI Act, che obbliga fornitori e utilizzatori di modelli generativi a segnalare quando un contenuto è stato prodotto artificialmente. L’obiettivo è contrastare la disinformazione e rafforzare la fiducia dei cittadini nelle tecnologie basate su AI.


Buone pratiche per l’intelligenza artificiale responsabile

Dino Pedreschi vice-chair del gruppo europeo AI Act
Dino Pedreschi

Il gruppo di lavoro riunisce esperti accademici, rappresentanti dell’industria e organizzazioni della società civile europea. In qualità di vice-chair, Pedreschi contribuirà alla definizione delle buone pratiche di trasparenza e responsabilità per i sistemi di nuova generazione, con particolare attenzione ai fornitori di modelli di AI generativa.

“Il codice di condotta sulla trasparenza dei contenuti generati dall’IA sarà uno strumento volontario volto ad aiutare i fornitori di sistemi di IA generativa a rispettare i loro obblighi di trasparenza – commenta Pedreschi – Il codice supporterà l’etichettatura dei contenuti generati dall’IA, inclusi audio, immagini, video e testo sintetici, in formati leggibili dalle macchine per consentirne il rilevamento.”


Etichettare per informare e tutelare

Pedreschi sottolinea anche il ruolo del codice nel supportare gli utilizzatori dei sistemi di IA generativa: “Aiuterà anche gli utilizzatori che usano deepfake o contenuti generati dall’IA nel dichiarare chiaramente il coinvolgimento dell’IA, specialmente quando informano il pubblico su questioni di interesse generale.”

Questa iniziativa rappresenta un passo importante verso una cultura della trasparenza e della responsabilità digitale, rafforzando l’impegno dell’Unione Europea nel garantire che l’uso dell’intelligenza artificiale sia etico, tracciabile e al servizio della collettività.

Articoli correlati