L’inesorabile ascesa e ampia diffusione di grandi modelli di AI generali e multimodali (GPAI) con capacità generativa di contenuti linguistici e visivi – e dei relativi sistemi di AI a valle usati dagli utenti – solleva timori di vulnerabilità umana e preoccupazione circa la protezione, tra gli altri, dei diritti di proprietà intellettuale.
I nuovi modelli di GPAI generativa sono infatti sempre più potenti e tecnologicamente complessi, al punto da rendere difficile, anche per gli esperti, ricostruire e tracciare, passo a passo, i set di dati utilizzati per il loro addestramento e le loro decisioni algoritmiche. Al fine di assicurare una intelligenza artificiale etica e umano centrica e gestire le sue cosiddette scatole nere, è ormai essenziale assicurare la sua spiegabilità (XAI, eXplainable AI), rendendo il più possibile trasparente il suo funzionamento.
Gli obblighi introdotti dall’AI Act
In questo contesto, l’AI Act europeo (entrato in vigore ad agosto 2024), che regolamenta lo sviluppo e l’uso di modelli e sistemi di AI posti in commercio nell’Unione Europea, introduce una serie di obblighi volti a garantire, in una certa misura, la loro trasparenza. La possibilità di comprendere, in misura appropriata, i modelli e sistemi di AI, specie se generativa, è infatti un requisito essenziale sia in ottica di controllo e gestione dei loro rischi da parte delle autorità europee e nazionali competenti, sia per accrescere la fiducia del pubblico di utenti, in particolare gli utenti finali che interagiscono con sistemi di AI.
La trasparenza sul funzionamento dei modelli di GPAI generativa potrebbe tuttavia avere l’effetto indesiderato di determinare la divulgazione di proprietà intellettuale, informazioni riservate e segreti industriali e commerciali dei loro fornitori. È quindi emersa l’esigenza di trovare un delicato equilibrio tra la necessità di spiegabilità dei modelli e sistemi di GPAI generativa e questi ultimi diritti.
La spiegabilità dei modelli di GPAI generativa
In questo scenario e fatta eccezione per i modelli di GPAI generativa open source e a basso impatto, l’AI Act impone ai loro fornitori di predisporre, aggiornare e fornire manuali e documentazione tecnici dettagliati riguardanti l’architettura dei modelli e i set di dati utilizzati per il loro addestramento, sia alle autorità europee e nazionali competenti, sia ai fornitori a valle che intendano integrare i modelli nei loro sistemi, affinché possano a loro volta adempiere i loro obblighi di trasparenza.
Tutte le citate informazioni non devono invece essere fornite né ai deployer, intesi come utilizzatori professionali, né agli utenti finali, di sistemi di AI a valle.
Occorre inoltre precisare che tali misure di trasparenza devono rispondere a un principio di proporzionalità, per cui le informazioni da fornire devono essere contemporaneamente accessibili all’uomo, necessarie e idonee allo scopo, mentre, in futuro, troveranno applicazione codici di condotta e standard armonizzati, volti a facilitare l’adempimento degli impegni di fornitori.
D’altra parte, sia le autorità di controllo che i fornitori di sistemi a valle sono tenuti a rispettare precisi doveri di riservatezza delle informazioni ricevute.
Questo approccio bilanciato è finalizzato quindi a consentire alle autorità preposte di verificare la conformità dei modelli di AI con il dettato normativo e, parallelamente, a evitare sia una divulgazione di informazioni quantitativamente e qualitativamente eccessiva, sia il pregiudizio di diritti di proprietà intellettuale, specie con riferimento a strutture algoritmiche o set di dati protetti anche da segreti industriali.

Il rispetto dei diritti d’autore
I fornitori di tutti i modelli di GPAI generativa, anche open source, sono poi obbligati a fornire informazioni anche con riferimento ai contenuti protetti da diritti di autore utilizzati per l’addestramento dei modelli da loro commercializzati. L’AI Act impone infatti che non solo implementino specifiche politiche di rispetto dei diritti di autore, o meglio, soluzioni tecnologiche, conformi allo stato dell’arte, per correttamente identificare le riserve di diritti o opt-out dei titolari di diritti di autore volte a prevenire l’eccezione di estrazione di testi e dati e quindi il libero inserimento, a certe condizioni, di contenuti protetti nei set di dati di addestramento di modelli di AI; i fornitori di modelli di AI sono anche tenuti a pubblicare un sommario sufficientemente dettagliato dei contenuti usati per l’addestramento dei loro modelli, secondo le linee guida che verranno fornite dalle autorità europee.
Al fine di garantire, ancora una volta, un equilibrio ragionevole tra trasparenza e rispetto dei diritti di proprietà intellettuale dei fornitori di modelli, ad esempio sulle banche dati da loro costituite, siffatto sommario non esige la fornitura di un elenco specifico di tutti i dati di addestramento dei modelli, ma soltanto una ragionevole elencazione e descrizione dei set di dati e delle fonti degli stessi.
Gli obblighi di trasparenza per i modelli di GPAI generativa ad alto impatto
Onde tenere conto della potenza, in termini di capacità computazionale, ampiezza di dati e portata, dei più sofisticati e attuali modelli di GPAI generativa, l’AI Act introduce anche la categoria dei modelli ad alto impatto o a rischio sistemico, imponendo ai loro fornitori obblighi di trasparenza aggiuntivi, in particolare con riferimento a valutazioni di rischio e test, reportistica di incidenti gravi e misure di cybersecurity.
Anche per detti obblighi trovano però applicazione il principio di proporzionalità, i doveri di riservatezza dei destinatari delle informazioni e la possibilità, futura, per i fornitori di avvalersi di codici di condotta e standard unificati.
Gli obblighi di trasparenza di fornitori e deployer di sistemi di GPAI generativa
Per parte loro, i fornitori di sistemi di AI a valle devono informare, in modo chiaro e immediatamente in occasione del primo utilizzo, tutti gli utenti degli stessi che stanno usando un sistema di AI.
Con specifico riferimento agli output generati da detti sistemi, gli stessi fornitori devono poi implementare (o assicurarsi che i fornitori a monte abbiano implementato) soluzioni tecnologiche di marcatura, leggibili anche da dispositivi e conformi agli standard che verranno approvati dalle autorità europee competenti, capaci di rendere tali output immediatamente e chiaramente identificabili, da parte degli utenti, come sintetici.
I deployer di sistemi di GPAI generativa devono invece informare il pubblico di utenti finali della natura artificiale di output che consistono in contenuti che siano divulgati per fini informativi su temi di pubblico interesse oppure in deepfake, definiti come immagini o contenuti audio o visivi che assomigliano a persone, oggetti, luoghi o eventi e che appaiono falsamente autentici o veritieri. Detto obbligo non trova applicazione in merito a output testuali sottoposti a controllo umano e nel caso esista un soggetto che ne assuma la responsabilità editoriale.
Nessuno degli obblighi di trasparenza appena descritti interferisce con i diritti di proprietà intellettuale dei fornitori di modelli o sistemi di AI.
Il Disegno di legge italiano
In Italia, è attualmente in corso di esame in Parlamento il disegno di legge approvato dal Governo il 23 aprile scorso[1], che prevede al suo articolo 23 e a carico di autori e titolari di diritti di sfruttamento economico di deepfake trasmessi su piattaforme di fornitori di servizi audiovisivi e radiofonici, l’obbligo aggiuntivo di marcarli con l’acronimo AI e di utilizzare annunci appropriati prima, durante e al termine della loro fruizione da parte degli utenti di dette piattaforme.
Alla data del presente articolo, sono stati presentati e sono in corso di discussione diversi emendamenti al disegno di legge, inclusi emendamenti alla norma citata.
Conclusioni
La soluzione adottata a livello europeo si fonda su di una nozione di trasparenza improntata a proporzionalità, in modo che non vi sia divulgazione di tutte le informazioni protette da proprietà intellettuale, ma solo di quelle quantitativamente e qualitativamente necessarie allo scopo rilevante, e flessibilità, così che diversi tipi e livelli di trasparenza appropriata siano applicati a diversi stakeholder della catena del valore (autorità, fornitori a valle, deployer e pubblico generalizzato di utenti).
In altre parole, la trasparenza e la spiegabilità dell’intelligenza artificiale non devono incidere in maniera sproporzionata sui diritti di proprietà intellettuale ed è ragionevole che siano limitate alla fornitura di “informazioni minime necessarie affinché le persone possano esercitare il loro diritto a un ricorso effettivo e alla necessaria trasparenza presso le autorità di controllo e di contrasto, in linea con i loro mandati.”[2]
In definitiva, l’Unione Europea ha dovuto raccogliere la sfida di bilanciare l’innovazione tecnologica con la necessità di un suo utilizzo etico e rispettoso dei diritti fondamentali, che includono anche la libertà di iniziativa economica e i diritti di proprietà intellettuale.
Note
Si vedano i paragrafi 2.3 e 3.5 della Relazione della Commissione Europea relativa alla Proposta di regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione del 21.4.2021. ↑
Si veda il Disegno di Legge S.1146. ↑