Normative

AI Act: cosa dicono le norme sul diritto d’autore



Indirizzo copiato

Ecco come il Regolamento europeo sull’intelligenza artificiale, approvato dal Parlamento il 13 marzo e in via di adozione, affronta il problema del copyright nell’addestramento di sistemi AI

Pubblicato il 26 mar 2024

Simone Aliprandi

avvocato – professore a contratto in Diritto delle tecnologie digitali e della proprietà intellettuale presso Università di Bologna



AI Act
Credit: Consiliium Europa

AI Act e diritto d’autore: cosa cambierà con l’entrata in vigore del regolamento europeo sull’intelligenza artificiale? In quale misura le nuove norme europee incideranno su questo tema? Cerchiamo di dare risposta a questi interrogativi.

La valutazione della bozza del Regolamento attualmente disponibile

Da quando mi sono avventurato nel tema tanto affascinante quanto scivoloso dei rapporti tra intelligenza artificiale generativa e diritto d’autore, mi trovo a dover fronteggiare costantemente i commenti e le raccomandazioni di lettori e follower sull’avvento del nuovo Regolamento europeo sull’intelligenza artificiale (AI Act).

“Hai visto che hanno approvato il regolamento? Adesso cambierà tutto!”, mi scrivono. È davvero così? Ci sarà questo grande cambiamento sul piano del diritto della proprietà intellettuale?

Nei giorni scorsi mi è comparso un meme molto simpatico, benché comprensibile solo ai giuristi, forse nemmeno a tutti: c’era l’immagine del giurista e filosofo Hans Kelsen e la scritta “lui ti vede che commenti l’AI Act prima che sia stata formalmente approvato e pubblicato”.

Mi trovo quindi a scrivere questo articolo con quell’immagine che mi ronza in testa, chiedendo al buon Kelsen di essere magnanimo e di non espellermi con disonore dal consesso dei giuristi. D’altro canto, non possiamo che dare ragione a quel meme; le norme si commentano solo quando si ha davvero un testo definitivo e possibilmente quando sono già state pubblicate in Gazzetta Ufficiale, perché è solo in quel momento che davvero possiamo essere sicuri di non prendere cantonate. Eppure, eccomi qui a cercare di fare un po’ di chiarezza su un tema fin troppo foriero di leggende metropolitane e di equivoci.

Il testo a cui faccio riferimento in questo mio articolo è quello disponibile nel documento PDF presente sul sito data.consilium.europa.eu, risalente allo scorso 26 gennaio e che – pare – è quello giunto a definitiva approvazione lo scorso 14 marzo. Questo testo, tuttavia, mostra ancora qualche punto non chiaro, che sicuramente dovrà essere oggetto di una ulteriore sistemazione e riorganizzazione; ad esempio, la numerazione degli articoli e dei Considerando non sembra quella definitiva. E comunque si tratta ancora di un testo solo in lingua inglese; le traduzioni arriveranno nei prossimi mesi e non è detto che non portino a loro volta qualche sorpresa e complicazione.

Di seguito riporterò degli estratti del regolamento con la numerazione provvisoria attualmente disponibile e in una traduzione italiana da me curata e dunque assolutamente non ufficiale.

La trasparenza è una soluzione sufficiente?

Altra questione da tenere presente. Il tema del diritto d’autore legato all’addestramento dei sistemi AI con opere tutelate non era nemmeno contemplato nella prima bozza di regolamento risalente all’aprile 2021. Come molti sapranno, l’approccio iniziale era quello “risk based”, mirato a regolamentare lo sviluppo e l’utilizzo di sistemi AI secondo diversi livelli di rischio e con un occhio di riguardo per lo più rivolto verso il tema della cybersecurity e della data protection. Sono stati la diffusione al grande pubblico delle piattaforme di intelligenza artificiale generativa (iniziata nell’autunno del 2022) e il conseguente acceso dibattito sui potenziali rischi di violazione dei diritti d’autore a portare il legislatore europeo a correggere il tiro.

Qual è dunque la soluzione che dovrebbe (condizionale d’obbligo) risolvere o almeno contenere i problemi di diritto d’autore? La soluzione individuata nel regolamento è quella della trasparenza: l’idea di fondo consiste nell’obbligare i fornitori di sistemi di intelligenza artificiale a dichiarare con quali dataset hanno compiuto l’addestramento e anche a rendere esplicito quando un’opera dell’ingegno è stata generata tramite AI.

Ai posteri lasciamo l’onere di stabilire se ciò sarà davvero risolutivo e, soprattutto, se il meccanismo sia realmente praticabile e verificabile dalle istituzioni, in modo che abbia un concreto valore normativo e non rimanga solo una dichiarazione di principi, una sorta di manifesto di quello che dovrebbe essere il mondo ideale.

Nell’attesa che i posteri si pronuncino, comunque dovremo far passare almeno i prossimi due anni per vedere l’AI act definitivamente implementato e operativo; e con l’accelerazione che queste tecnologie stanno mostrando, tra due anni il mondo sarà già molto molto diverso, con il rischio di far diventare questo nobile tentativo di regolamentazione già fuori dal tempo. I sistemi di intelligenza artificiale saranno già stati ampiamente addestrati e difficilmente si potrà chiedere loro di “disimparare” ciò che hanno imparato in questi anni; e ciò indipendentemente dal menzionato obbligo di trasparenza e da eventuali orientamenti giurisprudenziali a favore dei titolari dei diritti.

Che cosa dicono i Considerando in tema di diritto d’autore?

Andando più nel dettaglio, passiamo in rassegna le parti dell’ultima bozza dedicate al tema del diritto d’autore.

Partiamo dai Considerando, cioè da quelle note preliminari, che pur non essendo norme giuridiche in senso pieno, hanno un fondamentale valore interpretativo e di contestualizzazione nelle direttive e nei regolamenti dell’Unione Europea.

Nel Considerando 60 (a pagina 61 del documento PDF) si sottolinea che il mero rilascio in modalità open source (licenza libera e disponibilità del codice sorgente) del software e modello di intelligenza artificiale non è sufficiente a ottemperare gli obblighi di trasparenza, poiché non fornisce tutte le informazioni sui dataset utilizzati ai fini di addestramento.

Dato che il rilascio di modelli di AI di scopo generale con licenza libera e open source non rivela necessariamente informazioni sostanziali sul set di dati utilizzato per l’addestramento o la messa a punto del modello e su come in tal modo è stato garantito il rispetto della normativa sul diritto d’autore, l’eccezione prevista per i modelli di IA di uso generale dal rispetto degli obblighi di trasparenza non dovrebbe riguardare l’obbligo di produrre una sintesi del contenuto utilizzato per la formazione dei modelli e l’obbligo di attuare una politica volta a rispettare il diritto d’autore dell’Unione, in particolare per individuare e rispettare le riserve di diritto espresse ai sensi dell’articolo 4, paragrafo 3, della Direttiva (UE) 2019/790.

Il riferimento alla direttiva sul copyright del 2019 riguarda l’eccezione al diritto d’autore che riguarda il cosiddetto text and data mining (estrazione di testo e dati da opere intellettuali protette), che appunto può essere svolto liberamente solo nei limiti indicati nell’articolo 4.

Poco dopo nella stessa pagina viene trattato il nodo centrale della questione. Riporto integralmente il paragrafo.

I modelli di uso generale, in particolare i modelli generativi di grandi dimensioni, in grado di generare testo, immagini e altri contenuti, presentano opportunità di innovazione uniche ma anche sfide per artisti, autori e altri creatori e il modo in cui i loro contenuti creativi vengono creati, distribuiti, utilizzati e consumati. Lo sviluppo e la formazione di tali modelli richiedono l’accesso a una vasta gamma di risorse di testo, immagini, video e altri dati. Le tecniche di text e data mining possono essere ampiamente utilizzate in questo contesto per il recupero e l’analisi di tali contenuti, che possono essere protetti da copyright e diritti connessi. Qualsiasi utilizzo di contenuti protetti da copyright richiede l’autorizzazione del relativo titolare dei diritti, a meno che non si applichino eccezioni e limitazioni relative al copyright. La direttiva (UE) 2019/790 ha introdotto eccezioni e limitazioni che consentono riproduzioni ed estrazioni di opere o altro materiale, a fini di estrazione di testo e dati, a determinate condizioni. In base a queste regole, i titolari dei diritti possono scegliere di riservarsi i propri diritti sulle proprie opere o altri argomenti per impedire il text and data mining, a meno che ciò non avvenga a fini di ricerca scientifica. Laddove il diritto di opt-out sia stato espressamente riservato in modo adeguato, i fornitori di modelli di IA per scopi generali devono ottenere un’autorizzazione dai titolari dei diritti se vogliono effettuare text e data mining su tali opere.

Questo ci fa capire come mai alcuni titolari di diritti si sono portati avanti e stanno già esponendo un disclaimer in cui si riservano il diritto di autorizzare l’utilizzo delle proprie opere a fini di addestramento di AI. Il caso più vistoso è Mediaset che già da qualche mese fa comparire un simile disclaimer nei titoli di testa o di coda delle sue produzioni televisive.

Nella pagina successiva la bozza invece spiega più nel dettaglio come i provider di sistemi AI possono garantire un livello sufficiente di trasparenza.

Al fine di aumentare la trasparenza dei dati utilizzati nella preformazione e nella formazione di modelli di IA per scopi generali, compresi testi e dati protetti dalla normativa sul diritto d’autore, è adeguato che i fornitori di tali modelli elaborino e rendano disponibili al pubblico un riepilogo sufficientemente dettagliato del contenuto utilizzato per la formazione del modello generale.

Infine, poco dopo, il testo attribuisce al nuovo AI Office europeo la competenza di verificare il rispetto di questi obblighi di trasparenza e l’adeguatezza del documento di riepilogo di cui al paragrafo precedente.

Che cosa dicono le norme del Regolamento

Lasciamo ora la parte del documento con i Considerando e passiamo invece alla parte con le norme del regolamento vere e proprie.

All’articolo 52c (pagina 168 del PDF) vengono definiti gli obblighi per i fornitori di modelli di IA per scopi generali e tra questi se ne trovano alcuni proprio in tema di rispetto del diritto d’autore. Riporto un estratto dell’articolo con le sole parti di interesse.

I fornitori di modelli di IA per scopi generali:

a) [omissis]

b) [omissis]

c) mettono in atto una politica di rispetto del diritto d’autore dell’Unione, in particolare per individuare e rispettare, anche attraverso tecnologie all’avanguardia, le riserve di diritti espresse a norma dell’articolo 4, paragrafo 3, della direttiva (UE) 2019/790;

d) redigono e rendono pubblica una sintesi sufficientemente dettagliata dei contenuti utilizzati per la formazione del modello di IA generale, secondo un template fornito dall’AI Office.

È forse questa la norma centrale del regolamento in fatto di diritto d’autore. Sarà tuttavia necessario attendere la divulgazione di questo template da parte dell’AI Office per capire meglio quale dovrà essere il livello di dettaglio.

Un’altra norma interessante è il comma 3 dell’art. 52 (pagina 165 del documento PDF), articolo rubricato “Obblighi di trasparenza per fornitori e utenti di determinati sistemi di IA e modelli GPAI”.

Gli utilizzatori di un sistema di AI che genera o manipola contenuti di immagini, audio o video che costituiscono un deep fake, comunicano che il contenuto è stato generato o manipolato artificialmente. Tale obbligo non si applica qualora l’utilizzo sia autorizzato dalla legge per accertare, prevenire, indagare e perseguire illeciti penali. Qualora il contenuto faccia parte di un’opera o di un programma analogo evidentemente artistico, creativo, satirico o di fantasia, gli obblighi di trasparenza stabiliti nel presente paragrafo si limitano alla divulgazione dell’esistenza di tale contenuto generato o manipolato in modo adeguato da non ostacolare la esposizione o fruizione dell’opera.

Gli utilizzatori di un sistema di AI che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico comunicano che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica qualora l’uso sia autorizzato dalla legge per accertare, prevenire, indagare e perseguire reati o qualora il contenuto generato dall’intelligenza artificiale sia stato sottoposto a un processo di revisione umana o controllo editoriale e qualora una persona fisica o giuridica detenga la responsabilità editoriale per la pubblicazione dei contenuti.

Si tratta di una norma non proprio attinente all’ambito del diritto d’autore ma comunque relativa alle modalità di divulgazione e fruizione di opere dell’ingegno, modalità che subiranno un impatto non indifferente con la sempre maggiore diffusione dei sistemi di intelligenza artificiale generativa.

Commenti conclusivi

Come si può già percepire dalla lettura di queste norme, tutto l’apparato normativo è concepito come un insieme di regole, eccezioni ed eccezioni alle eccezioni che si applicano a seconda che il sistema di AI rientri in una delle varie categorie previste dal regolamento oppure che l’utilizzo fatto possa comportare un particolare livello di rischio.

A mio avviso rimangono norme davvero complicate già nella loro comprensione e ancor più nella loro applicazione concreta e quindi nella loro effettività e cogenza (cioè la capacità di obbligare concretamente i destinatari delle norme a comportarsi in un determinato modo).

A ciò si aggiunge la velocità con cui questo settore sta evolvendo, che renderà ancora più scivolosa l’applicazione di un regolamento concepito tra il 2021 e il 2023 ma definitivamente in vigore e operativo solo a metà del 2026, quando il mondo dell’AI sarà ancora cambiato molto.

Senza ovviamente dimenticare che, mentre nel vecchio continente stiamo cercando di risolvere il problema del diritto d’autore nel settore AI stabilendo un obbligo di trasparenza, la vera partita si sta già giocando negli Stati Uniti in sede giurisprudenziale. Le risposte più interessanti le avremo infatti quando arriveranno a sentenza definitiva le interessanti cause già in corso (principalmente quelle promosse da Getty Images per le immagini e da New York Times per i testi) e ci diranno se e in quali termini l’attività di addestramento può essere coperta dal fair use.

Articoli correlati

Articolo 1 di 3