Intelligenza artificiale e governance dei dati, l’UE presenta le regole per l’ecosistema digitale

Al centro delle intenzioni della Commissione europea c’è una nuova politica di mercato digitale unico. Presentato anche un Libro Bianco sull’intelligenza artificiale

Pubblicato il 24 Feb 2020

L’Unione Europea ha rivelato la sua nuova politica di mercato digitale unico, che avrà implicazioni ad ampio raggio per società come Microsoft, Google, Amazon e Facebook, nonché per altre multinazionali che raccolgono grandi quantità di dati degli utenti per inviarli agli algoritmi di Intelligenza Artificiale.

Lo scorso 19 febbraio, infatti, la Commissione europea ha svelato i suoi piani tanto attesi su come vuole regolare l’intelligenza artificiale (AI) e promuovere una maggiore condivisione dei dati in tutta l’Unione per stimolare un’ulteriore crescita e concorrenza nei servizi digitali.

Entrambe le proposizioni comportano cambiamenti – e forse problemi – per le grandi aziende tecnologiche: qualsiasi ulteriore (e onerosa) normativa europea sull’intelligenza artificiale potrebbe essere in conflitto con le regole di altre giurisdizioni, costringendo nel contempo aziende come Amazon, Google e Facebook a condividere dati anonimi con le aziende più piccole che possono così iniziare a minacciare le loro posizioni dominanti, nonché aumentare il controllo regolamentare sul modo in cui raccolgono, condividono e vendono tali dati in primo luogo.

Al centro delle proposte c’è il desiderio della Commissione di chiarire le stesse rigide regole che regolano i modelli di business tradizionali – protezione dei consumatori, concorrenza leale e privacy dei dati – e devono ancora essere applicate al mercato digitale; tali dati dovrebbero essere visti come merce negoziabile più o meno allo stesso modo di qualsiasi altra.

Dati e AI, ecco come la Ue vuole colmare il gap digitale con gli Usa

Le linee guida della Commissione puntano sui dati e su una intelligenza artificiale ampiamente controllata dall’uomo. Su questo principio il “Libro bianco sull’intelligenza artificiale”, presentato sempre il 19 febbraio e aperto alla consultazione fino al 19 maggio, definisce le opzioni preferite dell’UE per un quadro legislativo per un’AI “affidabile”, per garantire che la tecnologia non venga “abusata”. Questo documento spiega che devono esserci salvaguardie in modo che le vittime di un uso improprio dell’AI possano chiedere un risarcimento finanziario (anche se la Commissione momentaneamente ha omesso di scrivere le regole di responsabilità).

Tra le modifiche che la Commissione intende introdurre con il Libro bianco sull’intelligenza artificiale vi è l’obbligo di utilizzare dati imparziali per la formazione dei sistemi ad alto rischio in modo che “funzionino correttamente” e “assicurino il rispetto dei diritti fondamentali, in particolare la non discriminazione”.

Inoltre la Commissione ha voluto fare anche una distinzione tra AI “ad alto rischio” e “a basso rischio”, suggerendo che una regolamentazione mirata ai primi debba essere abbastanza flessibile da consentire la crescita dell’innovazione della tecnologia AI a basso rischio. “Norme chiare devono affrontare i sistemi di IA ad alto rischio senza gravare troppo su quelli meno rischiosi”,  ha affermato il presidente della Commissione Ursula von der Leyen.

Per i casi ad alto rischio, come quelli relativi alla salute, alla polizia o ai trasporti, la Commissione afferma che i sistemi di intelligenza artificiale dovrebbero essere “trasparenti, rintracciabili e garantire il controllo umano”. Le autorità dovrebbero essere in grado di testare e certificare i dati utilizzati dagli algoritmi nello stesso modo in cui controllerebbero cosmetici, automobili o giocattoli, ad esempio.

Per le applicazioni di intelligenza artificiale a basso rischio, la Commissione prevede un sistema di etichettatura volontario se gli sviluppatori applicano standard più elevati.

Infine, l’organo esecutivo dell’UE afferma che tutte le applicazioni di intelligenza artificiale sono benvenute nel mercato europeo “purché rispettino le norme dell’UE”, un riferimento al fatto che molte aziende tecnologiche sono ancora più fortemente concentrate sulla produzione, commercializzazione e sfruttamento di app e altri dati soluzioni tecnologiche correlate rispetto al controllo per verificare se rispettano la privacy dei dati o le regole di concorrenza prima del rilascio.

Un altro Libro bianco, di “follow-up” su sicurezza, responsabilità, diritti fondamentali e dati sull’uso dell’intelligenza artificiale sarà pubblicato nel quarto trimestre di quest’anno.

L’altro fronte è quello dell’economia dei dati

Come parte delle strategia di  mercato digitale unico, l’Unione Europea prevede entro la fine dell’anno di introdurre una legge sui servizi digitali, che imporrà maggiori responsabilità alle piattaforme online per monitorare i loro contenuti e servizi per proteggere i diritti degli utenti. L’Unione europea esaminerà inoltre i modi per indurre le grandi imprese tecnologiche a pagare più tasse sulle entrate generate nel mercato unico.

Mentre la UE vuole introdurre regole per garantire che lo sviluppo e l’uso dell’AI rimangano etici, la spinta generale della sua strategia di dati è quella di aprire il mercato, in particolare per ottenere l’accesso alle piccole imprese europee. E per enfatizzare questa condotta, la Commissione chiarisce che le Big Tech dovranno imparare a condividere, possibilmente su base “FRAND” (fair, reasonable, and non-discriminatory), come viene utilizzata nella concessione di licenze di brevetto.

“I dati dovrebbero essere disponibili per tutti, siano essi pubblici o privati, grandi o piccoli, start-up o giganti, afferma la Commissione UE, nell’era digitale, garantire condizioni di parità per le imprese, grandi e piccole, è più importante che mai. Alcune piattaforme hanno acquisito dimensioni significative, il che consente loro di agire come gatekeeper privati ​​per mercati, clienti e informazioni. Dobbiamo garantire che il ruolo sistemico di alcune piattaforme online e il potere di mercato che acquisiscono non metteranno in pericolo l’equità e l’apertura dei nostri mercati “.

Conclusioni

Mentre l’Unione europea può sicuramente aprire la strada alla regolamentazione dei dati, è in ritardo in termini di creazione di giganti della tecnologia. Delle dieci maggiori aziende tecnologiche attualmente operative, otto provengono dagli Stati Uniti e due dall’Asia.

Per stimolare la crescita tecnologica europea, la Commissione ritiene che occorra una maggiore condivisione e riutilizzo dei dati, in particolare per quanto riguarda gli enti pubblici. Come tale, vuole sviluppare un quadro legislativo e standard operativi per creare “spazi di dati europei” che consentano alle imprese, ai governi e ai ricercatori di mettere in comune, archiviare e accedere ai dati reciproci per aiutare a promuovere l’ulteriore innovazione di AI e tecnologia in settori come produzione industriale, sanità e tecnologie verdi.

“I dati non personali possono sostenere la progettazione e lo sviluppo di prodotti e servizi nuovi, più efficienti e più sostenibili e possono essere riprodotti praticamente a costo zero”, ha dichiarato la presidente della Commissione, von der Leyen, in una nota. “Eppure oggi, l’85% delle informazioni che produciamo viene lasciato inutilizzato. Questo deve cambiare. ”

In definitiva, l’UE si trova di fronte a una difficile strada da percorrere nel tentativo di mantenere la promessa di offrire un vantaggio alle aziende locali, nonché una potenziale guerra commerciale con gli Stati Uniti. La Commissione Europea ha multato i giganti della tecnologia americana per violazioni dell’antitrust e sta anche esplorando l’idea di tenere grandi piattaforme social legalmente responsabili dei contenuti generati dagli utenti.

Il Commissario europeo per il mercato interno, Thierry Breton, ha dichiarato in una dichiarazione pubblica che “la battaglia per i dati industriali inizia ora e l’Europa sarà il principale campo. L’Europa ha la più grande base industriale. I vincitori di oggi non saranno i vincitori di domani”.

Come hanno reagito alla nuova strategia europea di mercato digitale unico le Big tech americane? Facebook ha affermato a denti stretti di essere ampiamente favorevole alla condivisione dei dati, sia da parte dell’utente che tra le aziende, ma ha aggiunto di avere bisogno di maggiore chiarezza sulle regole, incluso il modo in cui i dati personali sono definiti, per la propria certezza giuridica e per spiegare alla propria comunità di utenti. Amazon e Google hanno rifiutato di commentare.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4