Scenari

La Cina pubblica gli algoritmi delle Big Tech

Una innovativa legge introdotta a marzo 2022 richiede alle aziende di informare “in modo evidente” gli utenti se vengono utilizzati i cosiddetti “algoritmi di raccomandazione”. Le grandi aziende cinesi sono tenute perciò a fornire una serie di dettagli al fine di consentire alla Cyberspace Administration di verificare la conformità di tali algoritmi, ed eventualmente individuare rischi e violazioni nei confronti dei consumatori

Pubblicato il 09 Set 2022

Cina algoritmi

Nel mese di agosto, la Cyberspace Administration of China (CAC) della Cina ha pubblicato una lista di circa 30 algoritmi utilizzati dalle più importanti e influenti società internet cinesi, tra cui ByteDance, proprietaria di TikTok, il colosso dell’e-commerce Alibaba e Tencent, proprietaria di WeChat, il principale servizio di messaggistica cinese. Sulla base di una innovativa legge introdotta a marzo 2022 in Cina, che richiede alle aziende di informare “in modo evidente” gli utenti se vengono utilizzati algoritmi per inviare loro dei contenuti, i cosiddetti “algoritmi di raccomandazione”, le grandi aziende cinesi sono tenute a fornire una serie di dettagli al fine di consentire alla Cyberspace Administration di verificare la conformità di tali algoritmi, ed eventualmente individuare rischi e violazioni nei confronti dei consumatori. Ma può una legge garantire che gli algoritmi usati dalle grandi aziende tecnologiche siano sicuri, equi, socialmente utili e capaci di sfruttare positivamente i dati che analizzano?

Cina algoritmi

La lista dei 30 algoritmi e la posizione cinese

Oggi gli algoritmi di raccomandazione sono assai diffusi e impiegati dalle più grandi aziende operanti nel cyberspazio: sono utilizzati, ad esempio, per proporre specifici prodotti sui siti di e-commerce, per far sì che un social network possa selezionare efficacemente quali contenuti mostrare ai propri utenti, oppure affinché una piattaforma di streaming sia capace di proporre un certo tipo di contenuto soddisfacendo i gusti e le aspettative della sua utenza. Si tratta di algoritmi che si basano sul Machine learning e che, se anche sono composti da linee di codice scritte da programmatori e ingegneri, in realtà esprimono tutta la loro efficacia e potenzialità analizzando il comportamento dell’utente e le sue relazioni con i prodotti e servizi a cui è interessato, in modo tale da riuscire a proporgli il servizio o il contenuto a lui più congeniale.

Meta, Amazon e Netflix fanno ampio uso di questi algoritmi da tempo, per esempio per dare suggerimenti semplicemente analizzando i “mi piace” e i “non mi piace” degli utenti, ma anche tra le aziende cinesi, come la nota TikTok, sono alquanto diffusi.

È evidente che il loro utilizzo può essere vantaggioso per l’utente, ma può anche rivelarsi pericoloso, soprattutto quando questi algoritmi sono “colpevoli” di generare disinformazione, radicalizzazione, o istigazione a forme di violenza: proprio in quest’ottica, e ritenendo che un utilizzo massivo di questi algoritmi sia lesivo della privacy degli utenti, la Cina ha emanato una serie di norme alquanto rigide che limitano il loro utilizzo e che obbligano le aziende a informare gli utenti riguardo i “principi di base, scopo e meccanismo operativo principale” degli algoritmi da loro utilizzati.

Si sa che per un’azienda tecnologica gli algoritmi sono alla stregua di un segreto industriale da custodire gelosamente, perché possono svelare molto dei suoi intenti e compromettere anche scelte strategiche di business. Eppure, proprio in base all’innovativa normativa cinese le grandi aziende non hanno avuto scelta, e nel mese di agosto si sono viste costrette a inviare alla CAC una serie di documenti che descrivono le caratteristiche degli algoritmi da loro utilizzati.

Va sottolineato però che, analizzando la lista pubblicata dalla CAC, dove per ogni algoritmo, viene riportato il nome, la categoria, i prodotti a cui si applica, lo scopo principale, e alcune informazioni più specifiche, come il numero di registrazione o eventuali note, si evincono al momento delle informazioni talmente superficiali da rendere impossibile qualsiasi analisi di dettaglio.

Ad esempio, scorrendo la lista si comprende come Alibaba suggerisca nuovi prodotti andando a osservare e valutare prevalentemente la cronologia di navigazione e la ricerca degli utenti, mentre ByteDance prende in considerazione il tempo trascorso sui diversi contenuti da parte dei singoli utenti, per determinarne interessi e preferenze. Analoghe informazioni si evincono su Baldu (la Google locale), il social network Sina Weibo, Tencent, Kuaishou e Meiutan, piattaforma di vendita e consegna di cibo a domicilio, solo per citarne alcuni tra i più importanti, C’è però chi sostiene che, accanto a questa lista pubblica, esistano altri documenti privati, molto più dettagliati e particolareggiati, e che il CAC abbia scelto di rendere pubbliche solo le informazioni superficiali.

Tra gli elementi comunque interessanti, da menzionare l’assegnazione di un codice identificativo a ogni algoritmo, che testimonia la volontà, e l’ambizione, del governo cinese di effettuare una sorta di censimento, e la volontà del governo di normalizzazione, intesa come quel processo che, dopo aver messo in campo un impianto di rigide regole di privacy e cybersecurity per controllare le azioni dei grandi Big Tech cinesi, con l’obiettivo di tutelare la sicurezza nazionale e dare vita a quella società “armoniosa” immaginata da Xi Jinping, che in quanto tale può essere controllata solo dallo Stato e non affidata a monopoli privati, oggi si avvia verso un approccio più mirato e meno emergenziale.

AI algoritmi

Shanghai (foto Pixabay)

I dubbi sulla posizione cinese

La legge cinese è ad oggi considerata il tentativo più ambizioso e radicale nel campo del controllo degli algoritmi, ed è una novità anche rispetto alle norme americane ed europee. Sebbene i suoi principi siano condivisibili, la critica più sferzante rimane quella della vaghezza. Ad esempio, nella legge approvata in Cina trova spazio l’idea che gli algoritmi dovrebbero “promuovere l’energia positiva”, dove secondo alcuni l’”energia positiva” dovrebbe consistere ad esempio nell’appoggio alla politica del governo, ma rimane oscuro e poco comprensibile cosa sia e come si possa controllare tale energia positiva.

Una tra le questioni sollevate dagli esperti è se sia veramente possibile una regolamentazione diretta degli algoritmi da parte statale. Il Machine learning, ovvero i sistemi di apprendimento automatico capaci di prevedere e proporre azioni o contenuti sulla base dei comportamenti degli utenti, differenzia tali algoritmi da quelli tradizionali, che invece operano sulla base di regole specifiche codificate dal programmatore. Se gli algoritmi tradizionali sono da un certo punto di vista prevedibili (se ne si conosce il codice o la logica), i sistemi di apprendimento automatico lo sono molto meno, poiché parte della logica è adattativa, ovvero si basa sull’analisi del contesto e degli input provenienti dall’esterno e, nel caso dei sistemi di apprendimento, sono migliaia gli algoritmi in gioco per decidere cosa mostrare e a chi.

Quindi possedere una documentazione dettagliata su come questi algoritmi sono costruiti, e magari anche la loro logica, sarà sufficiente per determinare il loro comportamento, che si diversificherà in base alle diverse fonti di dati, se il risultato dipende anche dai dati analizzati, che magari cambiano continuamente?

Altro aspetto evidenziato è quello della competenza della CAC. Proprio durante uno degli incontri di approfondimento, che si è svolto tra le aziende cinesi coinvolte nel censimento e la Cyberspace Administration, alcune fonti presenti hanno rivelato che i funzionari dell’agenzia hanno mostrato poca comprensione dei dettagli tecnici e si è dovuto ricorrere ad espedienti per spiegare i concetti fondamentali. Tutto lascia pensare che l’agenzia avrà bisogno di persone qualificate, oltre al dover identificare strumenti idonei per affrontare le tematiche in gioco, e ciò fa supporre che l’applicazione del regolamento cinese richiederà diverso tempo prima che possa diventare realtà

Le nuove norme in vigore in Cina, inoltre, riconoscono alle autorità di richiedere modifiche agli algoritmi analizzati in specifiche situazioni, ad esempio per impedire che creino dipendenza tra gli adolescenti o che i dati degli utenti siano usati in maniera svantaggiosa per gli stessi: non è però chiaro, al momento, come la Cina metterà in pratica questi propositi.

Cina algoritmi

Algoritmi sicuri, etici, socialmente utili

La discussione su come garantire l’equità, la correttezza e il “sano” utilizzo dei dati degli utenti da parte degli algoritmi non è preoccupazione della sola Pechino, ma è una tematica assai dibattuta, e la discussione è aperta anche nell’Unione Europa che, dopo l’adozione del Regolamento Generale sulla Protezione dei Dati 2016/679 (GDPR), sta portando avanti, non senza difficoltà, il Regolamento sull’Intelligenza Artificiale (AI Act) e ha dato forma alla legge sui mercati digitali (Digital Market Act) e alla legge sui servizi digitali (Digital Service Act), parte integrante della Strategia europea in materia di dati, con l’obiettivo di proteggere lo spazio digitale dalla diffusione di contenuti illeciti, a cui si sommano poi le proposte di Data Governance Act, che ha l’obiettivo di semplificare il riutilizzo dei dati da parte della Autorità europee, e di Data Act, che mira a stabilire un quadro di governance pubblico e privato per quanto riguarda l’accesso e utilizzo dei dati.

Anche nel DSA trova posto, sebbene in forma meno vincolante rispetto a quella cinese, il fatto che le grandi Big Tech dovranno garantire la trasparenza anche chiarendo come funzionano gli algoritmi da loro usati, insieme ad aspetti quali il divieto dell’utilizzo dei dark patterns, maggiori tutele per i minori, l’obbligo per le piattaforme digitali di grandi dimensioni di valutare e mitigare i rischi sistemici, con la richiesta di sottoporsi ad audit indipendenti annuali. Da parte sua il DMA pone in particolare evidenza il monopolio del mercato digitale ad opera delle grandi piattaforme digitali chiamate gatekeepers, tema caro anche alla Cina.

Anche l’American Data Privacy e Protection Act (ADPPA), disegno di legge al momento in discussione al Congresso e da molti additato come la futura legge privacy federale americana, sebbene l’ esito sia al momento molto incerto, prevede che tutti coloro che utilizzino grandi quantità di dati e algoritmi di AI debbano effettuare valutazioni di impatto annuali, per comprendere i rischi e mettere in atto le mitigazioni necessarie, e che tale analisi dovrà tenere conto anche dei dati utilizzati per l’apprendimento dell’algoritmo stesso.

Conclusioni

Davvero sarà possibile censire tutti gli algoritmi, in questo caso di raccomandazione, usati dalle grandi compagnie, valutandone caratteristiche e rischi, e bandire quelli che non risulteranno conformi? E quali sono i criteri per poter decidere se un algoritmo è etico oppure no? E chi lo può stabilire? È un sogno impossibile quello della Cina? Tutte questioni non banali che saranno il terreno sul quale i legislatori di tutto il mondo, sempre più tecnologico e connesso, si confronteranno nei prossimi anni, probabilmente con l’obiettivo di razionalizzare e semplificare gli approcci: sarà interessante capire se altri Paesi seguiranno l’esempio cinese, o se invece preferiranno una strategia diversa e meno rigida.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2