Scenari

AI responsabile, nasce Partnership on AI

Un gruppo di dieci aziende di diversi paesi, tra le quali OpenAI, Adobe, BBC e TikTok si sono unite sotto un unico “ombrello”, sottoscrivendo una serie di linee guida su come costruire, creare e condividere contenuti generati dall’intelligenza artificiale in modo responsabile

Pubblicato il 14 Mar 2023

Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza

Partnership on AI

In attesa che i legislatori nazionali e sovranazionali (come l’Unione Europea) varino le loro regolamentazioni in materia, un gruppo di dieci aziende di diversi paesi – tra le quali le statunitensi OpenAI e Adobe, la britannica BBC e la cinese TikTok –, riunite sotto “l’ombrello” della “Partnership on AI” (PAI) ha sottoscritto una nuova serie di linee guida su come costruire, creare e condividere contenuti generati dall’intelligenza artificiale in modo responsabile.[1]

Cosa fa Partnership on AI

Le raccomandazioni – ad applicazione, ovviamente, su base volontaria – invitano sia i costruttori tecnologici (come OpenAI), sia i creatori e i distributori di media sintetici creati digitalmente, come la BBC e TikTok (che potremmo chiamare “creatori di contenuti”), a essere più trasparenti su ciò che la tecnologia può o non può fare, non a rivelare quando le persone potrebbero interagire con questo tipo di contenuti. Le raccomandazioni volontarie sono state elaborate dalla già accennata no-profit americana Partnership on AI (PAI), un’organizzazione senza fini di lucro che si occupa di ricerca sull’intelligenza artificiale. Tra i partner della PAI figurano, oltre ai colossi sopracitati, anche altre aziende tecnologiche e organizzazioni accademiche, della società civile e dei media. L’obiettivo della partnership è di garantire che i media sintetici – ossia quei video, quelle immagini, suoni ecc. prodotti con l’uso dell’intelligenza artificiale – non vengano utilizzati per danneggiare, depotenziare o privare di diritti gli esseri umani, puntando piuttosto a sostenere la creatività e la condivisione delle conoscenze a livello mondiale.

PAI’s Responsible Practices for Synthetic Media: A Framework for Collective Action

PAI’s Responsible Practices for Synthetic Media: A Framework for Collective Action

Guarda questo video su YouTube

Video: Responsible Practices for Synthetic Media

Responsible Practices for Synthetic Media

Uno degli elementi più importanti delle Responsible Practices for Synthetic Media è il patto siglato tra le aziende partner di progetto per includere e ricercare modi per informare gli utenti quando interagiscono con qualcosa che è stato generato dall’intelligenza artificiale. Ciò potrebbe includere watermark (filigrane su immagini o video) o disclaimer (per l’esclusione delle responsabilità) all’interno dei file multimediali prodotti, oppure elementi tracciabili nei dati di addestramento (training data) o nei metadati (dati che descrivono altri dati) di un modello di intelligenza artificiale. Insomma, qualsiasi strumento utile atto ad informare l’utente che sta interagendo con un prodotto “sintetico”, non creato dall’uomo.

Come accennato in premessa, la regolamentazione “globale” del fenomeno in esame, che cerca di contenere i potenziali danni legati all’intelligenza artificiale generativa (e non solo) è ancora molto in ritardo. L’Unione Europea, ad esempio, da ormai due anni (se non prendiamo in considerazione il periodo precedente la “gestazione della bozza”, che parte dal 2018[2]) sta cercando di includere l’intelligenza artificiale generativa nel suo “acclamato” regolamento (cosiddetto “AI Act”)[3], che potrebbe includere elementi come le informazioni relative a quando le persone interagiscono con deepfake e l’obbligo per le aziende di soddisfare determinati requisiti di trasparenza. Sebbene l’intelligenza artificiale generativa sia al momento una “terra di nessuno”, la presenza di norme volontarie alle quali talune imprese e organizzazioni si sottomettono – indicando loro gli elementi chiave a cui prestare attenzione nel momento in cui incorporano la tecnologia nelle loro attività – è un autentico barlume di speranza per miliardi di cittadini sparsi per il mondo. Il passo successivo è quello di sensibilizzare l’opinione pubblica e avviare una conversazione globale su come “approcciarsi responsabilmente” ai media sintetici.

Partnership on AI, c’è chi non aderisce

Partnership on AI
Immagini generate da Stable Diffusion

Se da un lato le linee guida e i principi adottati su base volontaria funzionano su chi (lo si ripete ancora) volontariamente li adotta, lo stesso non può – ovviamente – dirsi per chi non è dello stesso avviso. E così come aziende del calibro di OpenAI – partner PAI – cercano di mettere dei paletti alle tecnologie da loro create (come la star del momento ChatGPT e il più professionale DALL-E), altri attori del mercato che non fanno parte della “Partnership on AI” – come la statunitense Stability.AI, che ha creato il modello open source di generazione di immagini Stable Diffusion – permettono a chiunque di generare immagini inappropriate e deepfake in totale libertà.

È chiaro che, se davvero si volessero affrontare i problemi dell’intelligenza artificiale generativa, sarebbe necessario fare sul serio, ad esempio obbligando gli store Android e Apple, nonché i vari fornitori di servizi cloud, come quelli gestiti da Amazon, Microsoft, Google e Apple, peraltro tutti facenti parte della Partnership on AI, vietino i servizi che consentono di utilizzare la tecnologia deepfake con l’intento di creare immagini che vadano contro la legge. Così come sarebbe giusto apporre obbligatoriamente le filigrane su tutti i contenuti generati “in autonomia” dall’intelligenza artificiale.

Come rendere più responsabili i sistemi di AI

Un altro aspetto importante che manca è il modo in cui gli stessi sistemi di intelligenza artificiale potrebbero essere resi più responsabili. Ciò potrebbe includere maggiori dettagli su come è stato addestrato il modello di intelligenza artificiale, quali dati sono stati utilizzati e se i modelli di intelligenza artificiale generativa hanno dei pregiudizi (i cosiddetti “bias”, che di solito sono solo riducibili al minimo). Le PAI’s Responsible Practices for Synthetic Media non menzionano la necessità di garantire l’assenza di contenuti tossici – uno dei modi più significativi con cui questi sistemi causano danni – nell’insieme dei dati dei modelli di intelligenza artificiale generativa. Le linee guida PAI includono solo un elenco di danni che le aziende firmatarie vogliono volontariamente prevenire, come frodi, molestie e disinformazione. Non facendo nulla, insomma, per altre tipologie di lesioni, come quelle basate sui pregiudizi a base etnica (si pensi ai modelli di intelligenza artificiale generativa che crea sempre e solo scenari positivi per persone di etnia caucasica e scenari negativi per persone di etnia afroamericana).

Conclusioni

Si ribadisce che le linee guida PAI sono un barlume di speranza, un punto di partenza verso l’obbligatorietà di determinati modi di fare e di agire in materia di intelligenza artificiale. Tuttavia, in assenza di una regolamentazione forte del settore, con un’autorità preposta alla vigilanza e all’erogazione di sanzioni efficaci e dissuasive, l’AI altro non farà che seminare danni via via maggiori con lo sviluppo di una tecnologia che, di giorno in giorno, diventa più precisa ed efficiente.[4]

Note

  1. PAI’s Responsible Practices for Synthetic Media. A Framework for Collective Action. https://syntheticmedia.partnershiponai.org/#landing
  2. A European approach to artificial intelligence. European Commission. https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
  3. AI Act: All the open political questions in the European Parliament. EURACTIV. https://www.euractiv.com/section/artificial-intelligence/news/ai-act-all-the-open-political-questions-in-the-european-parliament/
  4. How to create, release, and share generative AI responsibly. MIT Technology Review. https://www.technologyreview.com/2023/02/27/1069166/how-to-create-release-and-share-generative-ai-responsibly/

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3