News

Artificial Intelligence Act: cresce il dibattito sulla possibile regolamentazione dell’AI open source

Un articolo scritto da Alex Engler, ricercatore presso la Brookings Institution, ha suscitato un botta e risposta su Twitter. Secondo l’autore, creerebbe responsabilità legale per i modelli GPAI open source, minandone lo sviluppo

Pubblicato il 13 Set 2022

AI ACT

Un recente articolo dal titolo “Il tentativo dell’UE di regolamentare l’AI open source è controproducente“, scritto da Alex Engler, ricercatore presso la Brookings Institution, ha suscitato un ampio dibattito su Twitter. Secondo Engler, mentre l’Unione europea continua a discutere il suo sviluppo dell’Artificial Intelligence Act (AI Act), sta considerando  di regolamentare l’AI generica open source (GPAI). L’EU AI Act definisce GPAI come “sistemi di AI che hanno una vasta gamma di possibili usi, sia intenzionali che non intenzionali, da parte degli sviluppatori… Questi sistemi sono a volte indicati come “modelli di base” e sono caratterizzati dal loro uso diffuso come modelli pre-addestrati per altri sistemi di intelligenza artificiale più specializzati”.

Nel suo articolo, Engler afferma che mentre la proposta ha lo scopo di consentire un uso più sicuro di questi strumenti di intelligenza artificiale, “creerebbe responsabilità legale per i modelli GPAI open source, minando il loro sviluppo”. Il risultato, ha sostenuto, “concentrerebbe ulteriormente il potere sul futuro dell’AI nelle grandi aziende tecnologiche” e impedirebbe la ricerca critica.

Emily Bender – professoressa di linguistica all’Università di Washington, molto critica su come la regolazione dell’AI è trattata sui social media e nei media mainstream – ha scritto un thread su un articolo che citava quello di Engler. Da lì è iniziato un vivace botta e risposta su Twitter.

La discussione sull’open source nell’EU AI Act

“Non ho studiato l’AI Act e non sono un avvocato, quindi non posso davvero commentare se funzionerà bene come regolamentazione”, ha twittato la Bender, sottolineando più avanti nel suo thread: “Come fanno le persone a farla franca fingendo, nel 2022, che la regolamentazione non sia necessaria per dirigere l’innovazione lontano dallo sfruttamento, dannoso, insostenibile, ecc.?”

Engler ha risposto al thread della Bender con il suo. In generale, ha detto, “sono a favore della regolamentazione dell’AI… ancora non credo che regolamentare i modelli al punto di open-sourcing aiuti affatto. Invece, ciò che è meglio e ciò che ha fatto la proposta originale della Commissione europea, è regolamentare ogni volta che un modello viene utilizzato per qualcosa di pericoloso o dannoso, indipendentemente dal fatto che sia open source.

Engler ha anche sostenuto che non vuole esentare i modelli open source dall’EU AI Act, ma vuole esentare l’atto di open sourcing AI. Se è più difficile rilasciare modelli di intelligenza artificiale open source, ha sostenuto, questi stessi requisiti non impediranno la commercializzazione di questi modelli dietro le API. “Finiamo con più OpenAI e meno alternative al sistema operativo – non il mio risultato preferito”, ha twittato.

Bender ha risposto al thread di Engler sottolineando che se parte dello scopo del regolamento è quello di richiedere la documentazione, “le uniche persone in grado di documentare a fondo i dati di formazione sono coloro che li raccolgono”.

Forse questo potrebbe essere gestito vietando qualsiasi prodotto commerciale basato su modelli poco documentati, lasciando la responsabilità agli interessi aziendali che fanno la commercializzazione, ha scritto, ma ha aggiunto: “Che dire di quando HF [Hugging Face] o simili ospita GPT-4chan o Stable Diffusion e privati scaricano copie e poi le usano maliziosamente per inondare vari spazi online con contenuti tossici?”

Ovviamente, ha continuato, “Le Google e le Meta del mondo dovrebbero anche essere soggetti a una rigida regolamentazione sui modi in cui i dati possono essere accumulati e distribuiti. Ma penso che ci sia abbastanza pericolo nel creare raccolte di dati / modelli addestrati su quelli che gli sviluppatori OSS non dovrebbero avere libero sfogo. ”

Cosa farà e cosa non farà l’EU AI Act

Engler ha sottolineato che l’EU AI Act non sarà un toccasana per i mali dell’AI. Ciò che l’EU AI Act aiuterà ampiamente, ha detto, è “prevenire una sorta di applicazioni di AI fly-by-night per cose che non può davvero fare o sta facendo molto male”.

Inoltre, Engler pensa che l’UE stia facendo un buon lavoro nel tentativo di “risolvere in modo significativo un problema piuttosto difficile sulla proliferazione dell’IA in aree pericolose e rischiose”, aggiungendo che vorrebbe che gli Stati Uniti assumessero un ruolo normativo più proattivo nello spazio (anche se dà credito al lavoro svolto dalla Commissione per le pari opportunità di lavoro sui sistemi di assunzione di pregiudizi e IA).

Chiaramente, il dibattito su Twitter intorno all’EU AI Act e ad altre normative sull’AI continua, poiché le parti interessate di tutto lo spettro della ricerca e del settore pesano su dozzine di raccomandazioni su un quadro normativo completo che potrebbe potenzialmente essere un modello per uno standard globale.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4