News

OpenAI lancia un contest globale e democratico per nuove regole

L’iniziativa prevede di premiare 10 squadre vincitrici con 100.000 dollari ciascuna. I team vincitori dovranno sviluppare una prova di concetto o un prototipo per la loro idea, coinvolgendo almeno 500 partecipanti. I risultati dovranno essere pubblicati entro il 20 ottobre 2023. Qualsiasi tecnologia sviluppata dovrà diventare open source. La scadenza per la presentazione delle domande è il 24 giugno 2023

Pubblicato il 30 Mag 2023

openAI

OpenAI lancia un contest globale per essere aiutata a progettare un processo democratico che consenta al pubblico di decidere le regole che i modelli di AI devono rispettare, al di là delle restrizioni legali imposte dai governi. L’iniziativa prevede di premiare 10 squadre vincitrici con 100mila dollari ciascuna. I team vincitori dovranno sviluppare una prova di concetto o un prototipo per la loro idea, coinvolgendo almeno 500 partecipanti. I risultati dovranno essere pubblicati entro il 20 ottobre 2023. Qualsiasi tecnologia sviluppata dovrà diventare open source. La scadenza per la presentazione delle domande è il 24 giugno 2023.

“Al di là di un quadro giuridico, l’AI, proprio come la società, ha bisogno di linee guida più complesse e adattive per la sua condotta”, si legge in un post sul blog dell’azienda.

Molte domande sono troppo sfumate per essere affrontate dalle leggi, come ad esempio: “A quali condizioni i sistemi di AI dovrebbero condannare o criticare le figure pubbliche, date le diverse opinioni dei gruppi su tali figure?”, scrivono gli autori. Un’altra è: “Come dovrebbero essere rappresentate le opinioni controverse nei risultati dell’AI?”.

OpenAI lancia un contest globale e democratico

OpenAI chiede a individui, team e organizzazioni di presentare prove di concetto per un “processo democratico che potrebbe rispondere a domande su quali regole i sistemi di AI dovrebbero seguire”.

La società definisce il processo democratico come un meccanismo in cui “un gruppo ampiamente rappresentativo di persone si scambia opinioni, si impegna in discussioni deliberative e alla fine decide su un risultato attraverso un processo decisionale trasparente”.

Come esempi, ha citato i modelli crowdsourcing di Wikipedia, Twitter Community Notes, MetaGov, pol.is e altri, come modelli da seguire.

OpenAI ha incoraggiato i team a essere innovativi, a basarsi su metodologie note e a proporre “approcci completamente nuovi”.

A vagliare le candidature saranno Colin Megill, cofondatore di pol.is, Helene Landemore, docente di scienze politiche a Yale, e Aviv Ovadya del Berkman Klein Center di Harvard.

“In definitiva, progettare processi veramente democratici è un’impresa ardua e noi consideriamo i nostri sforzi come un complemento piuttosto che un sostituto della regolamentazione dell’IA da parte dei governi”, hanno dichiarato gli autori di OpenAI.

OpenAI ha di recente invocato l’urgente necessità di governare adeguatamente la “superintelligenza” dell’AI. Le sue raccomandazioni includono la creazione di un processo democratico che consenta al pubblico di esprimere il proprio parere sulle linee di guardia.

OpenAI collabora con il Collective Intelligence Project

OpenAI ha inoltre dichiarato che sta collaborando con il Collective Intelligence Project (CIP), che sviluppa modelli di governance in crowdsourcing per le tecnologie emergenti come l’AI generativa. La premessa principale del CIP è che le nuove tecnologie possono essere sicure senza sacrificare il progresso o limitare la partecipazione, sostenendo che è una falsa scelta dire che queste tre cose si escludono a vicenda.

Il CIP ha creato quelle che chiama “Assemblee di allineamento“, ovvero collaborazioni per aiutare a sviluppare un’IA incentrata sulle persone. Il CIP ritiene che i modi tradizionali di gestire le tecnologie emergenti non siano più sufficienti a causa delle “conseguenze su scala sociale” che potrebbero derivare dall’IA.

Secondo il CIP, i metodi tradizionali “lasciano ai tecnologi il compito di costruire la tecnologia, agli investitori quello di decidere cosa costruire e ai regolatori quello di allontanare la tecnologia dai rischi, per poi presumere che ne derivi qualcosa di simile a un bene collettivo”.

Tuttavia, questo approccio “si rompe quando si tratta di affrontare le conseguenze su scala sociale che sempre più probabilmente deriveranno dalle nuove tecnologie” e “non sarà sufficiente per affrontare l’AI”.

“La velocità, la portata e l’impatto dell’AI non lasciano presagire che si possa rimanere fedeli allo status quo e sperare che finisca in un luogo che incorpori il bene pubblico per default”, ha aggiunto il gruppo.

Il CIP ha dichiarato che i progetti pilota di queste assemblee saranno avviati a giugno e settembre.

Per candidarsi

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2