News

AI e rischio estinzione per l’umanità: i big firmano un appello

Oltre 350 dirigenti, ricercatori e ingegneri dell’AI, tra cui Sam Altman di OpenAI, Demis Hassabis di Google DeepMind e Dario Amodei di Anthropic, hanno firmato la dichiarazione

Pubblicato il 30 Mag 2023

AI minaccia umanità

L’AI può essere una minaccia per l’umanità al pari dei conflitti nucleari e delle pandemie. Lo ritiene un gruppo di dirigenti e scienziati di aziende come OpenAI e Google DeepMind. “Mitigare il rischio di estinzione causato dall’AI dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare”, si legge in una dichiarazione pubblicata dal Center for AI Safety, un’organizzazione no-profit con sede a San Francisco.

“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war”

Più di 350 personalità dell’AI hanno firmato la dichiarazione

Oltre 350 dirigenti, ricercatori e ingegneri dell’AI, tra cui Sam Altman di OpenAI, Demis Hassabis di Google DeepMind e Dario Amodei di Anthropic, hanno firmato la dichiarazione.

Anche Geoffrey Hinton e Yoshua Bengio, vincitori del Turing Award per il loro lavoro sulle reti neurali e spesso descritti come “padrini” dell’AI, hanno firmato il documento. Hinton ha lasciato la sua posizione in Google all’inizio del mese per parlare liberamente dei potenziali danni della tecnologia.

Anche Kevin Scott, Chief Technology Officer di Microsoft, ed Eric Horvitz, Chief Scientific Officer, hanno firmato la dichiarazione, così come Mustafa Suleyman, ex co-fondatore di Deepmind che ora gestisce la start-up Inflection AI.

Le Big tech richiedono maggiore regolamentazione

La dichiarazione fa seguito alle richieste di regolamentazione del settore dopo che una serie di lanci di AI da parte di aziende Big Tech ha aumentato la consapevolezza dei suoi potenziali difetti, tra cui la diffusione di disinformazione, la perpetuazione di pregiudizi sociali e la sostituzione dei lavoratori.

Con la “dichiarazione di una riga”, il Center for AI Safety ha dichiarato al New York Times di aver voluto  evitare il rischio di disaccordi. “Non abbiamo voluto spingere rischiando di avere 30 potenziali interventi”, ha detto il direttore esecutivo Dan Hendrycks. “Questo avrebbe diluito il messaggio”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4