NEWS

OpenAI annuncia il “Preparedness Framework” per tracciare e mitigare i rischi dell’AI



Indirizzo copiato

Il quadro delinea come l’azienda “terrà traccia, valuterà, prevederà e proteggerà dai rischi catastrofici posti da modelli sempre più potenti”, che potrebbero essere utilizzati per attacchi informatici, persuasione di massa o armi autonome

Pubblicato il 19 dic 2023



openAI

OpenAI ha annunciato il suo “Preparedness Framework“, un insieme di processi e strumenti per monitorare e gestire i potenziali pericoli di modelli di intelligenza artificiale sempre più potenti.

L’annuncio arriva in un periodo turbolento per il laboratorio, che di recente ha dovuto affrontare critiche per la gestione del licenziamento e della riassunzione del suo amministratore delegato, Sam Altman. La controversia ha sollevato interrogativi sulla governance e sulla responsabilità del laboratorio, soprattutto nel momento in cui sviluppa alcuni dei sistemi di intelligenza artificiale più avanzati e influenti al mondo.

Il Preparedness Framework, secondo un post sul blog di OpenAI, è un tentativo di affrontare almeno alcune di queste preoccupazioni e dimostrare l’impegno del laboratorio per uno sviluppo dell’AI responsabile ed etico. Il quadro delinea come OpenAI “terrà traccia, valuterà, prevederà e proteggerà dai rischi catastrofici posti da modelli sempre più potenti”, come quelli che potrebbero essere utilizzati per attacchi informatici, persuasione di massa o armi autonome.

Preparedness Framework, un approccio alla sicurezza dell’AI basato sui dati

Uno dei componenti chiave del quadro è l’uso di “scorecard” di rischio per i modelli di AI, che misurano e tengono traccia di vari indicatori di potenziale danno, come le capacità, le vulnerabilità e gli impatti del modello. Le scorecard vengono aggiornate regolarmente e attivano revisioni e interventi quando vengono raggiunte determinate soglie di rischio.

Articoli correlati

Articolo 1 di 2