Allineamento deliberativo (Deliberative alignment), un paradigma di addestramento che insegna direttamente ai LLM a ragionare sul testo delle specifiche di sicurezza scritte dall’uomo e interpretabili, e li addestra a ragionare esplicitamente su queste specifiche prima di rispondere.
AI generativa
Allineamento deliberativo, il processo di ragionamento per modelli linguistici più sicuri
Ecco la nuova strategia di allineamento per i modelli della “serie o” di OpenAI, ai quali vengono insegnate direttamente le specifiche di sicurezza e come ragionare su di esse. Con l’aumento dell’intelligenza e dell’autonomia dei modelli, la portata dei potenziali danni che le AI potrebbero causare a causa di un disallineamento o di un uso improprio aumenta drasticamente

Continua a leggere questo articolo
Argomenti
Canali





