AI generativa

Allineamento deliberativo, il processo di ragionamento per modelli linguistici più sicuri



Indirizzo copiato

Ecco la nuova strategia di allineamento per i modelli della “serie o” di OpenAI, ai quali vengono insegnate direttamente le specifiche di sicurezza e come ragionare su di esse. Con l’aumento dell’intelligenza e dell’autonomia dei modelli, la portata dei potenziali danni che le AI potrebbero causare a causa di un disallineamento o di un uso improprio aumenta drasticamente

Pubblicato il 23 dic 2024



allineamento deliberativo

Allineamento deliberativo (Deliberative alignment), un paradigma di addestramento che insegna direttamente ai LLM a ragionare sul testo delle specifiche di sicurezza scritte dall’uomo e interpretabili, e li addestra a ragionare esplicitamente su queste specifiche prima di rispondere.

Continua a leggere questo articolo

Articoli correlati