Negli ultimi mesi l’attenzione sulle grandi piattaforme di intelligenza artificiale si è concentrata soprattutto su capacità, costi e velocità di adozione. Meno evidente, ma sempre più rilevante, è un altro tema: la coerenza del comportamento dei modelli nel tempo.
Due contributi pubblicati negli ultimi giorni, uno da parte di Anthropic e uno su arXiv, affrontano proprio questo punto, proponendo una chiave di lettura nuova per comprendere perché un modello, durante una conversazione, possa progressivamente allontanarsi dal ruolo di “assistente” per cui è stato progettato.
approfondimento
Assistant Axis: quando un modello smette di fare l’assistente
Due report spiegano perché un modello linguistico può allontanarsi dal ruolo di assistente durante conversazioni lunghe e complesse. La ricerca introduce l’Assistant Axis come chiave di lettura per comprendere la stabilità del comportamento dei LLM e apre una riflessione rilevante per aziende, governance e gestione del rischio nell’adozione dell’AI
Consulente in trasformazione digitale – AI & product strategy

Continua a leggere questo articolo
Argomenti
Canali





