approfondimento

Assistant Axis: quando un modello smette di fare l’assistente



Indirizzo copiato

Due report spiegano perché un modello linguistico può allontanarsi dal ruolo di assistente durante conversazioni lunghe e complesse. La ricerca introduce l’Assistant Axis come chiave di lettura per comprendere la stabilità del comportamento dei LLM e apre una riflessione rilevante per aziende, governance e gestione del rischio nell’adozione dell’AI

Pubblicato il 28 gen 2026

Fabio Lalli

Consulente in trasformazione digitale – AI & product strategy



Assistent Axis
Sinistra: gli archetipi dei personaggi formano uno “spazio personale”, con l'Assistente all'estremità dell'asse “Assistente”. Destra: limitare la deriva lungo questo asse impedisce ai modelli (in questo caso, Llama 3.3 70B) di deviare verso personalità alternative e comportarsi in modo dannoso.

Negli ultimi mesi l’attenzione sulle grandi piattaforme di intelligenza artificiale si è concentrata soprattutto su capacità, costi e velocità di adozione. Meno evidente, ma sempre più rilevante, è un altro tema: la coerenza del comportamento dei modelli nel tempo.
Due contributi pubblicati negli ultimi giorni, uno da parte di Anthropic e uno su arXiv, affrontano proprio questo punto, proponendo una chiave di lettura nuova per comprendere perché un modello, durante una conversazione, possa progressivamente allontanarsi dal ruolo di “assistente” per cui è stato progettato.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x