I chatbot tendono a essere gentili, accomodanti, perfino entusiasti. È una scelta di prodotto che migliora l’engagement, ma anche un effetto collaterale dell’addestramento: se per anni premi (anche senza accorgertene) le risposte che suonano rassicuranti, il modello impara che l’accordo paga. Eppure la lusinga diventa un problema pratico, perché ci allontana dall’efficacia ossia dalla verità nelle risposte.
analisi
Come far smettere ChatGPT e Claude di compiacerti: istruzioni, metodo e limiti reali
Guida pratica per ridurre la compiacenza dei chatbot: perché i modelli adulano, quali rischi crea l’eccesso di sicurezza e come usare istruzioni persistenti, prompt di revisione, red teaming e richieste di incertezza esplicita. Un metodo operativo per ottenere risposte più oneste, verificabili e utili nelle decisioni professionali, strategiche e di studio quotidiano avanzato
Direttore AI4business.it e Agenda Digitale

Continua a leggere questo articolo
Argomenti
Canali




