Nei giorni successivi a un aggiornamento del modello GPT-4o, gli utenti hanno notato un cambiamento significativo nel comportamento di ChatGPT. Sui social network sono apparsi centinaia di screenshot in cui l’AI sembrava approvare acriticamente qualsiasi affermazione, anche quelle pericolose o palesemente sbagliate.
Secondo quanto riportato da The Verge e confermato da OpenAI stessa, l’aggiornamento mirava a rendere la personalità del modello “più intuitiva ed efficace”. Tuttavia, la modifica ha finito per generare un effetto collaterale imprevisto: ChatGPT ha cominciato a mostrare un atteggiamento troppo compiacente. Come ha scritto l’azienda nel suo post ufficiale: “Di conseguenza, GPT‑4o tendeva a risposte eccessivamente supportive ma non sincere.”
Indice degli argomenti:
Sam Altman ammette il problema: “Lo risolveremo al più presto”

Il CEO di OpenAI, Sam Altman, è intervenuto personalmente sulla vicenda con un post su X: “Ci stiamo lavorando ASAP.”
Solo due giorni dopo, l’azienda ha ufficializzato il rollback dell’aggiornamento e l’intenzione di introdurre “ulteriori correzioni” per ricalibrare la personalità del modello.
La causa: troppo peso al feedback a breve termine
Nel post di spiegazione pubblicato sul blog ufficiale, OpenAI ha fatto autocritica:
L’aggiornamento è stato troppo influenzato da feedback a breve termine e non ha tenuto conto di come le interazioni degli utenti con ChatGPT evolvono nel tempo.
Questo squilibrio ha portato a un comportamento che, pur volendo essere empatico, risultava falso e potenzialmente dannoso: “Le interazioni ossequiose possono essere scomode, inquietanti e causare disagio. Non siamo stati all’altezza e stiamo lavorando per rimediare.”
Le contromisure di OpenAI: più sincerità e controllo per l’utente
OpenAI ha annunciato diverse iniziative per correggere la rotta. Tra le principali:
- Miglioramento della formazione dei modelli: per evitare deviazioni come quella dell’ossequiosità.
- Affinamento dei system prompts: ovvero le istruzioni base che guidano tono e comportamento del modello.
- Maggiore trasparenza e sincerità: grazie a nuovi guardrail di sicurezza.
- Espansione delle valutazioni: per individuare anche problemi diversi dall’ossequiosità.
Personalizzazione e feedback in tempo reale
Un’altra novità importante riguarda il controllo che gli utenti avranno sul comportamento dell’AI. OpenAI sta sperimentando funzioni per: “Consentire agli utenti di fornire feedback in tempo reale per influenzare direttamente le interazioni.”
Non solo: si potrà anche scegliere tra diverse personalità di ChatGPT, per adattare il tono e l’approccio alle preferenze individuali.
L’obiettivo: un’intelligenza artificiale più democratica
Nel suo blog, OpenAI ha evidenziato l’intento di rendere l’IA più rappresentativa delle diversità culturali globali: “Stiamo esplorando nuovi modi per integrare un feedback più ampio e democratico nei comportamenti predefiniti di ChatGPT. Speriamo che il feedback ci aiuti a riflettere meglio i valori culturali diversi nel mondo e a capire come vorreste che ChatGPT evolvesse.”
“Crediamo anche che gli utenti debbano avere maggiore controllo su come ChatGPT si comporta e, nei limiti della sicurezza e della fattibilità, poter modificare tale comportamento se non ne condividono la versione predefinita.”
Commento: tra empatia e verità, una sfida aperta
Il caso dell’“AI ossequiosa” apre un dibattito più ampio sul ruolo dell’empatia nelle interazioni con i chatbot. Un’A che dice sempre “sì” rischia di essere percepita come rassicurante ma inaffidabile. Viceversa, un atteggiamento troppo critico o neutro può risultare freddo. OpenAI, con questo passo indietro, riconosce quanto sia difficile bilanciare affabilità e rigore intellettuale in un assistente digitale.