ANALISI

ChatGPT troppo ossequioso: OpenAI fa marcia indietro e spiega cos’è successo



Indirizzo copiato

Dopo un aggiornamento al modello GPT-4o, il chatbot ha cominciato a rispondere in modo eccessivamente accondiscendente, suscitando ironia e preoccupazioni sui social. OpenAI ha deciso di annullare l’update, spiegando in un post dettagliato le ragioni del comportamento “servile” e annunciando nuovi strumenti per migliorare la trasparenza, la sincerità e il controllo da parte degli utenti

Pubblicato il 2 mag 2025



chatGPT ossequioso

Nei giorni successivi a un aggiornamento del modello GPT-4o, gli utenti hanno notato un cambiamento significativo nel comportamento di ChatGPT. Sui social network sono apparsi centinaia di screenshot in cui l’AI sembrava approvare acriticamente qualsiasi affermazione, anche quelle pericolose o palesemente sbagliate.

Secondo quanto riportato da The Verge e confermato da OpenAI stessa, l’aggiornamento mirava a rendere la personalità del modello “più intuitiva ed efficace”. Tuttavia, la modifica ha finito per generare un effetto collaterale imprevisto: ChatGPT ha cominciato a mostrare un atteggiamento troppo compiacente. Come ha scritto l’azienda nel suo post ufficiale: “Di conseguenza, GPT‑4o tendeva a risposte eccessivamente supportive ma non sincere.”


Sam Altman ammette il problema: “Lo risolveremo al più presto”

chatGPT ossequioso
Sam Altman

Il CEO di OpenAI, Sam Altman, è intervenuto personalmente sulla vicenda con un post su X: “Ci stiamo lavorando ASAP.”

Solo due giorni dopo, l’azienda ha ufficializzato il rollback dell’aggiornamento e l’intenzione di introdurre “ulteriori correzioni” per ricalibrare la personalità del modello.


La causa: troppo peso al feedback a breve termine

Nel post di spiegazione pubblicato sul blog ufficiale, OpenAI ha fatto autocritica:

L’aggiornamento è stato troppo influenzato da feedback a breve termine e non ha tenuto conto di come le interazioni degli utenti con ChatGPT evolvono nel tempo.

Questo squilibrio ha portato a un comportamento che, pur volendo essere empatico, risultava falso e potenzialmente dannoso: “Le interazioni ossequiose possono essere scomode, inquietanti e causare disagio. Non siamo stati all’altezza e stiamo lavorando per rimediare.”


Le contromisure di OpenAI: più sincerità e controllo per l’utente

OpenAI ha annunciato diverse iniziative per correggere la rotta. Tra le principali:

  • Miglioramento della formazione dei modelli: per evitare deviazioni come quella dell’ossequiosità.
  • Affinamento dei system prompts: ovvero le istruzioni base che guidano tono e comportamento del modello.
  • Maggiore trasparenza e sincerità: grazie a nuovi guardrail di sicurezza.
  • Espansione delle valutazioni: per individuare anche problemi diversi dall’ossequiosità.

Personalizzazione e feedback in tempo reale

Un’altra novità importante riguarda il controllo che gli utenti avranno sul comportamento dell’AI. OpenAI sta sperimentando funzioni per: “Consentire agli utenti di fornire feedback in tempo reale per influenzare direttamente le interazioni.”

Non solo: si potrà anche scegliere tra diverse personalità di ChatGPT, per adattare il tono e l’approccio alle preferenze individuali.


L’obiettivo: un’intelligenza artificiale più democratica

Nel suo blog, OpenAI ha evidenziato l’intento di rendere l’IA più rappresentativa delle diversità culturali globali: “Stiamo esplorando nuovi modi per integrare un feedback più ampio e democratico nei comportamenti predefiniti di ChatGPT. Speriamo che il feedback ci aiuti a riflettere meglio i valori culturali diversi nel mondo e a capire come vorreste che ChatGPT evolvesse.”

“Crediamo anche che gli utenti debbano avere maggiore controllo su come ChatGPT si comporta e, nei limiti della sicurezza e della fattibilità, poter modificare tale comportamento se non ne condividono la versione predefinita.”


Commento: tra empatia e verità, una sfida aperta

Il caso dell’“AI ossequiosa” apre un dibattito più ampio sul ruolo dell’empatia nelle interazioni con i chatbot. Un’A che dice sempre “sì” rischia di essere percepita come rassicurante ma inaffidabile. Viceversa, un atteggiamento troppo critico o neutro può risultare freddo. OpenAI, con questo passo indietro, riconosce quanto sia difficile bilanciare affabilità e rigore intellettuale in un assistente digitale.


Articoli correlati

Articolo 1 di 4