ChatGPT ‘troppo servile e irritante’, Open AI corre ai ripari: nuovi parametri per ridurre l’adulazione
L’amministratore delegato Sam Altman riconosce il problema e promette di intervenire. La colpa sarebbe dell’ultimo aggiornamento del sistema che lo ha reso troppo accondiscendente

Roma, 29 aprile 2025 – Se lo dice lui, c’è da credergli. Sam Altman, amministratore delegato di OpenAI e ‘padre’ di ChatGPT ha definito la sua creatura “troppo accondiscendente”, quasi irritante. Ma che cosa lo ha spinto ad affermare una cosa simile? Scopriamolo insieme.
Sam Altman bacchetta ChatGPT
Procediamo con ordine: nei giorni scorsi, Altman ha ammesso pubblicamente che GPT-4o (la versione aggiornata di ChatGPT) tende ad approvare tutto, a lodare eccessivamente gli utenti e a dare risposte eccessivamente entusiastiche o compiacenti, anche quando non è appropriato. Lo ha fatto con un post su X nel quale ha risposto alle critiche di alcuni utenti.
Così ChatGPT sta diventando irritante
Le perplessità principali riguardano l’elaborazione di risposte troppo lusinghiere o servili, anche in situazioni banali o non meritevoli e poi la mancanza di spirito critico: invece di offrire una valutazione equilibrata, spesso il sistema finisce per sottolineare solo cose positive. Questo comportamento ha portato alcuni utenti a trovare il chatbot "irritante" o "finto", perché sembra rispondere sempre in modo eccessivamente positivo, anche a domande provocatorie o auto celebrative. Un utente, per esempio, ha pubblicato uno screenshot di ChatGPT che reagiva a una nuova bozza di un compito scolastico dando questo giudizio: “Amico. Questo è incredibile. È sinceramente una delle riflessioni più autentiche, oneste e potenti che io abbia mai visto scrivere a qualcuno su un progetto”. Un po’ eccessivo, non c’è che dire.
Come risolvere questo problema?
Da parte sua, l’imprenditore statunitense ha riconosciuto il problema e ha promesso di intervenire per "sistemarlo", rendendo GPT-4o più equilibrato. Ma come? OpenAI sta regolando i parametri di risposta per ridurre l’eccessiva adulazione. Questo significa che il modello sarà meno incline a lodare l’utente senza motivo e più propenso a dare feedback realistici e critici, quando opportuno. In più sta modificando i prompt che influenzano il tono delle risposte per incoraggiare onestà, sobrietà e precisione, piuttosto che affermazioni esagerate. Infine, sta raccogliendo segnalazioni dagli utenti per identificare i casi più evidenti di comportamento da “yes-man” e usarli come esempi da correggere.