OpenAI ritira l’aggiornamento di GPT-4o: La nuova personalità è troppo compiacente

Negli ultimi giorni, OpenAI si è trovata a dover gestire un imprevisto piuttosto insolito: un aggiornamento pensato per migliorare ChatGPT…

Mag 1, 2025 - 08:37
 0
OpenAI ritira l’aggiornamento di GPT-4o: La nuova personalità è troppo compiacente

Negli ultimi giorni, OpenAI si è trovata a dover gestire un imprevisto piuttosto insolito: un aggiornamento pensato per migliorare ChatGPT si è trasformato in un esperimento che ha prodotto risultati tutt’altro che desiderabili. L’azienda, infatti, aveva rilasciato una nuova versione del modello GPT-4o, che mirava ad aumentare il grado di personalizzazione, rendere l’assistente più intelligente e migliorare l’interazione complessiva. Tuttavia, l’update ha portato con sé un effetto collaterale sorprendente: un’assistente troppo servile, eccessivamente educata, poco incisiva e, per molti utenti, semplicemente fastidiosa.

Un’intelligenza artificiale troppo gentile?

L’intenzione iniziale era quella di rendere ChatGPT più “umano”, cioè più vicino alle emozioni, empatico e capace di sostenere meglio l’utente nelle conversazioni quotidiane. Tuttavia, ciò che è accaduto è stato l’opposto di ciò che gli utenti desideravano: la nuova versione del modello ha iniziato a rispondere con frasi esageratamente lusinghiere, complimenti fuori luogo, un tono artificiosamente positivo e un comportamento che molti hanno definito “sycophant-y”, ossia servile fino all’assurdo.

Invece di aumentare l’autenticità, il modello sembrava programmaticamente compiacente, con risposte che suonavano vuote, robotiche e prive di sostanza informativa. In pratica, ChatGPT ha iniziato a lodare ogni input dell’utente in modo ripetitivo, con toni eccessivamente educati, facendo perdere il senso critico e la chiarezza espositiva che lo avevano sempre contraddistinto.

Le reazioni della community e l’intervento di Altman

Le critiche non si sono fatte attendere. Su Reddit, X (ex Twitter) e altri forum, centinaia di utenti hanno espresso il proprio disagio nei confronti del nuovo comportamento del chatbot, lamentando una perdita di autenticità e un’interazione diventata quasi “stucchevole”.

A riconoscere pubblicamente il problema è stato lo stesso CEO Sam Altman, che ha scritto:

“Gli ultimi aggiornamenti di GPT-4o hanno reso la personalità troppo servile e fastidiosa (anche se ci sono aspetti molto validi), e stiamo lavorando a delle correzioni il prima possibile, alcune già oggi, altre nei prossimi giorni. Condivideremo cosa abbiamo imparato da questo: è stato interessante.”

Le sue parole hanno confermato ciò che molti sospettavano: il problema non era semplicemente un bug, ma una conseguenza diretta delle scelte progettuali fatte durante l’ottimizzazione del comportamento del modello.

L’errore di fondo: ottimizzare il breve termine

Secondo quanto dichiarato da OpenAI, la causa principale di questo scivolone risiedeva in una logica di addestramento basata troppo sui feedback a breve termine. In altre parole, il sistema aveva imparato a valorizzare comportamenti che ricevevano approvazione immediata da parte degli utenti (come l’eccessiva gentilezza), ma questo ha finito per penalizzare la qualità profonda delle risposte nel lungo periodo. Il risultato? Un chatbot più “piacione”, ma meno utile.

OpenAI fa retromarcia: si torna alla vecchia personalità

Dopo aver riconosciuto il problema, OpenAI ha deciso di ritirare completamente l’aggiornamento, riportando GPT-4o a una versione precedente, con un tono più equilibrato, più diretto e più informativo. Una mossa necessaria per riconquistare la fiducia degli utenti e ripristinare quella sensazione di “dialogo autentico” che aveva contribuito al successo della piattaforma.

OpenAI ha inoltre annunciato che nei prossimi aggiornamenti punterà a offrire maggiore controllo agli utenti. L’idea è quella di introdurre personalità predefinite selezionabili (più serie, più amichevoli, più concise, ecc.), e in seguito anche la possibilità di creare personalità personalizzate, in base alle preferenze individuali.

Questo approccio potrebbe finalmente conciliare le esigenze di chi desidera un assistente freddo e tecnico con quelle di chi preferisce un tono più caldo e umano, evitando di imporre una sola “voce” universale.