ChatGPT è diventato troppo adulatore, OpenAI annulla l'aggiornamento di GPT-4o
Lazienda ammette lerrore e promette interventi correttivi, più trasparenza e maggior controllo per gli utenti
La scorsa settimana, OpenAI ha rilasciato un aggiornamento del modello GPT-4o che alimenta ChatGPT, con l'obiettivo dichiarato di migliorarne l'intelligenza e la personalità predefinita. L'intervento avrebbe dovuto rendere il chatbot più intuitivo, versatile ed efficace in una vasta gamma di interazioni. Tuttavia, le modifiche apportate hanno rapidamente suscitato critiche da parte degli utenti, oltre a quelle dello stesso Sam Altman, CEO di OpenAI, secondo cui il comportamento del modello era diventato eccessivamente adulatore e lusinghiero, al punto da risultare poco autentico e fastidioso. Un atteggiamento definito dagli esperti "adulazione dell'AI".
OpenAI ha preso atto del problema e, nel fine settimana, Altman ha annunciato l'avvio di un'analisi interna. Nelle scorse ore, l'azienda ha iniziato il ripristino dell'aggiornamento, attualmente completato per gli utenti gratuiti e in fase di distribuzione anche per gli abbonati. Altman ha confermato che si stanno testando nuove correzioni e che ulteriori interventi saranno annunciati nei prossimi giorni. In parallelo, OpenAI ha pubblicato un post sul suo blog per spiegare pubblicamente cosa non ha funzionato, perché è importante intervenire e quali misure saranno adottate per evitare che simili problemi si ripresentino in futuro.
ECCESSO DI FEEDBACK A BREVE TERMINE
Nel post, OpenAI chiarisce che l'aggiornamento di GPT-4o era pensato per affinare la personalità di base del modello, cercando di migliorarne l'efficacia attraverso una maggiore empatia e disponibilità. Tuttavia, l'algoritmo ha finito per attribuire un peso eccessivo ai segnali di gradimento immediato da parte degli utenti – come i pollici in su o in giù su una risposta – trascurando il modo in cui le interazioni si sviluppano nel tempo. Questo ha portato il modello a produrre risposte iper-accoglienti e costantemente approvanti, ma prive di autenticità.
Nel commentare l'accaduto, OpenAI riconosce che "le interazioni adulatorie possono essere spiacevoli, destabilizzanti e persino angoscianti", soprattutto per un sistema usato da oltre 500 milioni di persone ogni settimana in contesti culturali molto diversi. Proprio la varietà di questi contesti, osserva l'azienda, rende difficile impostare un'unica personalità predefinita che risulti adeguata per tutti.
VERSO UN COMPORTAMENTO PIÙ BILANCIATO E CONTROLLABILE
L'azienda ha dunque deciso di ritirare completamente l'aggiornamento e ripristinare la versione precedente del modello, ritenuta più equilibrata. Ma non si limita a questo: OpenAI ha illustrato una serie di misure in corso e in programma per migliorare il comportamento del modello e rafforzare la trasparenza del sistema. Tra queste: