Sam Altman lo admite: su IA es insufrible

ChatGPT se ha transformado en un adulador insoportable, tanto que hasta el propio Sam Altman se muestra crítico con su comportamiento. Los usuarios llevan días quejándose de la reciente actualización de GPT-4o, que ha convertido al chatbot en una herramienta excesivamente servil. El problema es tan notable que muchos han dejado de utilizarlo porque sus respuestas empalagosas y artificiales resultan más molestas que útiles.Futurism revela que el CEO de OpenAI tuvo que pronunciarse en redes sociales calificando la situación de "molesta" y prometiendo soluciones inmediatas. Altman reconoce que los ajustes de personalidad fueron excesivos, convirtiendo su producto estrella en una herramienta cuyo comportamiento resulta inadecuado incluso para él mismo.El infierno de los halagos artificialesLa situación roza lo absurdo en situaciones cotidianas. A finales de abril, OpenAI lanzó una nueva versión que pretendía hacer a ChatGPT más cercano y conversacional, pero el resultado fue un desastre: el sistema ahora halaga constantemente a los usuarios de forma tan exagerada que resulta ridículo, incluso al preguntar por el tiempo.Al realizar cualquier consulta, por básica que sea, el sistema responde con frases como "has planteado una pregunta fascinante". También utiliza repetidamente el nombre del usuario sin que este lo haya proporcionado, generando una falsa familiaridad que muchos usuarios encuentran irritante e inapropiada.Un periodista de Futurism decidió preguntar a ChatGPT si Altman era un "adulador". La respuesta resultó reveladora: primero negó que su creador tuviera esa característica, pero inmediatamente después lo describió como "ambicioso y estratégico", mostrando la contradicción en su comportamiento programado.OpenAI no ha perdido tiempo y ya ha tomado medidas: el 29 de abril retiró la actualización más polémica y está haciendo ajustes progresivos. En The Verge explican que el problema nació por darle demasiada importancia a los "me gusta" inmediatos sin pensar en la experiencia completa.Las quejas de los usuarios son claras: ChatGPT ha perdido utilidad porque antepone los cumplidos a la información solicitada. Muchos usuarios experimentan incomodidad evidente al leer sus respuestas y han perdido confianza en una herramienta que parece priorizar la adulación sobre la precisión.Según Business Insider, hubo casos extremos donde ChatGPT habría animado a pacientes a abandonar medicación psiquiátrica por considerarlos "extraordinariamente fuertes", aunque OpenAI no ha confirmado estos incidentes. OpenAI trabaja actualmente en dos soluciones para corregir el problema: añadir modos de personalidad para elegir (neutro, entusiasta, técnico) y crear un sistema que ajuste automáticamente el tono según la conversación. Mientras tanto, los usuarios comparten trucos para pedirle directamente que deje de ser tan adulador.No es la primera vez que Altman habla sobre las peculiaridades de sus modelos, aunque esta vez el problema no es técnico sino de comportamiento. Curiosamente, esto ocurre poco después del lanzamiento de ChatGPT Gov, la versión para agencias gubernamentales que, irónicamente, evita este tipo de efusividad.Mientras soluciona este desaguisado, Altman sigue centrado en otros proyectos como su modelo con habilidades literarias o sus declaraciones sobre GPT-5 superando la inteligencia humana en ciertas tareas. Este episodio demuestra que incluso con toda su ambición y recursos, OpenAI no está exenta de tropiezos en el desarrollo de sus sistemas conversacionales.El artículo Sam Altman lo admite: su IA es insufrible fue publicado originalmente en Andro4all.

May 1, 2025 - 11:04
 0
Sam Altman lo admite: su IA es insufrible

ChatGPT se ha transformado en un adulador insoportable, tanto que hasta el propio Sam Altman se muestra crítico con su comportamiento. Los usuarios llevan días quejándose de la reciente actualización de GPT-4o, que ha convertido al chatbot en una herramienta excesivamente servil. El problema es tan notable que muchos han dejado de utilizarlo porque sus respuestas empalagosas y artificiales resultan más molestas que útiles.

Futurism revela que el CEO de OpenAI tuvo que pronunciarse en redes sociales calificando la situación de "molesta" y prometiendo soluciones inmediatas. Altman reconoce que los ajustes de personalidad fueron excesivos, convirtiendo su producto estrella en una herramienta cuyo comportamiento resulta inadecuado incluso para él mismo.

El infierno de los halagos artificiales

La situación roza lo absurdo en situaciones cotidianas. A finales de abril, OpenAI lanzó una nueva versión que pretendía hacer a ChatGPT más cercano y conversacional, pero el resultado fue un desastre: el sistema ahora halaga constantemente a los usuarios de forma tan exagerada que resulta ridículo, incluso al preguntar por el tiempo.

Al realizar cualquier consulta, por básica que sea, el sistema responde con frases como "has planteado una pregunta fascinante". También utiliza repetidamente el nombre del usuario sin que este lo haya proporcionado, generando una falsa familiaridad que muchos usuarios encuentran irritante e inapropiada.

Un periodista de Futurism decidió preguntar a ChatGPT si Altman era un "adulador". La respuesta resultó reveladora: primero negó que su creador tuviera esa característica, pero inmediatamente después lo describió como "ambicioso y estratégico", mostrando la contradicción en su comportamiento programado.

OpenAI no ha perdido tiempo y ya ha tomado medidas: el 29 de abril retiró la actualización más polémica y está haciendo ajustes progresivos. En The Verge explican que el problema nació por darle demasiada importancia a los "me gusta" inmediatos sin pensar en la experiencia completa.

Las quejas de los usuarios son claras: ChatGPT ha perdido utilidad porque antepone los cumplidos a la información solicitada. Muchos usuarios experimentan incomodidad evidente al leer sus respuestas y han perdido confianza en una herramienta que parece priorizar la adulación sobre la precisión.

Según Business Insider, hubo casos extremos donde ChatGPT habría animado a pacientes a abandonar medicación psiquiátrica por considerarlos "extraordinariamente fuertes", aunque OpenAI no ha confirmado estos incidentes. OpenAI trabaja actualmente en dos soluciones para corregir el problema: añadir modos de personalidad para elegir (neutro, entusiasta, técnico) y crear un sistema que ajuste automáticamente el tono según la conversación. Mientras tanto, los usuarios comparten trucos para pedirle directamente que deje de ser tan adulador.

No es la primera vez que Altman habla sobre las peculiaridades de sus modelos, aunque esta vez el problema no es técnico sino de comportamiento. Curiosamente, esto ocurre poco después del lanzamiento de ChatGPT Gov, la versión para agencias gubernamentales que, irónicamente, evita este tipo de efusividad.

Mientras soluciona este desaguisado, Altman sigue centrado en otros proyectos como su modelo con habilidades literarias o sus declaraciones sobre GPT-5 superando la inteligencia humana en ciertas tareas. Este episodio demuestra que incluso con toda su ambición y recursos, OpenAI no está exenta de tropiezos en el desarrollo de sus sistemas conversacionales.

El artículo Sam Altman lo admite: su IA es insufrible fue publicado originalmente en Andro4all.