Ahora podrás hablar con ChatGPT sin tapujos: OpenAI elimina los mensajes de advertencia
La compañía de Sam Altman tiene la intención de reducir "las negociaciones gratuitas e inexplicables".

¿Alguna vez has intentado hablar con ChatGPT sobre algún tema prohibitivo? Si la respuesta es afirmativa sabrás que aparece una advertencia indicando que el contenido viola los términos de servicio, sin embargo, en una reciente publicación de la red social X (antes Twitter), Laurentia Romaniuk, miembro del equipo de comportamiento del modelo de IA de la compañía de Sam Altman, afirma que OpenAI ha eliminado los mensajes de advertencia en ChatGPT.
Esta decisión viene dada con el objetivo de reducir "las negociaciones gratuitas/inexplicables", además, Nick Turley, jefe de producto de ChatGPT, añade en otra publicación de X que, ahora, los usuarios deberían poder "usar ChatGPT como mejor les parezca", pero con la condición de cumplir con la ley y no hacer daño a otros internautas.
Por otro lado, es importante mencionar que la eliminación de las advertencias no significa que la inteligencia artificial de OpenAI sea completamente 'libre', ya que no responderá a preguntas objetables. No obstante, la llegada de esta novedad ha provocado que algunos usuarios estén encantados con el cambio, ¿el motivo? Dichos internautas ya han expresado públicamente que podrán "decir algo que no sea ilegal ni cause daño".
OpenAI también elimina su compromiso con la diversidad
No es ninguna conciencia que OpenAI haya tomado esta decisión, debido a que la compañía de Sam Altman también ha eliminado una página de su sitio web que solía expresar su compromiso con la diversidad, la equidad y la inclusión.
Anteriormente, dicha página afirmaba que "la inversión de la empresa en diversidad, equidad e inclusión estaba en curso", asimismo, reconocía que OpenAI estaba comprometida a "mejorar continuamente el trabajo para crear una organización diversa, equitativa e inclusiva". Pero, ¿qué cambios trae la actualización? Según recoge el diario TechCrunch, la nueva página dice: "En OpenAI, reconocemos que las ideas más sólidas surgen cuando son probadas, debatidas y mejoradas por personas con diferentes orígenes, experiencias y formas de pensar. Fomentamos una cultura de curiosidad en la que las ideas se puedan desafiar, no solo aceptar".
Ante tal cambio, OpenAI no ha respondido a ninguna solicitud de comentarios sobre el cambio en el sitio web o si indica que han revertido o modificado algunos de los procesos internos de la compañía.
Además, los de Altman no son los únicos en cambiar su política, debido a que Google actualizó su guía ética para el uso de la IA, rediseñando la mayoría de sus principios. Concretamente, la compañía de Mountain View eliminó la categoría 'Aplicaciones de la inteligencia artificial que no vamos a abordar', un principio relacionado con el compromiso de no usar esta tecnología en aplicaciones relacionadas con vigilancia o armas que violen normas internacionales o contraríen los derechos.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.