Todo un campo de la ciencia entró en crisis tras lanzarse ChatGPT: sus investigadores pensaron que se habían quedado sin trabajo

La inteligencia artificial ha transformado muchos ámbitos de la ciencia y la tecnología, pero pocos han sentido su impacto tan directamente como la lingüística computacional, especialmente el área conocida como procesamiento del lenguaje natural (NLP, por sus siglas en inglés). Este campo, que se dedica a hacer comprensible el lenguaje humano para las máquinas, vivió una auténtica revolución —y crisis existencial— tras el lanzamiento de modelos como GPT-3 y, especialmente, ChatGPT. ¿Un nuevo paradigma científico? Un paradigma científico, según el filósofo Thomas Kuhn, es un conjunto de prácticas, teorías y métodos compartidos que definen una disciplina científica en un momento dado. Una "revolución científica" ocurre cuando ese marco se vuelve insostenible y es reemplazado por otro completamente distinto. En el campo del procesamiento del lenguaje natural (PLN), el paradigma dominante durante décadas fue el enfoque basado en reglas lingüísticas, seguido por el aprendizaje automático supervisado, que requería grandes cantidades de datos etiquetados y modelos específicos para cada tarea (traducción automática, análisis de sentimiento, extracción de entidades, etc.). La llegada de los LLMs trastocó radicalmente este enfoque. De BERT a los transformadores En 2017, Google publicó un famoso paper académico que introdujo el modelo 'transformer'. Aunque en su momento pareció solo una innovación más en el campo de la IA, pronto se convertiría en el fundamento de los grandes modelos de lenguaje (LLMs, por sus siglas en inglés). En 2018, el modelo BERT, basado en esta nueva tecnología, revolucionó el campo con resultados sorprendentes en tareas lingüísticas. Esto desató la llamada 'BERTología', una fiebre de publicaciones y mejoras incrementales que convirtieron a los benchmarks en el nuevo campo de batalla. La clave ya no estaba en nuevas ideas, sino en escalar: más datos, más parámetros, más potencia. En Xataka Llevamos toda la vida intentando entender a los animales: Baidu cree tener la clave y lo ha registrado en una nueva patente Entre BERT y ChatGPT (2020–2022) De modo que la publicación de GPT-3 en 2020 marcó un antes y un después. Con más de 100 veces la capacidad de su predecesor, mostraba habilidades sorprendentes, desde generar texto coherente hasta resolver tareas con solo instrucciones en lenguaje natural. Algunos investigadores, como Christopher Callison-Burch, sintieron que ahora todos sus años de trabajo podían ser replicados por GPT-3 en minutos. Pero esta capacidad trajo consigo una pregunta fundamental: ¿estos modelos entienden lo que dicen? Emily Bender y Alexander Koller propusieron el famoso 'test del pulpo', argumentando que un modelo que solo imita patrones no puede entender el significado. El debate se polarizó y dividió al campo entre “pro-LLM” y escépticos. El (arrollador) impacto de ChatGPT El 30 de noviembre de 2022, OpenAI lanzó ChatGPT. Su impacto fue inmediato y brutal. En cuestión de días, los investigadores empezaron a darse cuenta de que muchas de las tareas en las que trabajaban habían quedado obsoletas, y algunos estudiantes de doctorado se vieron obligados a cambiar el tema de sus tesis. Y en el EMNLP, uno de los principales congresos de este campo, hubo que dijo en algo la pregunta que muchos se hacían: "¿Será esta la última conferencia de NLP?". 2023: Entre la euforia mediática y la confusión académica Sin embargo, con la popularización de ChatGPT llegó también una avalancha mediática: unos investigadores que antes hablaban solo en círculos académicos pasaron a ser entrevistados en televisión o citados en debates legislativos. Mientras tanto, la comunidad científica se fragmentaba: donde algunos veían los LLM como una herramienta útil, otros, en cambio, los veían como una amenaza a los principios de la investigación reproducible. A la par, surgieron iniciativas para crear modelos abiertos, como OLMo de AI2, en respuesta al dominio de gigantes como OpenAI o Google. Sin embargo, la diferencia en recursos dejaba claro que el ámbito académico ya no era el principal motor del progreso en esta ciencia: el desarrollo de LLMs ha estado liderado no por instituciones académicas, sino por grandes empresas tecnológicas como OpenAI, Google DeepMind o Anthropic. En Genbeta Están usando una IA para traducir una lengua de hace 5.000 años. Han descubierto que entiende mejor los decretos que los poemas 2024–2025: ¿Reinvención o final? Hoy, muchos investigadores se definen como estudiosos de los LLMs, más que estudiosos del lenguaje mediante herramientas computacionales. Algunos reconocen que su trabajo se ha reorientado por completo: ahora se trata de entender a los modelos mismos, no solo el lenguaje humano. Otros han tomado el papel de críticos, explorando las limitaciones de los LLM: su falta de comprensión profunda, su propensión

May 9, 2025 - 19:57
 0
Todo un campo de la ciencia entró en crisis tras lanzarse ChatGPT: sus investigadores pensaron que se habían quedado sin trabajo

Todo un campo de la ciencia entró en crisis tras lanzarse ChatGPT: sus investigadores pensaron que se habían quedado sin trabajo

La inteligencia artificial ha transformado muchos ámbitos de la ciencia y la tecnología, pero pocos han sentido su impacto tan directamente como la lingüística computacional, especialmente el área conocida como procesamiento del lenguaje natural (NLP, por sus siglas en inglés).

Este campo, que se dedica a hacer comprensible el lenguaje humano para las máquinas, vivió una auténtica revolución —y crisis existencial— tras el lanzamiento de modelos como GPT-3 y, especialmente, ChatGPT.

¿Un nuevo paradigma científico?

Un paradigma científico, según el filósofo Thomas Kuhn, es un conjunto de prácticas, teorías y métodos compartidos que definen una disciplina científica en un momento dado. Una "revolución científica" ocurre cuando ese marco se vuelve insostenible y es reemplazado por otro completamente distinto.

En el campo del procesamiento del lenguaje natural (PLN), el paradigma dominante durante décadas fue el enfoque basado en reglas lingüísticas, seguido por el aprendizaje automático supervisado, que requería grandes cantidades de datos etiquetados y modelos específicos para cada tarea (traducción automática, análisis de sentimiento, extracción de entidades, etc.).

La llegada de los LLMs trastocó radicalmente este enfoque.

De BERT a los transformadores

En 2017, Google publicó un famoso paper académico que introdujo el modelo 'transformer'. Aunque en su momento pareció solo una innovación más en el campo de la IA, pronto se convertiría en el fundamento de los grandes modelos de lenguaje (LLMs, por sus siglas en inglés).

En 2018, el modelo BERT, basado en esta nueva tecnología, revolucionó el campo con resultados sorprendentes en tareas lingüísticas. Esto desató la llamada 'BERTología', una fiebre de publicaciones y mejoras incrementales que convirtieron a los benchmarks en el nuevo campo de batalla. La clave ya no estaba en nuevas ideas, sino en escalar: más datos, más parámetros, más potencia.

Entre BERT y ChatGPT (2020–2022)

De modo que la publicación de GPT-3 en 2020 marcó un antes y un después. Con más de 100 veces la capacidad de su predecesor, mostraba habilidades sorprendentes, desde generar texto coherente hasta resolver tareas con solo instrucciones en lenguaje natural.

Algunos investigadores, como Christopher Callison-Burch, sintieron que ahora todos sus años de trabajo podían ser replicados por GPT-3 en minutos.

Pero esta capacidad trajo consigo una pregunta fundamental: ¿estos modelos entienden lo que dicen? Emily Bender y Alexander Koller propusieron el famoso 'test del pulpo', argumentando que un modelo que solo imita patrones no puede entender el significado. El debate se polarizó y dividió al campo entre “pro-LLM” y escépticos.

El (arrollador) impacto de ChatGPT

El 30 de noviembre de 2022, OpenAI lanzó ChatGPT. Su impacto fue inmediato y brutal. En cuestión de días, los investigadores empezaron a darse cuenta de que muchas de las tareas en las que trabajaban habían quedado obsoletas, y algunos estudiantes de doctorado se vieron obligados a cambiar el tema de sus tesis.

Y en el EMNLP, uno de los principales congresos de este campo, hubo que dijo en algo la pregunta que muchos se hacían:

"¿Será esta la última conferencia de NLP?".

2023: Entre la euforia mediática y la confusión académica

Sin embargo, con la popularización de ChatGPT llegó también una avalancha mediática: unos investigadores que antes hablaban solo en círculos académicos pasaron a ser entrevistados en televisión o citados en debates legislativos.

Mientras tanto, la comunidad científica se fragmentaba: donde algunos veían los LLM como una herramienta útil, otros, en cambio, los veían como una amenaza a los principios de la investigación reproducible.

A la par, surgieron iniciativas para crear modelos abiertos, como OLMo de AI2, en respuesta al dominio de gigantes como OpenAI o Google. Sin embargo, la diferencia en recursos dejaba claro que el ámbito académico ya no era el principal motor del progreso en esta ciencia: el desarrollo de LLMs ha estado liderado no por instituciones académicas, sino por grandes empresas tecnológicas como OpenAI, Google DeepMind o Anthropic.

2024–2025: ¿Reinvención o final?

Hoy, muchos investigadores se definen como estudiosos de los LLMs, más que estudiosos del lenguaje mediante herramientas computacionales. Algunos reconocen que su trabajo se ha reorientado por completo: ahora se trata de entender a los modelos mismos, no solo el lenguaje humano.

Otros han tomado el papel de críticos, explorando las limitaciones de los LLM: su falta de comprensión profunda, su propensión a alucinar y su dependencia de datos históricos.

"Leo habitualmente a personas de ambos bandos. Lo normal es suscribirte a boletines de Substack para ver el lado de los lingüistas enfadados, y meterte en Twitter para ver el lado a favor de escalar los modelos".

¿Ha sido un cambio de paradigma?

Las opiniones difieren. Algunos lo ven lo ocurrido en estos últimos años como un punto de inflexión total, otros no. Lo cierto es que muchas preguntas que antes se consideraban centrales en NLP se han visto desplazadas del foco de las principales investigaciones. En cualquier caso, aceptar que estamos ante un cambio de paradigma no significa asumir que el modelo actual sea el definitivo...

Vía | QuantaMagazine

Imagen | Marcos Merino mediante IA

En Genbeta | Google revolucionó la IA hace ocho años con la tecnología que haría posible ChatGPT. Con 'Titans' quiere volver a cambiarlo todo

-
La noticia Todo un campo de la ciencia entró en crisis tras lanzarse ChatGPT: sus investigadores pensaron que se habían quedado sin trabajo fue publicada originalmente en Genbeta por Marcos Merino .