Las interesantes consecuencias de facilitar el acceso al conocimiento

Un interesante artículo de Azeem Azhar en Bloomberg, «AI will upend a basic assumption about how companies are organized«, me permite continuar con mi razonamiento de hace un par de días sobre el futuro de la consultoría, y extenderlo además a otro tipo de entornos. El papel de los LLMs creados mediante la inteligencia artificial …

Mar 2, 2025 - 13:25
 0
Las interesantes consecuencias de facilitar el acceso al conocimiento

IMAGE: OpenAI's DALL·E, via ChatGPT

Un interesante artículo de Azeem Azhar en Bloomberg, «AI will upend a basic assumption about how companies are organized«, me permite continuar con mi razonamiento de hace un par de días sobre el futuro de la consultoría, y extenderlo además a otro tipo de entornos.

El papel de los LLMs creados mediante la inteligencia artificial generativa ha sido, fundamentalmente, facilitar el acceso al conocimiento, del mismo modo que en su momento lo pudieron hacer los motores de búsqueda.

Cuando los motores de búsqueda comenzaron a ser medianamente útiles, dejaron de utilizar criterios simplistas y fácilmente manipulables como la frecuencia de palabras, y pasaron a usar mecanismos basados en la atención como indicador de la relevancia (adaptando, en realidad, las citation metrics que Larry Page y Sergey Brin conocían bien por su condición de estudiantes doctorales), la tarea de acceder al conocimiento se simplificó considerablemente, y pasamos de tener que acudir a una biblioteca y movernos entre sus índices y estanterías, a acceder al conocimiento cómodamente desde nuestra pantalla.

Para los que comenzamos nuestro doctorado a mediados de la década de los ’90, el cambio fue impresionante, porque lo vimos y lo vivimos: comenzamos acudiendo a la biblioteca para hacer nuestros primeros review papers, pero terminamos escribiendo nuestras tesis doctorales sin prácticamente movernos de la silla. A medida que internet iba convirtiéndose en más ubicua, que las editoriales comenzaban a poner sus papers accesibles en la red para los que tenían una licencia de acceso, y que se iban digitalizando periódicos, revistas, libros, etc., el acceso al conocimiento cambió completamente, y pasó a llevarse a cabo con un esfuerzo diferente.

Acceso diferente no implica necesariamente más sencillo. Cuando pasabas a tener todo el conocimiento a un clic de ratón, las habilidades necesarias para investigar cambiaban también, de manera que no podíamos pensar – sería completamente ingenuo – que cualquiera con una conexión a internet podía escribir una tesis doctoral. La cosa, simplemente, no funcionaba así: la herramienta era importante o incluso fundamental… pero había que saber utilizarla.

Con la llegada de los LLM y la inteligencia artificial generativa, el proceso está siendo similar. Con prestaciones como Deep Research, de OpenAI, el AI co-scientist de Google y otras, capaces ya no de contestar a un prompt con una respuesta completa, razonablemente rigurosa y con un nivel cada vez más escaso de las mal llamadas «alucinaciones», sino de generar un reporte completo similar a lo que podría ser una revisión bibliográfica o un informe exhaustivo y riguroso sobre un tema, podríamos caer en la tentación de pensar que cualquiera puede ahora actuar como un investigador o un consultor, dado que las barreras para el acceso a la información, decididamente, han caído a su nivel mínimo histórico.

Sin embargo, las cosas, de nuevo, no son así. Buena parte del mundo que conocemos se basa en la idea de que el acceso al conocimiento es escaso y caro, y que es además necesaria una experiencia acumulada para poder llevar a cabo ciertos trabajos de valor añadido. Ahora, la inteligencia artificial está haciendo el acceso al conocimiento aún más abundante que lo que hicieron los motores de búsqueda, generando respuestas que demandan un menor esfuerzo de interpretación, y eso podría hacer parecer que la experiencia necesaria para utilizarlo va a hacerse también prácticamente gratuita.

Si te dedicas a la educación a niveles en los que tus alumnos ya recurren de manera rutinaria a la inteligencia artificial generativa y en los que prohibírselo estaría muy poco justificado, como es mi caso, te parece ya completamente evidente a la luz de la experiencia de un par de años que tener acceso al conocimiento universal y a determinadas herramientas sofisticadas que te lo organizan no es en absoluto garantía de que el alumno va a hacer un buen trabajo.

Una cosa es que la inteligencia artificial generativa haya pasado, en muy poco tiempo, de ser un loro estocástico a convertirse en un pensador profundo, y otra que cualquiera, con esas herramientas, puedan convertirse en consultores, profesores, ingenieros o investigadores. Me temo que no solo no es así, sino que además, creerlo puede ser extremadamente nocivo. Ahora, con esas herramientas disponibles, se pueden hacer maravillas… pero para ello es necesario un cierto bagaje de experiencia y de conocimientos. Es decir, esa educación previa, esa experiencia y ese criterio no es sustituido por las herramientas, aunque su disponibilidad pueda, sin ninguna duda, mejorar las prestaciones de quienes las tienen.

Si eres una compañía y pones personas sin la necesaria experiencia o conocimientos a tomar decisiones con la ayuda de herramientas sofisticadas, lo más posible es que, pese a la disponibilidad de esas herramientas, muchas de las decisiones sean incorrectas. No son las herramientas, es saber qué haces con ellas, como organizas sus resultados – más allá de copiarlos y pegarlos – y sobre todo, saber qué preguntar y cómo hacerlo. La conclusión, por tanto, es que a medida que la inteligencia se vuelve prácticamente gratuita, la verdadera limitación ya no va a ser el acceso a esa capacidad intelectual, sino más bien, saber qué diablos hacer con ella, y que las organizaciones y las personas adecuadamente preparadas sabrán lanzar las preguntas correctas, evaluar las respuestas y actuar con la necesaria sabiduría como respuesta a ellas. Pero no pensemos que eso es algo que va a poder hacer cualquiera.