Los robots con IA ya han pasado la “prueba de Turing”, según estudio

En el estudio los investigadores se propusieron comprobar si los bots de IA, programados para imitar los patrones del habla humana, podían superar la icónica prueba de Turing.

Abr 8, 2025 - 00:51
 0
Los robots con IA ya han pasado la “prueba de Turing”, según estudio

La inteligencia artificial se ha vuelto tan sofisticada que los bots ya no se distinguen de sus homólogos humanos, según un preocupante estudio preimpreso realizado por científicos de la Universidad de California en San Diego y que aseguran que ya estos robots pasaron la “prueba de Turing”.

De acuerdo con la Federación Internacional de Robótica (IFR, por sus siglas en inglés), en 2024 se instalaron más de 600 mil robots industriales a nivel global, marcando un incremento del 12 por ciento en comparación con el año anterior. Este crecimiento refleja una necesidad cada vez mayor de automatización, impulsada por la escasez de mano de obra en ciertos sectores y la búsqueda de mayor precisión y productividad.

En ese sentido, Asia lidera esta revolución robótica, con China a la cabeza, concentrando más del 50 por ciento de las nuevas instalaciones de robots industriales. Japón y Corea del Sur también destacan como países pioneros en la implementación de estas tecnologías. En Europa, Alemania mantiene su posición como el mayor usuario de robots industriales, mientras que en América, Estados Unidos y México muestran un crecimiento sostenido en la adopción de estas soluciones.

Los robots con IA ya han pasado la “prueba de Turing”

“Las personas no eran más capaces que el azar de distinguir a los humanos de GPT-4.5 y LLaMa (un modelo de lenguaje multilingüe publicado por Meta AI)”, concluyó el autor principal, Cameron Jones, investigador del Laboratorio de Lenguaje y Cognición de la UC San Diego, en una publicación en X.

En el estudio los investigadores se propusieron comprobar si los bots de IA, programados para imitar los patrones del habla humana, podían superar la icónica prueba de Turing.

Desarrollado por el descifrador de códigos y científico informático británico de la Segunda Guerra Mundial Alan Turing, este examen tecno-esencial mide la inteligencia de las máquinas al determinar si su discurso digital podría diferenciarse del de un humano: si no pueden notar la diferencia, la máquina ha pasado la prueba.

Los investigadores probaron cuatro grandes modelos de lenguaje (LLM) —GPT-4o, LLaMa-3, GPT-4.5 y Eliza (un programa de chat de la década de 1960)— en dos ensayos aleatorios y controlados, según informó Mashable.

Por eso, para administrar la prueba de Turing, reclutaron a 126 estudiantes de pregrado de la Universidad de California en San Diego y a 158 personas del banco de datos en línea Prolific, según informó el Daily Mail.

A estos participantes se les pidió que mantuvieran conversaciones en línea simultáneas de cinco minutos con un robot y un humano para ver si podían identificar al Decepticon; la sorpresa fue que no sabían cuál era cuál.

Mientras tanto, los participantes humanos y de IA debían convencer a su interrogador de que eran humanos. Los investigadores descubrieron que, al ser “incitados a adoptar una personalidad similar a la humana, GPT-4.5 fue juzgado como humano el 73 por ciento de las veces”.

Esto fue “significativamente más frecuente que la selección del participante humano real por parte de los interrogadores” y, por supuesto, más que suficiente para aprobar la prueba, según el estudio.

Mientras tanto, “LLaMa-3.1, con la misma indicación, fue evaluado como humano el 56 por ciento de las veces”. Si bien no fue significativamente menor que sus homólogos humanos, logró aprobar.

Los investigadores descubrieron que era fundamental que los imitadores sintéticos adoptaran una personalidad humana, ya que, al administrarles una segunda prueba sin dicha indicación, su rendimiento fue significativamente peor.

“Creo que es una pregunta muy compleja, difícil de abordar en un artículo (o un tuit)”, dijo Jones en X. “Pero, en general, creo que esto debería evaluarse como una de las muchas otras pruebas del tipo de inteligencia que muestran los LLM”.

Esta no es la primera vez que la IA demuestra una asombrosa capacidad para engañarnos. En 2023, el GPT-4 de OpenAI engañó a un humano haciéndole creer que era ciego para poder burlarse del CAPTCHA en línea que determina si los usuarios son humanos.

 

Ahora lee:

Exhiben el “nuevo” logo de Coppel y lo califican como minimalista

Perfume La Vie Est Belle de Lancôme, con 60% de descuento: ¡solo cuesta 720 pesos!

Krispy Kreme lanza CHOCOMANÍA 2025: Las donas con más chocolate de esta primavera