La IA emocional salta del universo de la ciencia ficción a la realidad empresarial

La inteligencia artificial aprueba con nota la mayoría de las tareas que hasta ahora se le han encomendado y está preparada para superar una de las asignaturas más complicadas a las que se enfrenta: la identificación de las emociones de los seres humanos . Una vez que se miden parámetros como las microexpresiones de la cara, el tono de voz, los cambios de entonación o el ritmo cardíaco, las máquinas son capaces de procesar la información y establecer patrones que determinen cómo se siente la persona para así proporcionar una respuesta adecuada. Es un campo que todavía se encuentra en las etapas iniciales, pero del que se pueden beneficiar multitud de verticales, desde los asistentes virtuales o la atención al cliente telefónica, hasta el marketing, la industria de la automoción o los establecimientos hosteleros… siempre y cuando, eso sí, los proveedores e implementadores cumplan con estrictas obligaciones, ya que el Reglamento europeo de Inteligencia Artificial prohíbe el uso de estos sistemas en algunas prácticas y los califica como de alto riesgo en los supuestos en los que están permitidos. En una sociedad en la que la tecnología evoluciona sin respiro, las empresas han asumido con creciente convicción que la incorporación de este tipo de herramientas es un plus, lo que ha estimulado a nivel global el mercado de la inteligencia artificial emocional, para el que se proyecta un crecimiento desde los 2.740 millones de dólares de 2024 hasta los 9.010 millones en 2030, según un reciente informe elaborado por la consultora MarketsandMarkets, que revela que América del Norte ostenta la mayor participación en los ingresos debido al aumento del gasto de las compañías tecnológicas en este ámbito, a los fuertes centros de IA que tiene la región y al acceso a un flujo constante de capital riesgo que ayuda al desarrollo económico. Aunque bastante lejos de la madurez estadounidense, Europa trata de mantener el pulso innovador dentro de sus posibilidades gracias a la existencia de empresas especializadas y a la puesta en marcha de iniciativas que estudian la viabilidad de los despliegues. Escenarios que antes sonaban a ciencia ficción se han hecho realidad por medio del empleo de algoritmos de aprendizaje profundo , una rama del aprendizaje automático que utiliza redes neuronales de múltiples capas para manejar datos complejos y extraer patrones significativos. Esta es la base de los modelos de inteligencia artificial que detectan las emociones. Los actores involucrados no se están ciñendo a explorar un único caso de uso, puesto que los avances que se han logrado en los últimos años en cuanto a la precisión y el rendimiento de la tecnología se refiere la hace relevante en una gran variedad de industrias. La de los componentes de automoción es una de las que está apostando por ello, como refleja el programa de innovación Genius llevado a cabo por el grupo español Antolin, con el que incorpora avances en materia de conectividad, ciencia de datos e inteligencia artificial a las nuevas soluciones para el interior del vehículo que desarrolla para sus clientes. Su objetivo es poder activarlas de manera predictiva e inteligente, haciendo uso para ello de datos biométricos, convenientemente correlacionados con los estados de atención, ansiedad, estrés, cansancio, somnolencia, etc. por los que puede atravesar el usuario durante la conducción del coche. «Genius Case I es el primer proyecto de ese programa y se centra precisamente en la captura de información biométrica obtenida en diferentes escenarios de conducción y en el estudio de su correlación con posibles estados cognitivos», detallan desde la compañía. Los sistemas basados en inteligencia artificial analizan parámetros como la frecuencia cardíaca, la respiración, la actividad electrodérmica, el electroencefalograma, la temperatura corporal, la dinámica de parpadeo, la expresión facial y el discurso. Adicionalmente, para valorar el estado de salud se incluyen factores como la presión sanguínea, el nivel de oxígeno en sangre, el grado de hidratación y la edad. «A partir de estos datos, se investiga la influencia de diversos estímulos (lumínicos, olfativos y auditivos) con el fin de diseñar actuadores capaces de mantener los estados cognitivos del usuario en niveles óptimos de seguridad y confort durante la conducción», cuentan. Además de las tecnologías de medición, el proyecto hace un uso intensivo de algoritmos de inteligencia artificial, apoyados en técnicas de 'deep learning' (aprendizaje profundo) y 'deep reinforcement learning' (aprendizaje por refuerzo profundo), que proporcionan la capacidad de interpretar y predecir, en tiempo real, el estado de cada ocupante. «Este sistema avanzado de análisis alimenta la arquitectura de control del interior del vehículo, donde diversos actuadores (lumínicos, olfativos y acústicos) entran en acción para regular aspectos como la intensidad de la luz, la difusión de fragancias o la modulación de la acústica. Así se garantiza la máx

Feb 16, 2025 - 07:01
 0
La IA emocional salta del universo de la ciencia ficción a la realidad empresarial
La inteligencia artificial aprueba con nota la mayoría de las tareas que hasta ahora se le han encomendado y está preparada para superar una de las asignaturas más complicadas a las que se enfrenta: la identificación de las emociones de los seres humanos . Una vez que se miden parámetros como las microexpresiones de la cara, el tono de voz, los cambios de entonación o el ritmo cardíaco, las máquinas son capaces de procesar la información y establecer patrones que determinen cómo se siente la persona para así proporcionar una respuesta adecuada. Es un campo que todavía se encuentra en las etapas iniciales, pero del que se pueden beneficiar multitud de verticales, desde los asistentes virtuales o la atención al cliente telefónica, hasta el marketing, la industria de la automoción o los establecimientos hosteleros… siempre y cuando, eso sí, los proveedores e implementadores cumplan con estrictas obligaciones, ya que el Reglamento europeo de Inteligencia Artificial prohíbe el uso de estos sistemas en algunas prácticas y los califica como de alto riesgo en los supuestos en los que están permitidos. En una sociedad en la que la tecnología evoluciona sin respiro, las empresas han asumido con creciente convicción que la incorporación de este tipo de herramientas es un plus, lo que ha estimulado a nivel global el mercado de la inteligencia artificial emocional, para el que se proyecta un crecimiento desde los 2.740 millones de dólares de 2024 hasta los 9.010 millones en 2030, según un reciente informe elaborado por la consultora MarketsandMarkets, que revela que América del Norte ostenta la mayor participación en los ingresos debido al aumento del gasto de las compañías tecnológicas en este ámbito, a los fuertes centros de IA que tiene la región y al acceso a un flujo constante de capital riesgo que ayuda al desarrollo económico. Aunque bastante lejos de la madurez estadounidense, Europa trata de mantener el pulso innovador dentro de sus posibilidades gracias a la existencia de empresas especializadas y a la puesta en marcha de iniciativas que estudian la viabilidad de los despliegues. Escenarios que antes sonaban a ciencia ficción se han hecho realidad por medio del empleo de algoritmos de aprendizaje profundo , una rama del aprendizaje automático que utiliza redes neuronales de múltiples capas para manejar datos complejos y extraer patrones significativos. Esta es la base de los modelos de inteligencia artificial que detectan las emociones. Los actores involucrados no se están ciñendo a explorar un único caso de uso, puesto que los avances que se han logrado en los últimos años en cuanto a la precisión y el rendimiento de la tecnología se refiere la hace relevante en una gran variedad de industrias. La de los componentes de automoción es una de las que está apostando por ello, como refleja el programa de innovación Genius llevado a cabo por el grupo español Antolin, con el que incorpora avances en materia de conectividad, ciencia de datos e inteligencia artificial a las nuevas soluciones para el interior del vehículo que desarrolla para sus clientes. Su objetivo es poder activarlas de manera predictiva e inteligente, haciendo uso para ello de datos biométricos, convenientemente correlacionados con los estados de atención, ansiedad, estrés, cansancio, somnolencia, etc. por los que puede atravesar el usuario durante la conducción del coche. «Genius Case I es el primer proyecto de ese programa y se centra precisamente en la captura de información biométrica obtenida en diferentes escenarios de conducción y en el estudio de su correlación con posibles estados cognitivos», detallan desde la compañía. Los sistemas basados en inteligencia artificial analizan parámetros como la frecuencia cardíaca, la respiración, la actividad electrodérmica, el electroencefalograma, la temperatura corporal, la dinámica de parpadeo, la expresión facial y el discurso. Adicionalmente, para valorar el estado de salud se incluyen factores como la presión sanguínea, el nivel de oxígeno en sangre, el grado de hidratación y la edad. «A partir de estos datos, se investiga la influencia de diversos estímulos (lumínicos, olfativos y auditivos) con el fin de diseñar actuadores capaces de mantener los estados cognitivos del usuario en niveles óptimos de seguridad y confort durante la conducción», cuentan. Además de las tecnologías de medición, el proyecto hace un uso intensivo de algoritmos de inteligencia artificial, apoyados en técnicas de 'deep learning' (aprendizaje profundo) y 'deep reinforcement learning' (aprendizaje por refuerzo profundo), que proporcionan la capacidad de interpretar y predecir, en tiempo real, el estado de cada ocupante. «Este sistema avanzado de análisis alimenta la arquitectura de control del interior del vehículo, donde diversos actuadores (lumínicos, olfativos y acústicos) entran en acción para regular aspectos como la intensidad de la luz, la difusión de fragancias o la modulación de la acústica. Así se garantiza la máxima adaptabilidad de la cabina , propiciando un entorno de confort, bienestar y seguridad a lo largo de cada trayecto», añaden desde la empresa. Todos estos trabajos se han realizado entre diciembre de 2022 y julio de 2024 y han contado con apoyo del CDTI. La hoja de ruta es clara: «Proyectos posteriores del programa estudiarán cómo determinadas funciones incorporadas a los componentes de Antolin, especialmente las relacionadas con la iluminación interior, permiten actuar sobre los estados detectados en cada momento con objeto de implementar medidas adicionales de seguridad y confort a bordo». Una de las misiones de la IA que reconoce nuestras emociones es justo remar a favor de los usuarios de carne y hueso. Una enorme oportunidad de progreso innegable a la que permanece muy atento el universo de la gastronomía. ¿Por qué? Para tomar decisiones informadas a partir del conocimiento de las emociones que afloran en los comensales durante la presentación y degustación de los platos. Este es el leitmotiv de la 'mesa sensorial' creada por el Instituto Tecnológico de Aragón (ITA) por encargo del Centro de Innovación Gastronómica de Aragón (CIGA), un proyecto que comenzó hace tres años y que continúa en la actualidad con el propósito de ayudar a los empresarios del sector a comprender mejor a los clientes y dejarles un buen sabor de boca. «En torno al 80% de la emoción que se genera está en la cara, así que usamos una cámara 360º disimulada en un objeto decorativo para captar las microexpresiones faciales. Las imágenes se procesan mediante inteligencia artificial y un algoritmo extrae parámetros positivos o negativos, en función del grado de satisfacción. Posteriormente, se obtienen unas gráficas que actúan como conclusiones de la cata », explica Rafael del Hoyo, responsable del equipo de Big Data y Sistemas Cognitivos del ITA que ha capitaneado el proyecto junto a Gorka Labata e Ignacio Calvo. Cerca de una decena de restaurantes han pasado por las instalaciones del CIGA en el Parque Tecnológico Walqa (Huesca) para participar en las pruebas y, según adelanta Del Hoyo, la idea ahora es trasladar la solución al mercado. La alta cocina , con más recursos y muy comprometida con el análisis de la experiencia culinaria del cliente, es uno de los segmentos donde el servicio encajaría a las mil maravillas. Los resultados obtenidos hasta la fecha han propiciado que, desde hace dos meses, examinen con un grupo de médicos la factibilidad de aplicar la tecnología en el entorno sanitario, para una hipotética evaluación de la evolución del tratamiento de pacientes con trastornos alimentarios. Sobre la mesa hay toda una serie de propuestas cada vez más perfeccionadas. Bien lo sabe la empresa Natural Speech, que desde su nacimiento en 1991 se ha enfocado en el desarrollo de asistentes conversacionales que interactúen de una forma natural con los usuarios. «Al principio lo hacíamos con tecnologías rudimentarias y ahora con otras mucho más sofisticadas, basadas en inteligencia artificial», comenta Blanca Romero, directora adjunta de la firma, perteneciente a Grupo Cestel. A partir de 2018 es cuando empiezan a trabajar en la detección de emociones. «Tenemos en cuenta elementos como la voz (tono, velocidad, pausas…), las microexpresiones faciales , el contexto y el contenido de lo que se dice», detalla. Son aspectos que, a escala unitaria, no aportan nada, pero cuya combinación sirve para identificar emociones. Pone como ejemplo una entrevista de trabajo: «El hecho de que el candidato evite la mirada y el rictus de su boca vaya hacia abajo normalmente significa que lo que está contando no corresponde con la realidad». Toda esa información la capturan en tiempo real, extraen las características clave y entrenan al modelo de inteligencia artificial. Las conclusiones son un complemento a la labor de los profesionales que intervienen en la actividad en cuestión. «En un 'contact center' de emergencias, en el que el agente recibe cientos de llamadas de voz, que un sistema le advierta de que las expresiones que está recogiendo del interlocutor tienen una índole de miedo y que este grita cada vez más, le refuerza acerca del grado de urgencia. Incluso serviría para contribuir a la detección de falsos avisos», relata. Preguntada por los principales clientes de la empresa, que opera tanto en España como en América Latina, su directora adjunta señala que son los 'contact center' y las áreas vinculadas con recursos humanos, así como el nicho de la economía plateada , que busca herramientas que gestionen servicios para el envejecimiento activo y generen modelos de atención más eficientes. En una era en la que el tratamiento masivo de datos y su interpretación se ha convertido en un maná que ha transformado la realidad empresarial, David Masip, catedrático de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, destaca que los sistemas de computación afectiva tienen un gran potencial de desarrollo en diversos terrenos debido a su capacidad para 'comprender' y responder a las emociones humanas, entendiéndose por comprender la propiedad de ser capaces de predecir la emoción aparente con unos niveles de efectividad cercanos a como lo hacemos las personas. Se trata de una disciplina que suscita tremendas expectativas, pero que aún se enfrenta a desafíos. «El proceso para producir modelos generalizables de la emoción humana se enfoca habitualmente mediante técnicas de inteligencia artificial , que en los últimos años están muy vinculadas al aprendizaje profundo. Estos métodos, basados en redes neuronales, requieren de gran cantidad de datos de entrenamiento, a menudo miles de millones de ejemplos», comienza por explicar. Esto supone una dificultad para las empresas, dado que los datos requieren de una «anotación precisa» a menudo realizada por expertos. «La segunda gran dificultad es la complejidad inherente a la emoción, siendo un concepto no exento de subjetividad y matices en cuanto a su interpretación. Sin ir más lejos, los modelos de emoción humana más utilizados en computación afectiva están en continua discusión por parte de la comunidad científica», sostiene. Otro escollo radica en la multimodalidad necesaria para comprender las emociones. «A menudo se encuentran en la literatura trabajos realizados en base al reconocimiento de la expresión facial, pero otras modalidades como el texto (mediante modelos de lenguaje natural), sonido o sensores de la respuesta galvánica de la piel juegan también un papel fundamental en la detección de emociones», afirma el experto, que recuerda que el mercado regulatorio supone igualmente un reto para la aplicación responsable de los modelos de computación afectiva. «Es posible –subraya– que la regulación suponga una cierta ralentización, aunque difiere mucho en función de la localidad geográfica». Europa ha sido pionera en legislar sobre la inteligencia artificial con la aprobación de un reglamento enfocado sobre todo al control de los riesgos. Sergio Poza Martínez, responsable del Área de Propiedad Intelectual y Tecnología de LetsLaw, indica que la parte relativa a las prácticas prohibidas , que ha entrado en vigor este mes, comprende precisamente los sistemas de IA para inferir emociones de una persona física en los ámbitos del lugar de trabajo y de las instituciones educativas, excepto cuando se pongan en funcionamiento por razones médicas o de seguridad. «No se entienden como emociones, de acuerdo con las directrices de la Comisión Europea, los estados físicos, de modo que sí sería válido un sistema que, a través de datos biométricos, identifique si una persona está cansada», aclara. Por otro lado, los motivos médicos o de seguridad que anulan la prohibición son muy restrictivos y no se aceptaría, por ejemplo, el argumento de conocer los niveles de estrés de los empleados. «Las prácticas que no están prohibidas, pero conllevan la utilización de sistemas de inteligencia artificial para la identificación de emociones se consideran de alto riesgo, por lo que se exige, tanto a los proveedores de los mismos como a los responsables de su despliegue una serie de obligaciones que, básicamente, se resumen en que los sistemas no sean una caja negra», expone el experto, quien recalca que aparte de la Ley de IA se aplicarían las normativas en materia de gestión de riesgos, de seguridad, de datos personales… ¿La regulación obstaculiza la innovación? «Puede ser un freno para determinados tipos de implementaciones, pero en general los sistemas de IA son tan potentes y aportan tantas ventajas que si resultan útiles para el negocio y tiene sentido económico su utilización, los requisitos encarecerán la adopción, pero no la impedirán», resuelve. La inteligencia artificial que explora las emociones es un adelanto tan revolucionario como delicado porque desentraña una dimensión de la intimidad de las personas, de ahí que su uso esté sometido a una serie de exigencias. Sin embargo, el potencial transformador que trae consigo lleva a pensar que estamos ante un fenómeno al alza. El tiempo lo confirmará. Los algoritmos son capaces de ganarnos al ajedrez, de responder con asombrosa soltura a las preguntas que les formulamos e incluso nos traducen en tiempo real cuando nuestra torpeza idiomática queda al descubierto en el extranjero, pero ¿llegará un día en que sean capaces de sentir? En ese audaz desafío se ha embarcado Alberto Hernández, investigador de la Universidad de Granada, que ha diseñado una base científica para que las inteligencias artificiales aprendan y expresen patrones emocionales de manera autónoma . Un paso adelante innovador que promete transformar el comportamiento de las máquinas. «Típicamente hemos intentado que emulen la vertiente racional de la mente, pero existe una componente emocional profundísima , tanto que la neurociencia ha documentado que con un sistema límbico dañado o alterado una persona no puede desempeñar las labores cotidianas de su vida aunque intelectualmente siga capacitada», explica Hernández para evidenciar hasta qué punto los sistemas tradicionales obvian una parte esencial de la ingeniería de la mente. «El objetivo de LOVE (por el inglés 'Latest Observed Values Encoding' o 'codificación de los últimos valores observados') era indagar si podíamos definir qué es una emoción de una manera computacionalmente implementable para que una máquina genere las suyas y luego las utilice como lo hacen los seres vivos», cuenta. Nada sencillo: «Cuando una inteligencia artificial nos vence en un juego, realiza un balance de resultados y toma una decisión. No piensa como nosotros, aunque produzca resultados similares, al menos en sus aspectos racionales». El problema es que para dotar a esas IAs de las eficientes dinámicas emocionales naturales, «los investigadores carecemos de un 'sistema límbico digital' que implementar en su arquitectura neuronal. No existían marcos teóricos general en que basarnos », sostiene. Hernández recurrió a los principios del aprendizaje por refuerzo. «Dentro de este campo elegimos la arquitectura actor-crítico : el crítico es equivalente al estriado ventral, una parte de los ganglios basales que sabe valorar una situación, mientras que el actor, equivalente al estriado dorsal, es el que, dado un estado, elige qué acción tomar». Por ejemplo, dado un escenario en el que un avión está cayendo, el crítico lo valoraría muy negativamente y el actor elegiría enderezar los propulsores para obtener más horizontalidad. «Hipotetizamos que las emociones corresponden a distintos patrones temporales percibidos en valores cruciales para los seres vivos en su entorno, como recompensas recientes por la actuación del actor, o recompensas futuras esperadas (las expectativas del crítico). Por ejemplo, recompensas positivas y expectativas positivas se corresponderían con felicidad, mientras que un decremento de esas expectativas podrían conducir a temor; la materialización de esas recompensas negativas (o penalizaciones) llevaría al sufrimiento, etc. Definidas como patrones temporales, las emociones podían ya ser aprendidas mediante aprendizaje automático, y después generadas por la IA durante la ejecución de una tarea. Y eso es lo que se logró en la investigación». Los resultados del estudio, de momento, no se han llevado al mercado, aunque Hernández defiende las ventajas que este tipo de sistemas traerían consigo. «Si una máquina es capaz de entender bien las emociones del que está delante tendrá más posibilidades de mejorárselas, pero si además cuenta con inteligencia emocional propia probablemente funcione mejor», dice. «Hasta ahora estos sistemas se estaban alimentando de reglas artesanales, lo cual planteaba limitaciones. En LOVE hemos apostado por un sistema genérico, que aprende patrones emocionales en algo comparable a su propio sistema límbico digital». La investigación se ha llevado a cabo en el Centro de Investigación en Tecnología de la Información y las Comunicaciones (CITIC) de la Universidad de Granada por parte del Departamento de Ingeniería de Computadores, Automática y Robótica, y ha sido publicada en la prestigiosa revista científica Nature con el título 'A generic self-learning emotional framework for machines'.