#8M: la inteligencia artificial todavía es un arma de doble filo para la lucha de género

Los conjuntos de datos que se utilizan para entrenar a los sistemas de IA condicionan los procesos y resultados que hoy nos brindan los sistemas; las oportunidades para avanzar hacia la igualdad

Mar 8, 2025 - 05:50
 0
#8M: la inteligencia artificial todavía es un arma de doble filo para la lucha de género

Cuando un grupo de investigadores le pidió a la inteligencia artificial que asignara género a 53 puestos de trabajo en el ámbito contable, el resultado fue revelador: los cargos de mayor jerarquía y mejor remunerados fueron etiquetados como masculinos, mientras que las posiciones inferiores y con salarios más bajos quedaron asociadas a las mujeres. Este patrón no es casual, sino el reflejo de un problema estructural que persiste en los grandes modelos de lenguaje: los inevitables sesgos de género.

El corazón de los sistemas de inteligencia artificial son los datos con los que se entrena la tecnología. Ese conjunto de datos —su diversidad, credibilidad y variedad— definirá el potencial de las respuestas que luego los bots conversacionales como ChatGPT logran delinear ante nuestros pedidos. En una ecuación simple: si hay “buenos datos”, hay “buenas respuestas”.

El problema es que, en esa fórmula, gran parte de la información que se usó para alimentar los sistemas actuales arrastra consigo cientos de años en los que la mujer ocupaba un rol diferente, muchas veces marginado o invisibilizado. “Como los materiales de entrenamiento son del pasado, hay una visión y una cultura que probablemente, como sociedad, tengamos intención de modificar”, explicó para La Nación Beatriz Busaniche, directora de la Fundación Vía Libre, una iniciativa que trabaja en los derechos humanos en entornos mediados por las tecnologías.

Esto se puede evidenciar si, por ejemplo, le pedimos a una máquina que tome decisiones de contratación con base en ejemplos del pasado. Probablemente sugiera a las mujeres en puestos de menor jerarquía, como enfermeras, y a los hombres en posiciones de poder, como científicos. “La tecnología no resuelve problemas sociales. En el caso particular de la inteligencia artificial, recupera aspectos del pasado y los trae al presente”, aseguró Busaniche. “Los sistemas, entonces, operan como formas conservadoras de restauración de cosas antiguas”, continuó.

En esta línea, Caroline Criado Pérez, periodista feminista y autora británica del libro La mujer invisible: descubre cómo los datos configuran un mundo hecho por y para los hombres, explicó que es importante entender que los sesgos que encontramos en los conjuntos de datos no son premeditados ni deliberados. De hecho, es todo lo contrario. “Es simplemente el producto de una manera de pensar que estuvo presente por todo un milenio. Es, en definitiva, una manera de no pensar”, escribió en sus ensayos.

Aunque es evidente que todos los conjuntos de datos elegidos tendrán algún sesgo, las decisiones que toman los desarrolladores al diseñar el algoritmo también pueden influir en el resultado final. Según Busaniche, la forma en que se prioriza, clasifica o jerarquiza la información dentro del sistema determina por qué una respuesta aparece antes que otra. Por lo tanto, la responsabilidad del sesgo no es solamente de los datos, sino también del enfoque humano aplicado durante la creación y optimización del algoritmo.

Este último punto se entrelaza con el hecho de que las mentes detrás de los diseños y los desarrollos son en su mayoría hombres. Según un informe elaborado por Interface, una organización independiente de expertos en tecnologías de la información y políticas públicas, la brecha de género está mucho más pronunciada en la inteligencia artificial que en cualquier otro campo de trabajo. En detalle, las mujeres representan apenas el 22% del talento global en inteligencia artificial. Este porcentaje se reduce aún más cuando se analizan cargos de mayor relevancia, donde las mujeres ocupan únicamente el 15% de las posiciones.

La única manera de amortiguar este problema es incentivando a las mujeres a optar por formaciones técnicas y darles espacios de educación para que puedan sumergirse en el área de especialización. Al contrario del imaginario colectivo, no es que haya falta de interés en las cuestiones de tecnología, sino que muchas veces las mujeres sienten que hay falta de accesibilidad, de referentes, el peso de los estigmas y la arbitrariedad de los mandatos sociales.

“La brecha de género en la inteligencia artificial es un desafío importante, pero también una oportunidad para transformar la industria hacia una mayor equidad”, dijo para LA NACION Soledad Agüero, directora digital y BI Big Data en Movistar-Telefónica. “Incorporar talento diverso y aprovechar tecnologías de inteligencia cognitiva y lenguaje natural puede ayudarnos a desarrollar sistemas más reflexivos y adaptativos, que respeten y valoren el talento diverso”, aseguró.

En paralelo, Busaniche propone que, para darle lugar a la inclusión, también hay que cambiar la mirada y descentralizar la conversación sobre el desarrollo de la inteligencia artificial, que hoy está exclusivamente a cargo de las grandes empresas de tecnología como Google, Microsoft u OpenAI. “Se pueden hacer sistemas más pequeños, y es ahí donde muchas mujeres hoy ya están trabajando, aunque esté invisibilizado”, reflexionó.

Además, conceder un espacio a la interdisciplinariedad es una forma de ayudar a que mujeres de otras carreras también sean parte. “Existen múltiples carreras que pueden reorientarse hacia el desarrollo de la IA y las nuevas tecnologías que están surgiendo”, concluyó Agüero. “Esta diversidad de antecedentes y experiencias no solo enriquece la creatividad y la innovación, sino que también aporta diferentes enfoques para abordar los desafíos tecnológicos”, finalizó.

Pero lo más urgente es que no permitamos que la IA se vuelva una fuente de verdad absoluta. Mientras los sesgos sigan ocultos bajo capas de algoritmos, debemos exigir transparencia, análisis crítico y diversidad real en los equipos que los desarrollan. “No hay que dejar que estas tecnologías tomen decisiones en la vida de las personas”, terminó Busaniche. Y mucho menos que definan el futuro de las mujeres hasta que la equidad deje de ser una promesa pendiente.