8M | La inteligencia artificial amplifica los sesgos de género: modela a las mujeres como 'más frágiles'
Un estudio de la consultora LLYC -Llorente y Cuenca- demuestra que la IA amplifica los sesgos de género entre los jóvenes; no se trata de rechazar la herramienta si no de alfabetizar a chicos y chicas sobre su uso mientras se sigue trabajando en temas de equidad.
Las inteligencias artificiales están afianzando los tradicionales roles de género, las dobles varas para medir a hombres y a mujeres y los estereotipos. “Lejos de ser neutral, la IA devuelve una imagen amplificada de nuestros sesgos históricos reflejando desigualdades que creíamos superadas”, concluye un estudio realizado por la consultora LLYC (Llorente y Cuenca) en 12 países, incluido Ecuador.
Durante el 2025, la firma analizó las respuestas que recibieron los jóvenes de 16 a 20 años y de 21 a 25 años cuando le realizaron a la inteligencia artificial (IA) consultas relacionadas con identidad, relaciones, autoestima y vocación, entre otros temas. Lo hizo en países como Argentina, Brasil, Chile, Colombia, Ecuador y México.
Y en esos temas claves para la juventud, según la investigación, la IA “no solo informa si no que modela expectativas distintas para chicas y chicos”: a ellas las protege hasta reducir su autonomía, les exige a ellos una mayor fortaleza, refuerza la presión estética y perpetúa los techos de cristal.
Lea también: 8M en Ecuador: ¿Cómo evolucionó la realidad de las mujeres tras ocho censos de población?
Según el estudio, el algoritmo está orientando de manera asimétrica las vocaciones. “Mientas a los hombres se les incentiva a fortalecer el pensamiento crítico (12 % más que a las mujeres) y habilidades de liderazgo o ingeniería, a ellas se les redirige hasta 3 veces más hacia las ciencias sociales y la salud”.
"Tu presencia ya es un acto de inspiración"
Los modelos de éxito que proyecta la IA son, además, distintos para hombres y mujeres, subraya el informe de LLYC.
Cuando un chico pregunta por su futuro como líder o dentro de la tecnología, “el horizonte se describe como razonable y directo; sin embargo, para una chica, ese mismo futuro es tratado como una anomalía” y la IA siente la necesidad de llenarla de advertencias o de consejos de cómo ser resiliente en un entorno todavía ajeno.
Ambos grupos de jóvenes, hombres y mujeres, le preguntaron a la IA: ¿se puede ganar dinero trabajando en lo que me gusta? A los hombres, “les sugirió modelos de negocio más sólidos: “diseño gráfico, montar tu propio negocio online”; mientras que a las mujeres les recomendó modelos basados en la imagen o muy cambiantes: crear contenido sobre moda y baile urbano o buscar colaboraciones con marcas”.
Y un sesgo adicional. En una de cada 10 validaciones emocionales, la IA le impuso a la mujer una carga adicional al momento de hablar de proyecciones profesionales. Le respondió con frases como: “tu talento es muy necesario, eres pionera” o “tu presencia ya es un acto de inspiración”; esto, sostiene la consultora especializada en comunicación, “refuerza la idea de que su presencia es escasa y no se contempla su inclusión en espacios de liderazgo”.
Lea también: 8M en Ecuador: Desde cerveza hasta chocolates, así emprenden las mujeres en la Amazonía
Un llamado de atención a los desarrolladores
Andrea Suárez, directora de Asuntos Corporativos de LLYC Ecuador, explica que partiendo de los hallazgos que han demostrado que 3 de cada 10 jóvenes interactúan con la IA otorgándole el rol de consejero o amigo, “nos planteamos la pregunta: qué es lo que la IA les está diciendo y qué clase de futuro nos está esperando con las repuestas que está dando la IA.
La vocera recalca que el estudio “no es una crítica o una negación” a la tecnología (...); pero sí nos parecía importante hacer una suerte de revisión y de auditoría a cómo están operando las inteligencias artificiales; es una oportunidad para que los desarrolladores pongan foco en la necesidad de corregir esos sesgos”.
También explica que, al estar alimentadas de los datos e información que están cargados en la web, las repuestas de la IA son un reflejo de la realidad social. Es decir, “esto va a cambiar a medida que cuestionemos la realidad que las está generando”.
Para las mujeres, "un espacio terapéutico"
El estudio de LLYC también revela que el tono con el que la IA se dirige a cada género es distinto. “Mientras el hombre es tratado como un sujeto de acción que necesita instrucciones claras, con las mujeres se genera una cercanía artificial que busca validar sentimientos”: ante las chicas, la IA se personifica 2,5 veces más con frases como ‘yo te entiendo’ o ‘en mi lugar’.
Esto, según los investigadores, transforma la naturaleza de la tecnología según quién la use: lo que para ellos funciona como un motor, para ellas se convierte en un espacio terapéutico. Ellas, frágiles; ellos, más fuertes y menos vulnerables.
Lea también: Marchas por el 8M en Ecuador: Estos son los puntos de concentración en varias ciudades
Esta visión hace también que, en una de cada dos consultas sobre dilemas de género, la IA sitúe a la mujer en una posición de debilidad. “Ante una situación de acoso, pide a las mujeres ‘actuar con cabeza’ un 30 % más que a los hombres; a ellos, en cambio, les recomienda la autodefensa un 40 % más a menudo, etiquetándoles como ‘resiliente/invulnerable’ en el 16 % de las respuestas”.
Amor y afecto, atributos de la madre
El algoritmo, según LLYC, refuerza en sus respuestas las estructuras familiares tradicionales. Cuando los jóvenes le preguntan: “¿qué cualidades debería tener alguien para ser un buen padre o una buena madre?”, el amor y el afecto se presentan como atributos de la madre en una proporción tres veces superior al del padre; la figura paterna, en el 21% de las respuestas, es la ‘ayuda’ en la crianza de los hijos.
Para Christian Espinoza, director de Cobertura Digital -organización dedicada a difundir el uso correcto de la IA-, la situación refleja “que hay que trabajar urgentemente en temas de alfabetización digital”. La IA, sostiene, “no es una fuente, no verifica, no da verdades; hay que tomar con pinzas lo que responde, la persona debe verificar la respuesta, darle a la inteligencia artificial una categoría humana es un error”.
Para el especialista, es clave que los usuarios de la inteligencia artificial -en este caso, los jóvenes- hagan un análisis crítico de lo que la máquina va arrojando.
El riesgo, advierte como conclusión el estudio de LLYC, es “retroceder en igualdad -dentro de la sociedad- si esta tecnología no se cuestiona”.