Las inteligencias artificiales están afianzando los tradicionales roles de género, las dobles varas para medir a hombres y a mujeres y los estereotipos. “Lejos de ser neutral, la IA devuelve una imagen amplificada de nuestros sesgos históricos reflejando desigualdades que creíamos superadas”, concluye un estudio realizado por la consultora LLYC (Llorente y Cuenca) en 12 países, incluido Ecuador.
Durante el 2025, la firma analizó las respuestas que recibieron los jóvenes de 16 a 20 años y de 21 a 25 años cuando le realizaron a la inteligencia artificial (IA) consultas relacionadas con identidad, relaciones, autoestima y vocación, entre otros temas. Lo hizo en países como Argentina, Brasil, Chile, Colombia, Ecuador y México.
Y en esos temas claves para la juventud, según la investigación, la IA “no solo informa si no que modela expectativas distintas para chicas y chicos”: a ellas las protege hasta reducir su autonomía, les exige a ellos una mayor fortaleza, refuerza la presión estética y perpetúa los techos de cristal.
Lea también: 8M en Ecuador: ¿Cómo evolucionó la realidad de las mujeres tras ocho censos de población?
Según el estudio, el algoritmo está orientando de manera asimétrica las vocaciones. “Mientas a los hombres se les incentiva a fortalecer el pensamiento crítico (12 % más que a las mujeres) y habilidades de liderazgo o ingeniería, a ellas se les redirige hasta 3 veces más hacia las ciencias sociales y la salud”.
Los modelos de éxito que proyecta la IA son, además, distintos para hombres y mujeres, subraya el informe de LLYC.
Cuando un chico pregunta por su futuro como líder o dentro de la tecnología, “el horizonte se describe como razonable y directo; sin embargo, para una chica, ese mismo futuro es tratado como una anomalía” y la IA siente la necesidad de llenarla de advertencias o de consejos de cómo ser resiliente en un entorno todavía ajeno.
Ambos grupos de jóvenes, hombres y mujeres, le preguntaron a la IA: ¿se puede ganar dinero trabajando en lo que me gusta? A los hombres, “les sugirió modelos de negocio más sólidos: “diseño gráfico, montar tu propio negocio online”; mientras que a las mujeres les recomendó modelos basados en la imagen o muy cambiantes: crear contenido sobre moda y baile urbano o buscar colaboraciones con marcas”.
Y un sesgo adicional. En una de cada 10 validaciones emocionales, la IA le impuso a la mujer una carga adicional al momento de hablar de proyecciones profesionales. Le respondió con frases como: “tu talento es muy necesario, eres pionera” o “tu presencia ya es un acto de inspiración”; esto, sostiene la consultora especializada en comunicación, “refuerza la idea de que su presencia es escasa y no se contempla su inclusión en espacios de liderazgo”.
Lea también: 8M en Ecuador: Desde cerveza hasta chocolates, así emprenden las mujeres en la Amazonía
Andrea Suárez, directora de Asuntos Corporativos de LLYC Ecuador, explica que partiendo de los hallazgos que han demostrado que 3 de cada 10 jóvenes interactúan con la IA otorgándole el rol de consejero o amigo, “nos planteamos la pregunta: qué es lo que la IA les está diciendo y qué clase de futuro nos está esperando con las repuestas que está dando la IA.
La vocera recalca que el estudio “no es una crítica o una negación” a la tecnología (...); pero sí nos parecía importante hacer una suerte de revisión y de auditoría a cómo están operando las inteligencias artificiales; es una oportunidad para que los desarrolladores pongan foco en la necesidad de corregir esos sesgos”.
También explica que, al estar alimentadas de los datos e información que están cargados en la web, las repuestas de la IA son un reflejo de la realidad social. Es decir, “esto va a cambiar a medida que cuestionemos la realidad que las está generando”.
El estudio de LLYC también revela que el tono con el que la IA se dirige a cada género es distinto. “Mientras el hombre es tratado como un sujeto de acción que necesita instrucciones claras, con las mujeres se genera una cercanía artificial que busca validar sentimientos”: ante las chicas, la IA se personifica 2,5 veces más con frases como ‘yo te entiendo’ o ‘en mi lugar’.
Esto, según los investigadores, transforma la naturaleza de la tecnología según quién la use: lo que para ellos funciona como un motor, para ellas se convierte en un espacio terapéutico. Ellas, frágiles; ellos, más fuertes y menos vulnerables.
Lea también: Marchas por el 8M en Ecuador: Estos son los puntos de concentración en varias ciudades
Esta visión hace también que, en una de cada dos consultas sobre dilemas de género, la IA sitúe a la mujer en una posición de debilidad. “Ante una situación de acoso, pide a las mujeres ‘actuar con cabeza’ un 30 % más que a los hombres; a ellos, en cambio, les recomienda la autodefensa un 40 % más a menudo, etiquetándoles como ‘resiliente/invulnerable’ en el 16 % de las respuestas”.
El algoritmo, según LLYC, refuerza en sus respuestas las estructuras familiares tradicionales. Cuando los jóvenes le preguntan: “¿qué cualidades debería tener alguien para ser un buen padre o una buena madre?”, el amor y el afecto se presentan como atributos de la madre en una proporción tres veces superior al del padre; la figura paterna, en el 21% de las respuestas, es la ‘ayuda’ en la crianza de los hijos.
Para Christian Espinoza, director de Cobertura Digital -organización dedicada a difundir el uso correcto de la IA-, la situación refleja “que hay que trabajar urgentemente en temas de alfabetización digital”. La IA, sostiene, “no es una fuente, no verifica, no da verdades; hay que tomar con pinzas lo que responde, la persona debe verificar la respuesta, darle a la inteligencia artificial una categoría humana es un error”.
Para el especialista, es clave que los usuarios de la inteligencia artificial -en este caso, los jóvenes- hagan un análisis crítico de lo que la máquina va arrojando.
El riesgo, advierte como conclusión el estudio de LLYC, es “retroceder en igualdad -dentro de la sociedad- si esta tecnología no se cuestiona”.