Guapas, encantadoras y castas. Así son las mujeres, al menos como las describen los libros. Ellos, sin embargo, son justos, sanos y racionales. Así lo concluye un estudio de la Universidad de Copenhague junto a otras universidades británicas y estadounidenses basado en el análisis de más de 3,5 millones de libros publicados en inglés entre 1900 y 2008 tanto de ficción como no ficción.
A través del machine learning, se analizó el contenido de los libros y cómo estos describían a mujeres y hombres. La principal conclusión es que ellas eran fundamentalmente caracterizadas por su aspecto físico, mientras ellos lo eran por su comportamiento.
Guapa, encantadora, casta, hermosa, fértil, sexi, exquisita, vivaz y vibrante fueron los adjetivos en positivo más encontrados para describirlas a ellas. Para los hombres, sin embargo, fueron justo, sano, racional, pacífico, valiente, prodigioso, de confianza, puro y honorable.
En el extremo contrario, al hablar mal de una mujer los adjetivos más utilizados fueron dañada, estéril, de mal genio, con el corazón roto, soltera, delgada por debajo de su peso, desnutrida o regañona. Para describirles a ellos en negativo, de poca confianza, bruto, perdido, desarmado, herido, con bigote, injusto o brutal.
"Estamos en condiciones de asegurar que las palabras utilizadas para mujeres se refieren mucho más a la apariencia que las referidas a hombres", afirma Isabelle Augenstein, científica computacional de la Universidad de Copenhague.
Los investigadores analizaron los adjetivos y verbos que se asociaban a nombres relativos a género, como “hija” o “azafata”. Después, se analizó si dichas palabras eran positivas, negativas o neutras y cómo podían clasificarse.
Su análisis demostró que los verbos negativos asociados al cuerpo o la apariencia se usaban cinco veces más en las mujeres que en los hombres. En positivo y neutro, los adjetivos en referencia a cuerpo y apariencia se usaban el doble en mujeres que en hombres, a quien solía describirse con características de comportamiento o cualidades personales.
Aunque la mayoría de los libros fueron publicados hace varias décadas, aún continúan los patrones, según los investigadores. “Los algoritmos identifican patrones y cuando se observa alguno, se identeifica. Si alguno se refiere al lenguaje sesgado, el resultado también será sesgado. Los sistemas adoptan, por así decirlo, el lenguaje que utilizamos las personas y, por lo tanto, nuestros estereotipos y prejuicios de género ", dice Isabelle Augenstein, y da un ejemplo de dónde puede ser importante: "Si el lenguaje que usamos para describir a hombres y mujeres difiere, por ejemplo, en las recomendaciones de los empleados, influirá en quién se le ofrece un trabajo cuando las empresas usan sistemas de inteligencia artificial para clasificar las solicitudes de empleo".
Los investigadores aclaran que el análisis tiene sus limitaciones, que no tiene en cuenta quién fue el escritor, los diferentes grados de sesgo según las fechas de publicación o las características del libro, como la diferencia entre novelas románticas o de no ficción. Y en estos términos están continuando sus trabajos, según informan los investigadores.
Te puede interesar
Lo más visto
- 1 “Marruecos ataca a España pero no puede declarar la guerra”
- 2 "Experta en el reparto de responsabilidades durante emergencias"
- 3 Las Grecas, más flamencas que malditas: "Son tan grandes como Camarón o Paco de Lucía"
- 4 Susana Camarero: la esperanza del PP para Valencia
- 5 Hacienda suspende el pago a los mutualistas
- 6 El balance de cuatro años de guerra entre el Polisario y Marruecos
- 7 Las redes se parten: "X es de derechas y Bluesky de izquierdas"
- 8 La Policía dice que Miñanco no estaba con Boye en la reunión clave
- 9 La conexión ultra que une a Trump con Vox