Un reciente estudio ha puesto sobre la mesa un tema fundamental: ¿reflejan los estereotipos de género la realidad o distorsionan nuestra percepción social? Un equipo de investigadores analizó 1.4 millones de imágenes y vídeos de plataformas como Google, Wikipedia, IMDb, Flickr y YouTube, así como nueve modelos de lenguaje entrenados con miles de millones de palabras de internet. Su hallazgo principal es claro: “A pesar de que no hay diferencias identificables en la fuerza laboral entre mujeres y hombres de distintas edades, nuestras investigaciones descubrieron que las mujeres tienden a ser representadas como más jóvenes en diversas profesiones y roles sociales”. Además, los perfiles de hombres mayores reciben una mejor calificación en las herramientas de inteligencia artificial (IA) en comparación con sus contrapartes femeninas.
### El Edadismo de Género en el Trabajo
Las mujeres enfrentan una presión constante para mantener una apariencia juvenil, fenómeno conocido como edadismo de género. Diversos estudios han documentado que las mujeres mayores sufren discriminación en procesos de selección y promoción laboral. De hecho, es más común asociar la palabra «chica» con una mujer, independientemente de su edad, mientras que «chico» se asocia más fácilmente con los hombres. Según Douglas Guilbeault, de la Universidad de Stanford, y sus colaboradores, “la disparidad de edad es más pronunciada en profesiones de alto estatus y compensación, evidenciando cómo los algoritmos refuerzan este sesgo”.
Por ejemplo, Google Images ilustra a los doctores en una franja etaria de 25 a 34 años, mientras que las doctoras aparecen entre 18 y 24. En IMDb, las actrices son mayormente retratadas como jóvenes, en contraste con los actores que predominan en sus cuarentones y cincuentones.
Los investigadores eligieron estudiar las representaciones visuales de las mujeres porque la edad biológica es un indicador objetivo que permite evaluar estos estereotipos. Nuria Oliver, directora científica y cofundadora de la Fundación ELLIS Alicante, subraya la importancia de esto: “El estudio ofrece una cuantificación precisa de los sesgos en comparación con datos verificables, como los del Censo de EE. UU., superando el estancamiento del debate sobre los estereotipos”.
### La Influencia de la Búsqueda en Imágenes
En uno de los experimentos, se pidió a un grupo de participantes que estimaran la edad promedio de hombres y mujeres en diferentes ocupaciones, antes de lo cual debían realizar una búsqueda en Google Images. Resulta que aquellos que utilizaron la herramienta ofrecieron estimaciones notablemente más bajas para la edad de las mujeres en cada rol.
A lo largo de la historia, algunos sostienen que los estereotipos agrupan rasgos observables de ciertas comunidades, mientras que otros argumentan que son exageraciones que distorsionan la verdad. Sin embargo, al examinar los datos del Censo de EE. UU., los investigadores indicaron que “no existen evidencias estadísticas que demuestren que las mujeres sean más jóvenes que los hombres en ciertos roles laborales».
«Estos resultados proporcionan una visión amplia del edadismo de género, poniendo de manifiesto la discriminación contra mujeres mayores, sin un impacto similar sobre los hombres de la misma edad”, señaló Ana Macanovic, del Instituto Universitario Europeo de Fiesole.
### Sesgos en la Inteligencia Artificial
El estudio también reveló que esos sesgos se manifiestan igualmente en los principales modelos de lenguaje, como ChatGPT. A estos algoritmos, ser mayor está fuertemente asociado con el género masculino. Al evaluar currículums de hombres y mujeres, las IA otorgan sistemáticamente más puntuaciones a los hombres mayores que a las mujeres jóvenes. «Nuestra investigación muestra cómo género y edad se entrelazan en gran medida en Internet y en los algoritmos que lo median, abriendo la puerta a una importante reflexión sobre la desigualdad», aseguran los autores.
El hecho de que estos modelos de IA no solo capturen, sino también reproduzcan percepciones sesgadas, es preocupante, especialmente porque empresas como OpenAI afirman trabajar para eliminar estos sesgos. Marian Blanco Ruiz, profesora de Comunicación Audiovisual, advierte que estos estereotipos, al integrarse en sistemas automatizados, pueden tener consecuencias reales en la vida cotidiana, afectando el acceso a atención médica, vivienda y empleo.
En consecuencia, Pablo Haya Coll, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid, subraya la necesidad urgente de auditorías de algoritmos y la demanda de transparencia en los sistemas de IA, tal como estipula el Reglamento Europeo de Inteligencia Artificial, para garantizar un uso ético y justo de estas tecnologías.