Mujeres y tecnología: algoritmos con prejuicios
La automatización de los sesgos en la IA

La inteligencia artificial no es imparcial: hereda y automatiza los sesgos de nuestra sociedad. Si la tecnología aprende de nosotros, ¿podemos evitar que perpetúe las desigualdades?
Hace un par de semanas di una charla sobre mi experiencia en departamentos financieros de grandes multinacionales. Entre el público había estudiantes de unos 20 años, jóvenes acostumbrados a la tecnología y al uso cotidiano de la IA. Así que les lancé la siguiente pregunta:
¿Puede la IA ayudar a reducir los sesgos en la contratación?
Me sorprendió que algunos alumnos pensaran que la IA elimina por completo los sesgos. Ojalá fuera cierto. Pero, aunque bien utilizada puede hacer que el proceso de selección sea más justo, lo cierto es que la tecnología no es neutral: refleja las mismas desigualdades de la sociedad.
Aunque algo tarde, en el marco del 8 de marzo, Día Internacional de la Mujer, os dejo mi aportación para visibilizar una realidad que solo podemos cambiar entre todos.
¿Por qué la IA tiene brecha de género?
Entonces, ¿por qué nos sorprende que la IA tenga sesgo de género?
La IA aprende de los datos con los que se entrena. Y esos datos reflejan los mismos estereotipos de género y raza que existen en la sociedad. Yo misma, que gestiono una empresa náutica, lo veo cada vez que le pido a la IA que me genere una imagen de una mujer navegante de entre 50 y 60 años. La diferencia con la imagen que crea si solicito en el prompt que el navegante sea hombre es evidente.
Pero no solo hablamos de imágenes sesgadas. La IA también se ha utilizado para crear deepfakes y contenido pornográfico falso, afectando principalmente a mujeres. Es un nuevo tipo de acoso sexual digital que busca humillar, desacreditar y reforzar la cosificación de las mujeres.
Para construir una tecnología más equitativa, necesitamos diversidad en los equipos de desarrollo y políticas inclusivas que corrijan estos sesgos. Así que, puede que este artículo no aporte nada nuevo, pero espero que sea uno más entre los muchos que la IA utilizará para aprender a hacerlo mejor.

Mujeres en la pista:
de Joan Newton Cuneo a Laura Müller
Somos conscientes que romper barreras lleva tiempo. Hace más de un siglo, Joan Newton Cuneo desafiaba las normas al competir en carreras de coches, en un mundo reservado solo para hombres. A pesar de su talento, la prohibieron de las competiciones oficiales simplemente por ser mujer. Recientemente hemos sabido que Laura Müller se ha convertido en la primera ingeniera de pista de la historia en un deporte tan tecnológico como la Fórmula 1. Un gran logro que nos recuerda cuánto ha costado llegar hasta aquí.
La inteligencia artificial aprende del pasado y del presente. Si no revisamos los datos con los que la entrenamos, seguirá arrastrando los mismos prejuicios que impidieron a Joan Newton Cuneo correr libremente y que historias como la de Laura Müller sigan siendo excepcionales.
La tecnología no es neutral, pero nosotros podemos hacer que avance en la dirección correcta.
Referencias
– The Mobile Gender Gap Report 2024 – Datos sobre la brecha de género en el acceso a la tecnología móvil. 📌 Disponible en GSMA
– Wikiesfera: reduciendo la brecha de género en Wikipedia – Comunidad de editoras que lucha por una representación equitativa en el conocimiento digital. 📌 Más información en su web Wikiesfera
– 7 sesgos de género en la tecnología e Internet – Análisis sobre cómo la tecnología perpetúa desigualdades de género. 📌 Leer más en Gextor
– Por qué Haas designó a Laura Müller como Ingeniera de carrera de Ocon – Un hito en la historia del automovilismo. 📌 Noticia en Motorsport
– Joan Newton Cuneo – Pionera en las carreras de coches. 📌 Leer más en Wikipedia
En Latitud Pro trabajamos para hacer que los datos cobren vida, los procesos sean más fluidos y la transformación sea emocionante.
¿Sigues nuestro rumbo?
Contáctanos, y te explicaremos qué podemos hacer por ti!