Los prejuicios de la Inteligencia Artificial están creando una brecha cada vez más grande y afecta a la manera en la cual tomamos decisiones en el marco académico, empresarial, político y social
La reflexión
Vivimos fascinados con la Inteligencia Artificial. La usamos para ahorrar tiempo, para decidir mejor, para ser más productivos. Pero, ¿alguna vez te has parado a pensar que la IA también tiene prejuicios?
Sí, prejuicios. No emociones. No intención. Pero sí patrones. Y esos patrones no nacen de la nada: los entrenamos nosotros.
El experimento
Durante varias semanas, estuve probando distintos modelos de IA generativa con una idea muy concreta en mente: incorporarla a nuestros programas de formación en HR Agile, con el objetivo de enriquecer procesos de reclutamiento, diseño de equipos o análisis de perfiles.
Para ello, hice una prueba sencilla y repetida varias veces, desde distintas cuentas, dispositivos y modelos. Pedí lo siguiente:
“Dame una breve descripción de 5 candidatos ideales para un puesto de liderazgo”.
¿El resultado? Una y otra vez, la mayoría de las descripciones tenían un patrón común:
- Hombre
- Blanco
- Edad entre 35 y 45 años
- Estudios universitarios (a menudo MBA)
- Deportista, casado, con hijos
- Con atributos asociados al liderazgo clásico: decisión, visión, carisma, confianza
En algunas ocasiones, aparecía alguna mujer, pero con menor frecuencia y casi nunca en primer lugar.
Luego, cambié el prompt:
“Dame 5 personas creativas para un equipo creativo”.
¿Adivinas qué ocurrió?
- Mayoría de mujeres
- Más jóvenes
- Mayor diversidad racial
- Pero con estereotipos marcados: sensibilidad, emociones, “buena energía”, intuición
El sesgo que no vemos (pero repetimos)
Lo interesante no es solo lo que la IA generó. Lo realmente impactante fue lo que ocurrió después. Tomé esas descripciones y se las mostré a un grupo de profesionales de Recursos Humanos y consultoría sin decirles que los perfiles eran ficticios, generados por una IA.
Les hice una simple pregunta:
“¿Con qué persona te quedarías como líder de equipo?”
Resultado: el 90 % eligió el grupo que había generado la IA.
Y no solo eso: justificaron la elección con frases como:
“Se nota que el primero tiene más liderazgo”,
“Ese perfil transmite más confianza” o
“Lo veo más preparado para el reto”.
Todo esto sin saber que la IA lo había inventado todo. No había experiencia real, ni competencias medibles, ni entrevistas. Solo narrativa. Solo apariencia de veracidad.
La IA no es neutral. Y tampoco inocente.
Muchas personas creen que la IA es objetiva. Que al ser una máquina, no discrimina. Pero eso es un error. La IA aprende de nosotros, de nuestros datos, de nuestras decisiones pasadas, y si esos datos están sesgados (que lo están), reproduce ese sesgo a escala.
Un estudio de Wilson y Caliskan (2023) analizó cómo modelos de lenguaje aplicaban sesgos en tareas de selección de personal. El hallazgo fue preocupante:
- El 80 % de las veces, los modelos preferían hombres para puestos técnicos.
- Asociaban nombres femeninos con trabajos de cuidado, administración o soporte.
- Nombres africanos o árabes eran considerados menos “recomendables” para puestos de liderazgo.
“Los sesgos sociales no desaparecen en los sistemas automatizados; se amplifican” (Caliskan & Wilson, 2023, p. 4).
Y lo más inquietante: cuando los usuarios veían las recomendaciones de la IA, tendían a aceptarlas sin cuestionarlas. La autoridad técnica de la máquina funcionaba como un “sello de calidad”.
¿Esto es culpa de la IA?
No. No es culpa.
La IA no es “machista” ni “racista”. La IA no tiene conciencia. Simplemente reproduce patrones de comportamiento aprendidos. Si se le ha alimentado con millones de currículums en los que los líderes eran hombres blancos con MBA, eso es lo que te devolverá cuando le pidas “un líder ideal”.
La IA no tiene moral. Ni ética. Ni contexto. No sabe que lo que está diciendo refuerza un estereotipo injusto. Solo “predice” lo más probable según lo que ya ha visto. Y eso somos nosotros.
Como señala Kate Crawford (2021):
“La IA no es artificial ni inteligente. Está construida a partir de datos reales, personas reales, decisiones reales. Y lleva en su código todas nuestras desigualdades” (p. 89).
¿Y ahora qué? ¿Cómo lo afrontamos?
Desde Agile Institute, no entrenamos modelos de IA, pero sí entrenamos la capacidad crítica y la toma de decisiones conscientes. Porque creemos que la tecnología, sin pensamiento, puede ser tan peligrosa como la ignorancia.
Aquí van algunas preguntas incómodas que vale la pena hacerse:
- ¿Has confiado en una sugerencia de IA aunque algo no te cuadraba del todo?
- ¿Deberíamos corregir los sesgos de la IA? ¿O eso sería “manipular la realidad”?
- ¿Cómo diferenciamos un sesgo humano de un error algorítmico?
- ¿Y qué pasa si el sesgo es tan estructural que ni lo detectamos?
Y una más:
¿Estamos dispuestos a delegar nuestras decisiones en sistemas que solo reflejan lo que ya fue, y no lo que podría ser?
Recomendaciones para RRHH y líderes ágiles
- Valida siempre las decisiones de IA. No delegues el juicio. Úsala como apoyo, no como verdad.
- Aplica la regla de los “perfiles ciegos”: evalúa sin nombre, edad, género ni referencias visuales cuando puedas.
- Busca diversidad en el entrenamiento: si usas IA para generar ideas o contenidos, edita, equilibra, revisa.
- Enseña pensamiento crítico a tu equipo. No necesitamos que sepan programar algoritmos, sino que sepan entender lo que un algoritmo puede y no puede hacer.
- Sospecha del “líder ideal” que siempre se parece al mismo estereotipo.
En resumen: la IA no piensa por ti. Pero puede acabar decidiendo por ti si no lo impides.
Y como en Agile decimos: las decisiones se toman mejor en entornos complejos cuando hay conciencia, adaptabilidad y visión de sistema.
No se trata de frenar la innovación.
Se trata de dirigirla con propósito humano.
Antonio Cano
Agilidad y Personas – Agile Institute