¿Te rechaza un algoritmo? La IA en reclutamiento puede estar discriminando por raza o género

La IA promete reclutar con eficiencia, pero estudios revelan que discrimina por raza, género y acento. ¿Herramienta imparcial o sesgo automatizado?

Noticias
Compartir
  •   Copiar enlace

El uso de inteligencia artificial (IA) en procesos de contratación está en auge, pero diversos estudios alertan sobre un problema preocupante: los sistemas automatizados están reproduciendo y amplificando sesgos raciales y de género. Investigaciones de Northwestern, el MIT y la Universidad de Washington revelan que los algoritmos tienden a discriminar a candidatos latinos, afroamericanos o con nombres femeninos, incluso cuando los currículums son idénticos. En países como Australia, los sistemas de entrevistas automatizadas fallan al interpretar acentos no nativos, afectando a miles de aspirantes. Además, casos como el de Amazon, que suspendió su sistema tras detectar sesgo contra candidatas mujeres, muestran que el problema no es hipotético, sino real y creciente. En esta videonota te explicamos cómo funciona la IA en recursos humanos, qué riesgos legales y éticos existen y por qué es urgente auditar, corregir y transparentar los algoritmos antes de que se conviertan en una nueva forma de discriminación laboral.

TE PUEDE INTERESAR: La Inteligencia Artificial podría superar a la humana en unos años; esto dicen expertos

Contenido Relacionado
×
×