IA+Igual y la Universidad impulsan un modelo para certificar el uso ético de la IA en el ámbito laboral
El Libro Blanco presentado hoy propone las bases para un estándar de certificación que evite la discriminación algorítmica en procesos de selección y gestión

FotoJosé Juan Rico/
17 | 10 | 2025
¿Puede una máquina decidir a quién contratar sin discriminar? En un momento en que los sistemas automatizados están transformando los procesos de gestión de personas, el Instituto de Ciencia de los Datos e Inteligencia Artificial de la Universidad de Navarra (DATAI) ha elaborado un Libro Blanco que propone las bases para desarrollar un estándar de certificación ética de sistemas algorítmicos aplicados a recursos humanos.
El documento, realizado en el marco del proyecto piloto de innovación social IA+Igual, responde a las recomendaciones de la Unión Europea sobre el uso responsable de la IA en sectores de alto riesgo. A través de una investigación empírica en siete empresas que utilizan algoritmos en distintos procesos de recursos humanos -como selección, evaluación o promoción-, y tres modelos de estrategia de gobernanza del dato, el informe identifica riesgos reales de sesgos invisibles que pueden afectar especialmente a colectivos vulnerables y comprometer la equidad en el acceso al empleo.
El objetivo principal del Libro Blanco es fomentar el entendimiento y la implementación de la IA en los procesos de gestión de personas, con especial atención a sus implicaciones éticas, legales y organizativas. "A partir de casos reales, analizamos cómo estas tecnologías están cambiando las relaciones laborales, revisamos la normativa vigente en privacidad y cumplimiento regulatorio, y anticipamos desafíos clave, como la necesidad de desarrollar soluciones de IA que sean escalables, adaptables y sostenibles en entornos de trabajo cada vez más dinámicos e interconectados y en constante evolución", señala José Luis Poveda Marina, investigador de transferencia en DATAI y coautor del Libro Blanco.
Retos urgentes: del cumplimiento legal a la justicia algorítmica
El informe identifica cuatro desafíos clave que deben abordarse para garantizar un uso ético y eficaz de la inteligencia artificial en el ámbito laboral. El primero es la persistencia de "sesgos invisibles": eliminar variables como el género o la discapacidad no asegura decisiones imparciales, ya que los algoritmos pueden seguir replicando desigualdades a través de variables asociadas. El segundo desafío es la "falta de estándares de auditoría en recursos humanos", que impide evaluar de forma rigurosa la equidad, la legalidad y la transparencia de los sistemas algorítmicos aplicados a la gestión de personas.
En tercer lugar, el informe advierte sobre los "vacíos legales" ante tecnologías como la IA generativa u otros modelos automatizados, cuya capacidad para modificar su comportamiento plantea serias dudas sobre la trazabilidad y la asignación de responsabilidades. Finalmente, se destaca la "invisibilización de colectivos vulnerables". Las restricciones legales para tratar ciertos datos sensibles dificultan el análisis de desigualdades estructurales, lo que limita la capacidad de corregir sesgos históricos y perpetúa situaciones de exclusión.
Estos retos, afirma Poveda Marina, "reflejan la necesidad urgente de construir una inteligencia artificial que no solo sea técnicamente avanzada, sino también comprensible, equitativa y socialmente responsable".
Hacia una IA inclusiva y sostenible
Marisa Cruzado, coordinadora del proyecto IA+Igual y directora técnica del Libro Blanco, destaca la necesidad de abordar la IA desde una mirada multidisciplinar. "Estamos ante un reto del presente que definirá el futuro. Por eso necesitamos visiones diversas que nos ayuden a integrar la IA en todos los procesos humanos, no solo laborales. Si queremos una inteligencia artificial que potencie el talento y fortalezca nuestros valores europeos de equidad, debemos actuar ahora con visión estratégica y ética".
En esta línea, el documento propone un triple desafío en innovación social: capacitar a los profesionales para un uso ético de la IA; visibilizar a los colectivos excluidos de los datos y las decisiones; y garantizar que la tecnología no perpetúe desigualdades, sino que contribuya al desarrollo justo y sostenible.
IA+Igual es una iniciativa piloto pionera en Europa, financiada con fondos Next Generation (UE) y promovida por la Comunidad de Madrid, cuyo objetivo es avanzar hacia una inteligencia artificial más ética, transparente e igualitaria en el entorno empresarial.