El AI Act europeo pone el foco en RRHH: cinco prácticas de riesgo en el uso de IA para evaluar talento
La entrada en vigor del Reglamento Europeo de Inteligencia Artificial (AI Act) marca un punto de inflexión en la gestión del talento. La normativa establece un marco legal exigente para el uso de sistemas de inteligencia artificial en procesos como la selección, la promoción o la evaluación de profesionales, considerados ahora como aplicaciones de “alto riesgo”.
Este nuevo escenario obliga a las organizaciones a revisar de forma urgente sus herramientas y prácticas, ya que el incumplimiento puede acarrear sanciones de hasta 35 millones de euros o el 7% de la facturación global anual en los casos más graves, además de un impacto reputacional significativo.
Según la consultora BTS, muchas compañías aún operan con sistemas que no cumplen con los requisitos del reglamento, lo que incrementa su exposición regulatoria. “El AI Act marca un punto de inflexión para todas las organizaciones que utilizan IA en gestión del talento”, advierte Jordi Bastús, Senior Director Assessment & Development de BTS en España, quien subraya la falta de supervisión humana, trazabilidad y conocimiento de los riesgos como principales carencias actuales.
Cinco “red flags” en el uso de IA en talento
En este contexto, BTS identifica cinco prácticas críticas que las empresas deben revisar de forma prioritaria:
- Evaluar emociones o rasgos personales mediante biometría
El uso de herramientas que infieren emociones, honestidad o estrés a través de la voz, el rostro o datos biométricos está expresamente prohibido. Estas técnicas, además de carecer de base científica sólida, pueden generar sesgos y decisiones discriminatorias, afectando tanto a la equidad como a la reputación corporativa. - Automatizar decisiones sin supervisión humana efectiva
Los sistemas que filtran candidatos o toman decisiones sin intervención humana real incumplen el reglamento. El AI Act exige una supervisión activa, con capacidad de revisión y corrección. La falta de este control incrementa el riesgo de errores y sesgos sistemáticos. - Utilizar datos históricos sin control de sesgos
El uso de datasets no auditados puede perpetuar desigualdades existentes, especialmente en variables como género, edad o nivel educativo. La normativa obliga a garantizar la representatividad de los datos y a realizar análisis de impacto antes de implementar sistemas de IA. - Carecer de trazabilidad y documentación técnica
La ausencia de registros, métricas y documentación que expliquen el funcionamiento de los modelos impide auditar decisiones y justificar resultados ante reguladores o tribunales. Este déficit no solo supone un riesgo legal, sino también una pérdida de confianza interna y externa. - Implementar herramientas sin validación científica
El uso de soluciones de IA sin evidencia de su validez y relación con el desempeño del puesto puede derivar en decisiones erróneas en procesos de selección o promoción. El AI Act exige que estos sistemas estén respaldados por estudios técnicos que acrediten su fiabilidad.
Más allá del cumplimiento normativo, desde BTS subrayan que la adopción de un enfoque responsable en el uso de la IA puede convertirse en una ventaja competitiva. Integrar criterios éticos, garantizar la supervisión humana y mejorar la calidad de los datos no solo reduce riesgos, sino que también contribuye a decisiones más justas y eficaces.
En este sentido, la normativa europea abre la puerta a reforzar la confianza de empleados y candidatos, mejorar la equidad en los procesos de talento y fortalecer la marca empleadora. “Las organizaciones que identifiquen y mitiguen estas prácticas estarán mejor posicionadas para aprovechar la IA de forma ética y alineada con sus objetivos de negocio”, concluye Bastús.

