En una era donde la inteligencia artificial (IA) promete agilizar procesos, reducir costes y minimizar sesgos humanos, una experiencia reciente dejó al descubierto los riesgos de automatizar sin supervisión. En Stretch Lab, Ohio, una candidata participó en una entrevista conducida por Apriora, y la IA comenzó a repetir “barra vertical pilates” —14 veces en apenas 25 segundos— ante su asombro, según su video en TikTok.
La interacción fue descrita como “dystopian, disturbing” y “creepy” por la propia entrevistada, y se viralizó rápidamente.
¿Qué falló? Mirada técnica y humana
Técnicamente, parece que el sistema entró en un bucle de repetición automático, algo que puede ocurrir en modelos generativos con scripts o respuestas preprogramadas sin detección de loops. Pero lo más grave fue la ausencia de supervisión humana durante la entrevista: nadie intervino para detener el fallo ni reconducir la conversación.
IA en Recursos Humanos: promesas y peligros
Las ventajas de la IA en RR. HH. son evidentes:
- Criba rápida de CVs.
- Procesos de contratación más ágiles y baratos.
- Percepción de reducción de sesgos.
Sin embargo, este caso muestra que la interacción humana sigue siendo insustituible en entrevistas donde la comunicación no verbal, la justicia y la contención emocional son clave.
Además, los fallos técnicos no sólo generan una experiencia negativa, sino que pueden contribuir a sesgos ocultos y afectar la reputación de las compañías que los utilizan.
Marco legal: ¿cómo regula la UE estas herramientas?
La Ley de Inteligencia Artificial (AI Act) de la UE, aprobada el 13 de marzo de 2024 y vigente desde el 1 de agosto del mismo año, exige niveles crecientes de supervisión y transparencia según el nivel de riesgo de la IA.
Esta normativa clasifica los sistemas de IA en cuatro niveles de riesgo y obliga, por ejemplo, a la transparencia para los de “riesgo limitado” y a auditorías exigentes para los de “alto riesgo”, entre los que se encuentran las herramientas de contratación automatizada.
EU AI Act explicado en Investopedia
Además, desde el 2 de mayo de 2025, son obligatorios los nuevos Códigos de Práctica de transparencia para IA en Europa.
Recomendaciones para empresas que usan IA en selección
Con tres décadas de experiencia tecnológica, recomendamos a las empresas:
- Incluir supervisión humana (human-in-the-loop) en tiempo real o posterior.
- Auditar sistemas regularmente para detectar posibles sesgos y errores.
- Medir la experiencia del candidato, no solo la eficiencia del sistema.
- Tener un plan de contingencia para reconducir entrevistas fallidas a un entrevistador humano.
También es esencial verificar que los proveedores, como Apriora, cumplan con los requisitos del AI Act y estándares de seguridad y transparencia.
FAQs (Preguntas frecuentes)
¿Es legal usar IA en entrevistas laborales?
Sí, pero la empresa debe cumplir normas como el AI Act, que exige transparencia, responsabilidad y salvaguarda de datos.
¿Puedo solicitar que me entrevisten humanamente?
Sí. En muchos países, si un candidato lo pide, debe ofrecerse una alternativa razonable. El respeto al trato digno es clave.
¿Cómo detectar si una IA tiene sesgos?
Con auditorías periódicas, análisis por género, edad y otras variables; además de comparar decisiones automatizadas con evaluaciones humanas (test A/B).
Conclusión: Tecnología con criterio, no por moda
La frase “barra vertical pilates” nos recuerda que la IA puede fallar y generar experiencias perturbadoras si no se implementa con responsabilidad. La automatización es útil, sí, pero solo si está acompañada de ética, supervisión humana y un enfoque centrado en las personas.