
Los algoritmos y la Inteligencia Artificial han dejado de ser una promesa para convertirse en un actor cada vez más frecuente en la vida laboral. Su presencia en las organizaciones ya no se limita a proyectos piloto o a departamentos tecnológicos: acompañan al trabajador durante toda su vida laboral en las empresas.
Durante la fase de atracción de talento filtran candidaturas, analizan CV y segmentan perfiles. En la fase de selección y contratación, se encargan de llevar a cabo entrevistas semi automatizadas, modelos predictivos y herramientas de screening. Y una vez el trabajador pasa a formar parte de la empresa, su labor se intensifica: gestión del desempeño, planificación de plantillas, asignación de turnos y libranzas, control horario u optimización de cargas de trabajo. Incluso en etapas finales de la relación laboral, algunas herramientas asistidas por IA se utilizan para analizar ajustes organizativos o valorar escenarios extintivos.
El mensaje es claro: estamos ante un ecosistema tecnológico que influye transversalmente en la gestión del talento y en la toma de decisiones laborales. Es por ello que necesitamos reglas del juego claras, seguras y procedimentales, que garanticen tanto la validez jurídica de las decisiones como la protección de los derechos de las personas trabajadoras.
No solo para cumplir la ley, sino para garantizar que las decisiones sean legítimas, comprensibles y justas. La normativa vigente —desde el RGPD y la LOPDGDD hasta la Ley Rider y el nuevo Reglamento Europeo de Inteligencia Artificial— establece obligaciones específicas para las empresas que utilizan algoritmos en procesos que inciden en condiciones de trabajo, productividad, turnos, promociones o decisiones extintivas. No se trata de un formalismo: estamos hablando de transparencia y de control efectivo sobre herramientas que pueden amplificar sesgos, discriminar sin intención o convertir errores estadísticos en consecuencias personales.
En este marco cobra especial relevancia el artículo 64.4.d) del Estatuto de las Personas Trabajadoras, que reconoce el derecho de la representación legal a ser informada sobre los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de IA que inciden en la toma de decisiones laborales, incluida la elaboración de perfiles. Cuando no existe representación, la obligación de información se desplaza al plano individual. A ello se suman otros deberes ineludibles: documentar los sistemas utilizados, realizar evaluaciones de impacto, garantizar la minimización de datos y asegurar una presencia humana real —no meramente formal— en los procesos automatizados relevantes.
Porque la supervisión humana no puede ser una casilla más en un formulario de cumplimiento: debe implicar capacidad real para entender, cuestionar y corregir la propuesta algorítmica. Dicho de otro modo, el criterio humano no puede limitarse a firmar lo que la máquina recomienda.
En definitiva, la inteligencia artificial tiene un enorme potencial para mejorar la eficiencia y la toma de decisiones en la gestión laboral, pero solo desplegará ese valor si se integra en un marco jurídico claro, transparente y respetuoso con los derechos fundamentales.
El objetivo no es sustituir el juicio humano, sino complementarlo con mejores herramientas. La clave no es acelerar la automatización per se, sino hacerlo con criterios éticos, controles adecuados y trazabilidad completa de los algoritmos utilizados. Solo así la IA podrá convertirse en un motor de competitividad que refuerce la confianza de las personas que hacen posible la organización.