¿Cómo debe usarse la inteligencia artificial en los departamentos de recursos humanos? Algunas buenas prácticas

por 1 Sep 2025Empresas, Laboral y seguridad social, Tecnología de la información y las comunicaciones

La inteligencia artificial en los departamentos de recursos humanos prolifera por las empresas de todo el mundo, brindando interesantes usos, pero conllevando también riesgos que deben ser reconocidos y abordados.

Aunque pueden existir muchas otras posibilidades, la inteligencia artificial en los departamentos de recursos humanos se está usando principalmente para dos finalidades: el proceso de selección (por ejemplo, para analizar los currículums de los candidatos e identificar rápidamente a quienes más se ajustan al perfil buscado), y la gestión del personal(evaluando desempeños para fijación de remuneraciones, promociones, bonos, despidos, etc.).

Correlativamente, los riesgos de su uso, con la consiguiente potencialidad de producir contingencias legales, también son variados y deben ser cuidadosamente advertidos y gestionados para evitar incurrir, por ejemplo, en conductas discriminatorias, violaciones de la privacidad, filtración de datos personales, daños por inexactitudes de los datos alimentados, etc.

El desafío entonces para los empleadores es implementar la IA, pero con pleno cumplimiento de las disposiciones legales aplicables para la protección de los derechos fundamentales y laborales de los empleados.

Si bien la Argentina carece de normas específicas sobre el uso de la inteligencia artificial en el departamento de recursos humanos, eso no significa que no haya límites impuestos por las normas y principios del derecho común, del derecho del trabajo, o de regulaciones específicas como las de protección de datos personales y ciberseguridad.

Como guía de buenas prácticas específicas, además, se pueden tomar las normas y principios existentes en algunos países o en la Unión Europea.

En el panorama internacional, la Unión Europea aparece como pionera en la regulación de la inteligencia artificial (o también, en lo sucesivo, IA), estableciendo criterios de referencia mundial para su aplicación ética y responsable.

1) Las normas de la Unión Europea como referencia para el uso de la inteligencia artificial en los departamentos de recursos humanos de la Argentina

El Reglamento de Inteligencia Artificial Nº 2024/1689 (en adelante, el Reglamento), se aplica fundamentalmente a los proveedores de IA que desarrollan y/o distribuyen sistemas de inteligencia artificial, y a los llamados “responsables del despliegue”, es decir, aquellas empresas que utilizan la inteligencia artificial, por ejemplo, en sus departamentos de recursos humanos.

El Reglamento clasifica y regula los sistemas de IA en función de sus niveles de riesgo (inaceptable, alto, limitado y mínimo), conforme a su potencialidad de daño a la salud, la seguridad, o los derechos fundamentales de las personas humanas.

Algunos usos de la inteligencia artificial en los departamentos de recursos humanos podrían encuadrarse dentro de los sistemas inaceptables o de riesgo alto.

Los sistemas de IA de riesgo inaceptable se encuentran prohibidos, listando el Reglamento una serie de prácticas de inteligencia artificial prohibidas (artículo 5, 1.). Algunas de estas prácticas prohibidas podrían ocurrir según el uso que se dé a la inteligencia artificial en los departamentos de recursos humanos, tales como:

  • Emplear técnicas subliminales o deliberadamente manipuladoras con la intención o el efecto de menoscabar la capacidad de una persona para tomar decisiones informadas, cuando dicha manipulación se realiza sin el conocimiento de la persona y es razonablemente probable que cause un daño significativo (apartado a).

Como ejemplos de práctica subliminal podría imaginarse incluir imágenes o sonidos imperceptibles para influir en los empleados y que acepten políticas de la empresa;

  • Explotar vulnerabilidades específicas relacionadas con la edad, la discapacidad, o la situación socioeconómica, de una manera que distorsione el comportamiento y sea razonablemente probable que cause daños (apartado b).

Dirigirse a los trabajadores de más edad con incentivos de jubilación basados en la presión o utilizando análisis de inteligencia artificial de las debilidades cognitivas, podrían ser ejemplo de estas prácticas;

  • Evaluar a los empleados basándose en su comportamiento social o en características no relacionadas, dando lugar a un trato negativo injustificado o desproporcionado (apartado c).

Como ser los casos donde se conceden beneficios o un trato preferencial a determinados trabajadores en base a las mencionadas evaluaciones;

  • Reconocer emociones en entornos laborales, salvo con fines médicos o de seguridad (apartado f).

Por ejemplo, observar las expresiones faciales de los empleados durante las reuniones para evaluar su compromiso;

  • Utilizar categorización biométrica para deducir características sensibles, por ejemplo, raza, creencias políticas, orientación sexual, afiliación sindical, etc. (apartado g).

Las prácticas prohibidas tienden a proteger distintos derechos fundamentales de los trabajadores, buscando proteger su privacidad, evitar sesgos y discriminación, permitir la autonomía personal, etc. La vigilancia,  el escrutinio biométrico, la categorización y perfilamiento, pueden impactar en el ambiente laboral y la vida personal de los trabajadores.

Por otro lado, en los sistemas de alto riesgo podrían encuadrarse también muchos usos de la IA para fines laborales.

En el Anexo III, inciso 4, del Reglamento se incluyen dos tipos concretos de sistemas de IA alto riesgo relacionados con el trabajo:

a) Sistemas de IA destinados a ser utilizados para la contratación o la selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos

b) Sistemas de IA destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones de índole laboral o a la promoción o rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones”.

La negrita de la cita es nuestra.

2) Algunas buenas prácticas que pueden tomarse del Reglamento

Ciertas disposiciones del Reglamento sobre el uso de sistemas de alto riesgo podrían ser implementadas como buenas prácticas para el uso de la inteligencia artificial en los departamentos de recursos humanos de las empresas Argentinas.

a) Supervisión humana

El uso de sistemas de IA de alto riesgo deben estar sujetos a una supervisión humana, para prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales de los trabajadores, sea conforme a su finalidad prevista o cuando se le da un uso indebido razonablemente previsible (artículo 14, 2).

b) Deber de información

Antes de usar un sistema de IA de alto riesgo en el lugar de trabajo, los empleadores deberán informar a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización del sistema de IA de alto riesgo (artículo 26, 7).

Así, los trabajadores deben estar plenamente conscientes de la presencia de sistemas de IA que podrían influir en su relación laboral, como la toma de decisiones en procesos de selección o la evaluación de su productividad.

c) Derecho a explicaciones

Toda persona que se vea afectada por una decisión adoptada con base en los resultados de salida de ciertos sistemas de IA de alto riesgo, que produzca efectos jurídicos o le afecte considerablemente del mismo modo, de manera que considere que tiene un efecto perjudicial para su salud, su seguridad o sus derechos fundamentales, tendrá derecho a obtener del responsable del despliegue explicaciones claras y significativas acerca del papel que el sistema de IA ha tenido en el proceso de toma de decisiones y los principales elementos de la decisión adoptada (artículo 86).

El derecho a recibir explicaciones debe ser adecuadamente informado y es crítico cuando la decisión tomada por el sistema de IA tiene un impacto negativo sobre la persona afectada, como por ejemplo una denegación de empleo o un despido.

3) Conclusiones

Las empresas que implementen sistemas de inteligencia artificial en los departamentos de recursos humanos en Argentina deben buscar adecuado asesoramiento profesional sobre los límites y riesgos legales de su uso.

Además, es determinante de una buena práctica la formación de los equipos de recursos humanos sobre el funcionamiento de los sistemas de IA y la normativa aplicable, siendo recomendable delinear e instrumentar políticas internas para prevenir el uso indebido de sistemas de IA.

Adoptando prácticas de IA responsables y manteniéndose informados sobre la evolución jurídica, los empresarios pueden maximizar los beneficios de la IA al tiempo que garantizan el cumplimiento de las normas legales y éticas que deben imperar en su uso.

                       

 

Mario E. Castro Sammartino

Nuestras publicaciones expresan exclusivamente la opinión de su autor y no constituyen consejo ni opinión legal sobre caso alguno. De necesitarlo debe consultar con su abogado de confianza.

Si desea información sobre cuestiones legales de interés o consultar sobre su caso particular, por favor, suscríbase a nuestro Blog Legal o contáctenos a su conveniencia.

Síganos en las redes sociales

De nuestro Blog Legal sobre Empresas

Desea conocer todas nuestras publicaciones o buscar por temas

Contáctenos

Será un placer conocerlo personalmente en nuestras oficinas o atender su llamado.

Tte. Gral. Juan Domingo Perón 679, piso 3°
C1038AAM - Buenos Aires

Argentina

Síganos

Mándenos un correo electrónico

14 + 9 =