View English Version Here.

Las empresas ya han pasado oficialmente de la fase de experimentación a la de la integración en el uso de la inteligencia artificial (IA) en sus operaciones. Las herramientas de la inteligencia artificial se utilizan cada vez más en todo el ciclo de vida de la relación laboral, desde la contratación hasta el despido o cesantía, y abarca aspectos tales como la gestión del desempeño y la planificación de horarios. Si bien estas herramientas pueden maximizar la eficiencia, también plantean numerosas consideraciones legales que las empresas deben tener en cuenta.

Es importante entender que el uso de la IA, de cualquier manera, compromete la privacidad. Por lo tanto, el uso de estas herramientas en la gestión de cualquier etapa de la relación laboral conlleva la aplicación de las leyes de privacidad que rigen la recopilación, procesamiento y almacenamiento de información personal identificable (IPI). Desafortunadamente, Estados Unidos no cuenta con un marco legal unificado en materia de privacidad, sino un conjunto heterogéneo de leyes estatales y federales que pueden o no ser aplicables según el sector, los métodos de recopilación, las razones para el procesamiento y los medios de almacenamiento. Dependiendo del tipo de IPI, el sector de su empresa y la naturaleza del uso de los datos, podrían corresponder también leyes federales como la HIPAA, la Ley de Privacidad de las Comunicaciones Electrónicas y la Ley de Informes Crediticios Justos, o leyes estatales como la Ley de Seguridad de las Comunicaciones de Florida o la Ley de Privacidad del Consumidor de California.

Además de implicar las leyes más típicamente asociadas con temas de privacidad, el uso de herramientas de IA en la gestión del personal implica la legislación laboral tradicional. Los empleadores pueden correr riesgos debido al sesgo algorítmico que tengan estas herramientas. El sesgo algorítmico tiene lugar cuando el aprendizaje automático genera algoritmos que producen resultados discriminatorios. Este sesgo a menudo no es intencional y se basa en sesgos desconocidos en los datos que se incorporan al algoritmo. Por ejemplo, si los datos históricos de contratación de una empresa indican que más hombres que mujeres salen victoriosos en la evaluación de currículos, este sesgo se incorporará al algoritmo, independientemente de si las razones son legítimas.

Si las empresas toman decisiones de contratación basándose en las herramientas de IA que utilicen, no podrán explicar la razón por esas decisiones… confiar en un algoritmo no exime a los empleadores de cumplir con las leyes contra la discriminación.

Además, algunas jurisdicciones, como el estado de Nueva York, prohíben explícitamente el uso de la “toma de decisiones automatizada” en cuestiones laborales. Si bien Florida no tiene actualmente ninguna ley de este tipo, dependiendo de la jurisdicción, los empleadores de Florida podrían ser responsables en otros estados si utilizan herramientas de IA para tomar decisiones laborales que afecten a residentes de esas jurisdicciones.

Todo empleador que utilice herramientas de IA para la toma de decisiones laborales debe tener en cuenta lo siguiente:

  • Notificar debidamente y obtener el consentimiento correspondiente antes de pasar la información de cualquier persona a la herramienta de IA.
  • Realizar auditorías de los resultados de la IA y de los datos introducidos para evaluar posibles sesgos.
  • Negociar los contratos con las empresas proveedoras de las herramientas de IA para garantizar una distribución favorable de la responsabilidad y una comprensión clara de qué se hace con los datos de sus empleados.
  • Nunca delegar por completo ninguna decisión laboral a una herramienta de IA.

Hasta ChatGPT está de acuerdo con nosotros en esto… cuando se le preguntó acerca de los riesgos para los empleadores que utilizan IA en la gestión del personal, advirtió sobre los riesgos legales, operativos y de confidencialidad, y aportó recomendaciones similares, algunas de las cuales se copian a continuación:

  • Los empleadores deben asegurarse de que un ser humano capacitado que tome decisiones revise todas las decisiones de empleo generadas por IA. Que la revisión pase a través de un “ser humano que esté en el medio” es cada vez más importante tanto desde la perspectiva del cumplimiento con las normas como para la defensa legal.
  • Los empleadores deben tener en cuenta que las comunicaciones o evaluaciones generadas por la inteligencia artificial pueden convertirse posteriormente en pruebas admisibles en un litigio y que se les puede investigar para comprobar la existencia de sesgo, incoherencia o ausencia de evaluación individualizada.

El equipo Stearns Weaver Miller sobre la privacidad está plenamente capacitado para guiar a su empresa a través de cualquier pregunta o problema que tenga en relación con la privacidad, la inteligencia artificial o cómo estas afectan sus prácticas empresariales o laborales en general.