Construyendo IA ética para la gestión del talento

0 Shares
0
0
0
0

Resumen ejecutivo

Siendo realistas, tenemos una mayor capacidad para garantizar la precisión y la equidad en los sistemas de inteligencia artificial que lo que hacemos con los reclutadores y los gerentes de contratación. Para hacer esto, las organizaciones que usan IA para la gestión del talento, en cualquier etapa, deben comenzar con los siguientes pasos. Primero, enfóquese en diseñar sistemas diseñados para mostrar la causalidad sobre la correlación. Si un candidato tiene un atributo asociado con el éxito en un rol, la organización necesita poder explicar los vínculos entre los dos. En segundo lugar, optimice para ser justos y precisos, en lugar de uno sobre el otro. En tercer lugar, responsabilice a su empresa y desarrolladores permitiendo que otros auditen las herramientas que se utilizan para analizar sus aplicaciones. Finalmente, siga las mismas leyes, así como la recolección de datos y las prácticas de uso, que usa en la contratación tradicional.

  

   Personal de HBR / Lishakov / Unsplash
   

  La inteligencia artificial ha alterado todas las áreas de nuestras vidas, desde las experiencias de compra seleccionadas que esperamos de compañías como Amazon y Alibaba hasta las recomendaciones personalizadas que utilizan canales como YouTube y Netflix para comercializar su contenido más reciente. Pero, cuando se trata del lugar de trabajo, en muchos sentidos, la IA todavía está en su infancia. Esto es particularmente cierto cuando consideramos las formas en que está comenzando a cambiar la gestión del talento. Para usar una analogía familiar: AI en el trabajo está en el modo de acceso telefónico. La fase WiFi 5G aún no ha llegado, pero no tenemos dudas de que lo hará.
  Sin duda, existe mucha confusión acerca de lo que AI puede y no puede hacer, así como diferentes perspectivas sobre cómo definirlo. Sin embargo, en la guerra por el talento, la IA desempeña un papel muy específico: dar a las organizaciones predicciones más precisas y más eficientes de las conductas relacionadas con el trabajo y el potencial de rendimiento de un candidato. A diferencia de los métodos tradicionales de reclutamiento, como referencias de empleados, evaluación de CV y ​​entrevistas cara a cara, AI puede encontrar patrones invisibles para el ojo humano.
  Muchos sistemas de IA utilizan personas reales como modelos de cómo se ve el éxito en ciertos roles. Este grupo de individuos se conoce como un “ conjunto de datos de capacitación ” y a menudo incluye gerentes o personal que han sido definidos como “de alto desempeño”. Los sistemas de IA procesan y comparan los perfiles de varios solicitantes de empleo con el ” modelo “empleado que ha creado en función del conjunto de capacitación. Luego, le da a la compañía una estimación probabilística de cuán cerca los atributos de un candidato coinciden con los del empleado ideal.
  Teóricamente, este método podría usarse para encontrar a la persona adecuada para el papel correcto más rápido y más eficientemente que nunca. Pero, como te habrás dado cuenta, se ha convertido en una fuente de promesa y peligro. Si el conjunto de entrenamiento es diverso, si se utilizan datos demográficamente insesgados para medir a las personas que lo integran, y si los algoritmos también están desfasados, esta técnica puede mitigar los prejuicios humanos y expandir la diversidad y la inclusión socioeconómica mejor que los humanos. Sin embargo, si el conjunto de capacitación, los datos o ambos están sesgados y los algoritmos no se auditan lo suficiente, la IA solo exacerbará el problema del sesgo en la contratación y la homogeneidad en las organizaciones.
  Para mejorar rápidamente la gestión del talento y aprovechar al máximo el poder y las posibles ofertas de IA, entonces, necesitamos cambiar nuestro enfoque de desarrollar sistemas de RRHH más éticos para desarrollar una IA más ética. Por supuesto, eliminar el sesgo de la IA no es fácil. De hecho, es muy difícil. Pero nuestro argumento se basa en nuestra creencia de que es mucho más factible que eliminarlo de los propios humanos.
  Cuando se trata de identificar talento o potencial, la mayoría de las organizaciones todavía lo juegan de oído. Los reclutadores gastan unos pocos segundos mirando un currículum antes de decidir a quién “eliminar”. Los gerentes de contratación emiten juicios rápidos y los llaman “ intuición ” o pasan por alto datos duros y contratan según ajuste cultural – un problema que empeora por la ausencia general de medidas de desempeño objetivas y rigurosas . Además, el entrenamiento de sesgo inconsciente implementado por un número creciente de compañías a menudo se ha encontrado ineficaz y, a veces, puede incluso empeorar las cosas . A menudo, la capacitación se enfoca demasiado en el sesgo individual y muy poco en los sesgos estructurales que reducen el flujo de grupos subrepresentados.
  Aunque los críticos argumentan que la IA no es mucho mejor, a menudo olvidan que estos sistemas reflejan nuestro propio comportamiento . Somos rápidos en culpar a AI por predecir que los hombres blancos recibirán calificaciones más altas de desempeño de sus gerentes (probablemente también hombres blancos). Pero esto está sucediendo porque no hemos podido corregir el sesgo en las clasificaciones de rendimiento que a menudo se usan en los conjuntos de datos de entrenamiento. Nos sorprende que AI pueda tomar decisiones de contratación sesgadas, pero vivir bien en un mundo donde los prejuicios humanos los dominan. Solo eche un vistazo a Amazon. El clamor de las críticas sobre su algoritmo de reclutamiento sesgado ignoró la abrumadora evidencia de que la contratación actual impulsada por humanos en la mayoría de las organizaciones es inevitablemente peor. Es similar a expresar más preocupación por un número muy pequeño de muertes de automóviles sin conductor que las 1.2 millones muertes por tráfico al año causadas por humanos defectuosos y posiblemente también distraídos o intoxicados.
  Siendo realistas, tenemos una mayor capacidad para garantizar la precisión y la equidad en los sistemas de inteligencia artificial que para influir o ilustrar a los reclutadores y gerentes de contratación. Los humanos son ​​muy buenos para aprender pero muy malos para desaprender. Los mecanismos cognitivos que nos hacen sesgados son a menudo las mismas herramientas que utilizamos para sobrevivir en nuestra vida cotidiana. El mundo es demasiado complejo para que lo procesemos lógica y deliberadamente todo el tiempo; si lo hiciéramos, estaríamos abrumados por la sobrecarga de información y no podríamos tomar decisiones simples, como comprar una taza de café (después de todo, ¿por qué deberíamos confiar en el barista si no lo conocemos?). Es por eso que es más fácil garantizar que nuestros conjuntos de datos y capacitación sean imparciales que cambiar los comportamientos de Sam o Sally, de quienes no podemos eliminar el sesgo ni extraer una impresión de las variables que influyen en sus decisiones. Esencialmente, es más fácil desempaquetar algoritmos de IA que comprender y cambiar la mente humana.
  Para hacer esto, las organizaciones que usan IA para la gestión del talento, en cualquier etapa, deben comenzar con los siguientes pasos.
  1) Educar a los candidatos y obtener su consentimiento. Solicite a los posibles empleados que opten o proporcionen sus datos personales a la empresa, sabiendo que serán analizados, almacenados y utilizados por los sistemas de inteligencia artificial para tomar decisiones relacionadas con los recursos humanos. Prepárese para explicar el qué , quién , cómo y por qué . No es ético que los sistemas de IA confíen en modelos de caja negra . Si un candidato tiene un atributo asociado con el éxito en un rol, la organización necesita no solo entender por qué ese es el caso, sino también poder explicar los vínculos causales. En resumen, los sistemas de inteligencia artificial deben estar diseñados para predecir y explicar la “causalidad”, no solo encontrar la “correlación”. También debe asegurarse de preservar el anonimato del candidato para proteger los datos personales y cumplir con GDPR , California [19459038 ] leyes de privacidad y reglamentos similares.
  2) Invierta en sistemas que optimicen la equidad y precisión. Históricamente, los psicólogos organizacionales han señalado una caída en la precisión cuando las evaluaciones de los candidatos se optimizan para ser justos. Por ejemplo, mucha investigación académica indica que si bien las pruebas de capacidad cognitiva son un predictor consistente del desempeño laboral, particularmente en trabajos de alta complejidad , su despliegue tiene impacto adverso en grupos subrepresentados, particularmente individuos con un nivel socioeconómico más bajo. Esto significa que las empresas interesadas en impulsar la diversidad y crear una cultura inclusiva a menudo desestiman las pruebas cognitivas tradicionales al contratar nuevos trabajadores para que los diversos candidatos no se vean perjudicados en el proceso. Esto se conoce como el equilibrio entre equidad y precisión.
  Sin embargo, esta compensación se basa en técnicas de hace medio siglo, antes del advenimiento de los modelos de IA que pueden tratar los datos de manera muy diferente a los modelos tradicionales. Cada vez hay más pruebas de que la IA podría superar esta compensación mediante el despliegue de algoritmos de puntuación más dinámicos y personalizados que sean tan sensibles a la precisión como a la justicia , optimizando para una combinación de ambos. Por lo tanto, los desarrolladores de IA no tienen excusa para no hacerlo. Además, debido a que estos nuevos sistemas ahora existen, deberíamos preguntarnos si el uso generalizado de evaluaciones cognitivas tradicionales, que se sabe que tienen un impacto adverso en las minorías, debería continuar sin alguna forma de mitigación de sesgos.

  3) Desarrollar sistemas de código abierto y auditorías de terceros. Haga que las empresas y los desarrolladores rindan cuentas al permitir que otros auditen las herramientas que se utilizan para analizar sus aplicaciones. Una solución es código abierto aspectos no propietarios pero críticos de la tecnología de inteligencia artificial que utiliza la organización. Para los componentes patentados, las auditorías de terceros realizadas por expertos confiables en el campo son una herramienta que las empresas pueden usar para mostrar al público cómo están mitigando el sesgo.
  4) Siga las mismas leyes, así como la recolección de datos y las prácticas de uso, utilizadas en la contratación tradicional. Cualquier información que no deba recopilarse o incluirse en un proceso de contratación tradicional por razones legales o éticas no debe ser utilizada por los sistemas de IA. Nunca se debe ingresar información privada sobre condiciones físicas, mentales o emocionales, información genética y uso o abuso de sustancias.
  Si las organizaciones abordan estos problemas, creemos que la IA ética podría mejorar enormemente las organizaciones no solo reduciendo el sesgo en la contratación sino también mejorando la meritocracia y haciendo que la asociación entre talento, esfuerzo y éxito de los empleados sea mucho mayor de lo que ha sido en el pasado. Además, será bueno para la economía global. Una vez que mitiguemos el sesgo, nuestros grupos de candidatos crecerán más allá de las referencias de empleados y los graduados de la Ivy League. Las personas de una amplia gama de entornos socioeconómicos tendrán más acceso a mejores trabajos, lo que puede ayudar a crear un equilibrio y comenzar a remediar las divisiones de clase.
  Sin embargo, para que esto suceda, las empresas deben realizar las inversiones adecuadas, no solo en tecnologías de IA de vanguardia, sino también (y especialmente) en experiencia humana: personas que entienden cómo aprovechar las ventajas de estas nuevas tecnologías oferta al tiempo que minimiza los posibles riesgos y desventajas. En cualquier área de rendimiento, es probable que una combinación de inteligencia artificial y humana produzca un mejor resultado que una sin la otra. La IA ética debe verse como una de las herramientas que podemos usar para contrarrestar nuestros propios prejuicios, no como una panacea final.

También te pueden interesar

Qué es Valor Compartido

El Concepto de “Valor Compartido” fue promovido por primera vez por Michael Porter y Kramer, director de la firma FSG, quienes propusieron que la relación entre empresas y sociedad no tiene porque estar en conflicto.