Una mejor manera de llevar a la IA a bordo

maximalfocus-khhs-rdee-i-unsplash

 

Idea en resumen

El problema

Muchas empresas luchan por aplicar IA y no logran las mejoras de productividad que buscan.

¿Por qué sucede?

Los ejecutivos a menudo no dejan claro que están usando IA para ayudar a las personas a aumentar la productividad en lugar de reemplazarlos.

Cómo arreglarlo

Tratar la adopción de IA como un proceso de incorporación que consta de cuatro fases: AI como un asistente, como un vigilar, como un entrenador, y como compañero de equipo.

 

En una encuesta realizada en 2018 por el Workforce Institute a 3.000 gerentes en ocho países industrializados, la mayoría de los encuestados describió la inteligencia artificial como una valiosa herramienta de productividad.

Es fácil ver por qué: la IA aporta beneficios tangibles en cuanto a velocidad de procesamiento, precisión y consistencia (las máquinas no cometen errores porque están cansadas), razón por la cual muchos profesionales confían ahora en ella. Algunos especialistas médicos, por ejemplo, usan herramientas de IA para ayudar a tomar diagnósticos y decisiones sobre el tratamiento.

Pero los encuestados también expresaron temores de que AI aceptara sus puestos de trabajo. No están solos. El Tutor informó recientemente que más de 6 millones de trabajadores en el Reino Unido temen ser reemplazados por máquinas. Estos temores son reflejados por académicos y ejecutivos que nos reunimos en conferencias y seminarios. Las ventajas de la IA se pueden emitir en una luz mucho más oscura: ¿Por qué se necesitaría a los humanos cuando las máquinas pueden hacer un mejor trabajo?

La prevalencia de esos temores sugiere que las organizaciones que buscan cosechar los beneficios de la IA deben tener cuidado al presentarla a las personas que se espera que trabajen con ella. Andrew Wilson, hasta enero de 2020 CIO de Accenture, dice: «Cuanto mayor sea el grado de concentración organizacional en las personas que ayudan a la IA, y la IA que ayudan a las personas, mayor será el valor alcanzado». Accenture ha descubierto que cuando las empresas dejan claro que están usando IA para ayudar a las personas en lugar de reemplazarlas, superan significativamente a las empresas que no establecen ese objetivo (o no están claras acerca de sus objetivos de IA) en la mayoría de las dimensiones de la productividad administrativa, en particular la velocidad, la escalabilidad y la eficacia de la adopción de decisiones.

En otras palabras, al igual que cuando un nuevo talento se une a un equipo, la IA debe configurarse para tener éxito en lugar de fracasar. Un empleador inteligente capacita a nuevos empleados dándoles tareas sencillas que construyen experiencia práctica en un contexto no crítico y les asigna mentores para ofrecer ayuda y asesoramiento. Esto permite a los recién llegados aprender mientras que otros se centran en tareas de mayor valor. A medida que adquieren experiencia y demuestran que pueden hacer su trabajo, sus mentores confían cada vez más en ellos como tableros de resonancia y les confían decisiones más sustantivas. Con el tiempo, un aprendiz se convierte en un socio, aportando habilidades y conocimientos.

null Jean-Baptiste Perrot

Creemos que este enfoque también puede funcionar para la inteligencia artificial. En las páginas siguientes nos basamos en la investigación y consultoría propia y de otros sobre la implementación de sistemas de información y AI, junto con estudios organizacionales de innovación y prácticas de trabajo, para presentar un enfoque de cuatro fases para implementar la IA. Permite a las empresas cultivar la confianza de las personas, una condición clave para la adopción, y trabajar hacia un sistema cognitivo humano distribuido en el que las personas y la IA ambos mejorar continuamente. Muchas organizaciones han experimentado con la fase 1, y algunas han avanzado a las fases 2 y 3. Por ahora, la fase 4 puede ser en su mayoría un ejercicio de «proyección futura» del cual vemos algunas señales tempranas, pero es factible desde una perspectiva tecnológica y proporcionaría más valor a las empresas a medida que se dedican a la inteligencia artificial.

Fase 1: El Asistente

Esta primera fase de incorporación de la inteligencia artificial es más bien como el proceso de formación de un asistente. Usted enseña al nuevo empleado algunas reglas fundamentales y entrega algunas tareas básicas pero que normalmente lleva mucho tiempo (como la presentación de formularios en línea o el resumen de documentos), lo que le permite centrarse en aspectos más importantes del trabajo. El aprendiz aprende observándote, realizando las tareas y haciendo preguntas.

Una tarea común para los asistentes de IA es ordenar datos. Un ejemplo son los sistemas de recomendación que las empresas han utilizado desde mediados de la década de 1990 para ayudar a los clientes a filtrar miles de productos y encontrar los más relevantes para ellos. Amazon y Netflix están entre los líderes en esta tecnología.

Cada vez más decisiones empresariales requieren ahora este tipo de clasificación de datos. Cuando, por ejemplo, los gestores de cartera están eligiendo acciones en las que invertir, la información disponible es mucho más de lo que un ser humano puede procesar factiblemente, y la nueva información sale todo el tiempo, añadiendo al registro histórico. El software puede hacer que la tarea sea más manejable filtrando inmediatamente las acciones para cumplir los criterios de inversión predefinidos. El procesamiento en lenguaje natural, por su parte, puede identificar las noticias más relevantes para una empresa e incluso evaluar el sentimiento general sobre un próximo evento corporativo, tal como se refleja en los informes de los analistas. Marble Bar Asset Management (MBAM), una empresa de inversión con sede en Londres fundada en 2002, es una empresa pionera en el uso de estas tecnologías en el lugar de trabajo. Ha desarrollado una plataforma de vanguardia, denominada RAID (Research Analysis & Information Database), para ayudar a los gestores de carteras a filtrar a través de grandes volúmenes de información sobre eventos corporativos, desarrollos de noticias y movimientos de acciones.

La IA es muy útil durante la toma de decisiones de alto volumen, cuando los humanos pueden estar cansados.

Otra forma en que la IA puede prestar asistencia es modelar lo que un ser humano puede hacer. Como cualquier persona que utilice Google se habrá dado cuenta, las solicitudes aparecen cuando se escribe una frase de búsqueda. El texto predictivo en un teléfono inteligente ofrece una forma similar de acelerar el proceso de escritura. Este tipo de modelado de usuario, relacionado con lo que a veces se llama bootstrappapp, se desarrolló hace más de 30 años y se puede aplicar fácilmente a la toma de decisiones. AI lo usaría para identificar la elección que un empleado es más probable que tome, dadas las decisiones pasadas de ese empleado, y sugeriría esa elección como punto de partida cuando el empleado se enfrenta a múltiples decisiones: acelerar, en lugar de hacer realmente, el trabajo.

Veamos esto en un contexto específico. Cuando los empleados de la aerolínea están decidiendo cuánta comida y bebida hay que poner en un vuelo determinado, rellenan los pedidos de catering, que implican una cierta cantidad de cálculo junto con supuestos basados en su experiencia de vuelos anteriores. Tomar decisiones equivocadas incurre en costos: la falta de pedidos corre el riesgo de afectar a los clientes que pueden evitar futuros viajes en la aerolínea. El exceso de pedidos significa que el exceso de comida se desperdicia y el avión habrá aumentado su consumo de combustible innecesariamente.

Un algoritmo puede ser muy útil en este contexto. AI puede predecir lo que el gerente de catering de la aerolínea pediría analizando sus elecciones pasadas o utilizando las reglas establecidas por el gerente. Este «autocompletado» de «pedidos recomendados» puede personalizarse para cada vuelo utilizando todos los datos históricos relevantes, incluyendo el consumo de alimentos y bebidas en la ruta en cuestión e incluso el comportamiento de compra pasado de los pasajeros en el manifiesto de ese vuelo. Pero al igual que con la escritura predictiva, los usuarios humanos pueden sobrescribir libremente según sea necesario; siempre están en el asiento del conductor. AI simplemente les ayuda imitando o anticipando su estilo de decisión.

No debería ser un estiramiento para los gerentes trabajar con IA de esta manera. Ya lo hacemos en nuestra vida personal, cuando permitimos que la función de autocompletar prellene formularios para nosotros en línea. En el lugar de trabajo, un gerente puede, por ejemplo, definir reglas específicas para que un asistente de IA siga al completar formularios. De hecho, muchas herramientas de software utilizadas actualmente en el lugar de trabajo (como los programas de calificación crediticia) ya son precisamente eso: colecciones de reglas de decisión definidas por el hombre. El asistente de IA puede refinar las reglas codificando las circunstancias bajo las cuales el gerente realmente las sigue. Este aprendizaje no implica ningún cambio en el comportamiento del gerente, y mucho menos cualquier esfuerzo para «enseñar» al asistente.

Fase 2: El monitor

El siguiente paso es configurar el sistema de IA para proporcionar retroalimentación en tiempo real. Gracias a los programas de aprendizaje automático, la IA puede ser entrenada para pronosticar con precisión cuál sería la decisión de un usuario en una situación dada (ausencia de fallas en la racionalidad debido, por ejemplo, a exceso de confianza o fatiga). Si un usuario está a punto de tomar una decisión que no sea coherente con su historial de opciones, el sistema puede marcar la discrepancia. Esto es especialmente útil durante la toma de decisiones de alto volumen, cuando los empleados humanos pueden estar cansados o distraídos.

La investigación en psicología, economía conductual y ciencia cognitiva muestra que los seres humanos tienen capacidades limitadas e imperfectas de razonamiento, especialmente cuando se trata de problemas estadísticos y probabilísticos, que son omnipresentes en los negocios. Varios estudios (de los cuales uno de nosotros, Chen, es coautor) sobre decisiones legales encontraron que los jueces conceden asilo político con más frecuencia antes del almuerzo que después, que dictan penas de prisión más leves si su equipo de la NFL ganó el día anterior que si perdió, y que serán más fáciles con un acusado en la el cumpleaños de este último. Claramente, la justicia podría ser mejor servida si los tomadores de decisiones humanos fueran asistidos por programas informáticos que les dijeran cuándo una decisión que planeaban tomar era incompatible con sus decisiones anteriores o con la decisión que un análisis de variables puramente legales podría predecir.

AI puede proporcionar ese tipo de información. Otro estudio (también con Chen como coautor) mostró que los programas de IA que procesan un modelo compuesto por variables jurídicas básicas (construido por los autores del estudio) pueden predecir las decisiones de asilo con aproximadamente un 80% de precisión en la fecha en que se abre un caso. Los autores han añadido funcionalidad de aprendizaje al programa, lo que le permite simular la toma de decisiones de un juez individual basándose en las decisiones anteriores de ese juez.

El enfoque se traduce bien a otros contextos. Por ejemplo, cuando los gestores de cartera (PM) de Marble Bar Asset Management consideran las decisiones de compra o venta que pueden aumentar el riesgo general de la cartera (por ejemplo, aumentando la exposición a un sector o una geografía en particular), el sistema los alerta a través de una ventana emergente durante un proceso de transacción informatizada para que puede ajustarse adecuadamente. Un PM puede ignorar dichos comentarios siempre y cuando se respeten los límites de riesgo de la empresa. Pero en cualquier caso, la retroalimentación ayuda al Primer Ministro a reflexionar sobre sus decisiones.

Por supuesto, la IA no siempre es «correcta». A menudo, sus sugerencias no tienen en cuenta alguna información privada confiable a la que tiene acceso el tomador de decisiones humano, por lo que la IA podría dirigir a un empleado fuera de curso en lugar de simplemente corregir posibles sesgos de comportamiento. Es por eso que usarlo debería ser como un diálogo, en el que el algoritmo proporciona empujones de acuerdo con los datos que tiene mientras que el humano enseña la IA explicando por qué él o ella anuló un empujón particular. Esto mejora la utilidad de la IA y preserva la autonomía del tomador de decisiones humano.

Desafortunadamente, muchos sistemas de IA están configurados para usurpar esa autonomía. Una vez que un algoritmo ha marcado una transacción bancaria como posiblemente fraudulenta, por ejemplo, los empleados a menudo no pueden aprobar la transacción sin liquidarla con un supervisor o incluso con un auditor externo. A veces, deshacer la elección de una máquina es prácticamente imposible, una fuente persistente de frustración tanto para los clientes como para los profesionales de servicio al cliente. En muchos casos, la justificación de una elección de IA es opaca, y los empleados no están en condiciones de cuestionar esa elección incluso cuando se han cometido errores.

Por supuesto, la IA no siempre es «correcta». Es por eso que usarlo debería ser como un diálogo.

La privacidad es otro gran problema cuando las máquinas recopilan datos sobre las decisiones que toman las personas. Además de dar control a los humanos en sus intercambios con AI, tenemos que garantizar que cualquier dato que recoja sobre ellos se mantenga confidencial. Un muro debe separar al equipo de ingeniería de la dirección; de lo contrario, los empleados pueden preocuparse de que si interactúan libremente con el sistema y cometen errores, podrían sufrir más tarde por ellos.

Además, las empresas deben establecer reglas sobre el diseño e interacción con IA para garantizar la coherencia organizacional en las normas y prácticas. Estas reglas podrían especificar el nivel de precisión predictiva requerido para mostrar un empujón o para ofrecer una razón para uno; los criterios para la necesidad de un empujón; y las condiciones bajo las cuales un empleado debe seguir las instrucciones de la IA o remitirlo a un superior en lugar de aceptarlo o rechazarlo.

Para ayudar a los empleados a conservar su sentido de control en la fase 2, aconsejamos a los gerentes y diseñadores de sistemas que los involucren en el diseño: involucrarlos como expertos para definir los datos que se utilizarán y determinar la verdad del terreno; familiarizarlos con los modelos durante el desarrollo; y proporcionar capacitación e interacción como aquellos se implementan modelos. En el proceso, los empleados verán cómo se construyen los modelos, cómo se administran los datos y por qué las máquinas hacen las recomendaciones que hacen.

Fase 3: El entrenador

En una encuesta reciente de PwC, casi el 60% de los encuestados dijeron que les gustaría recibir comentarios sobre el rendimiento diariamente o semanalmente. No es difícil ver por qué. Como afirmó Peter Drucker en su famoso 2005 Harvard Business Review artículo «Gestionarse a sí mismo», la gente generalmente no sabe en qué son buenos. Y cuando creen que lo saben, suelen estar equivocados.

El problema es que la única manera de descubrir fortalezas y oportunidades de mejora es a través de un análisis cuidadoso de las decisiones y acciones clave. Eso requiere documentar las expectativas sobre los resultados y luego, nueve meses a un año después, comparar esas expectativas con lo que realmente sucedió. Por lo tanto, los comentarios que reciben los empleados generalmente provienen de superiores jerárquicos durante una revisión, no en un momento o en un formato de la elección del destinatario. Eso es lamentable, porque, como Tessa West de la Universidad de Nueva York encontró en una neurociencia reciente estudiar, más personas sienten que su autonomía está protegida y que tienen el control de la conversación, capaces de elegir, por ejemplo, cuando se da retroalimentación, mejor responden a ella.

AI podría solucionar este problema. Las capacidades que ya hemos mencionado podrían generar fácilmente comentarios para los empleados, permitiéndoles ver su propio rendimiento y reflexionar sobre variaciones y errores. Un resumen mensual que analice los datos extraídos de su comportamiento anterior podría ayudarles a comprender mejor sus patrones de decisión y prácticas. Algunas empresas, sobre todo en el sector financiero, están adoptando este enfoque. Los gestores de cartera de MBAM, por ejemplo, reciben comentarios de un sistema de análisis de datos que captura las decisiones de inversión a nivel individual.

null Jean-Baptiste Perrot

Los datos pueden revelar sesgos interesantes y variables entre las PM. Algunos pueden ser más reacios a las pérdidas que otros, ya que se aferren a inversiones de bajo rendimiento más tiempo de lo que deberían. Otros pueden tener demasiada confianza, posiblemente asumiendo una posición demasiado grande en una inversión determinada. El análisis identifica estos comportamientos y, como un entrenador, proporciona comentarios personalizados que resaltan los cambios de comportamiento a lo largo del tiempo, sugiriendo cómo mejorar las decisiones. Pero depende de las PMs decidir cómo incorporar la retroalimentación. El liderazgo de MBAM cree que esta «mejora comercial» se está convirtiendo en un diferenciador central que ayuda a desarrollar gestores de cartera y hace que la organización sea más atractiva.

Además, al igual que un buen mentor aprende de las ideas de las personas que están siendo mentores, un «coachbot» de aprendizaje automático aprende de las decisiones de un empleado humano empoderado. En la relación que hemos descrito, un ser humano puede estar en desacuerdo con el coachbot, y eso crea nuevos datos que cambiarán el modelo implícito de la IA. Por ejemplo, si un gestor de cartera decide no comerciar con acciones destacadas debido a eventos recientes de la empresa, puede proporcionar una explicación al sistema. Con la retroalimentación, el sistema captura continuamente datos que se pueden analizar para proporcionar información.

Si los empleados pueden relacionarse y controlar los intercambios con inteligencia artificial, es más probable que lo vean como un canal seguro de retroalimentación que tiene como objetivo ayudar en lugar de evaluar el rendimiento. Elegir la interfaz correcta es útil para este fin. En MBAM, por ejemplo, las herramientas de mejora de trading (visuales, por ejemplo) se personalizan para reflejar las preferencias de un PM.

Al igual que en la fase 2, la participación de los empleados en el diseño del sistema es esencial. Cuando la IA es un entrenador, la gente tendrá aún más miedo al desempoderamiento. Puede parecer fácilmente como un competidor, así como un socio, y ¿quién quiere sentirse menos inteligente que una máquina? Las preocupaciones sobre la autonomía y la privacidad pueden ser aún más fuertes. Trabajar con un entrenador requiere honestidad, y la gente puede dudar en ser abierta con uno que podría compartir datos poco halagadores con la gente de Recursos Humanos.

La implementación de IA en las formas descritas en las tres primeras fases, por supuesto, tiene algunas desventajas. A largo plazo, las nuevas tecnologías crean más puestos de trabajo de los que destruyen, pero mientras tanto los mercados laborales pueden verse dolorosamente perturbados. Además, como argumenta Matt Beane en «Aprender a trabajar con máquinas inteligentes» (HBR, septiembre-octubre de 2019), las empresas que implementan IA pueden dejar a los empleados menos oportunidades de aprendizaje práctico y tutoría.

Cuando la IA es un entrenador, puede parecer fácilmente como un competidor, así como un socio.

Por lo tanto, existe cierto riesgo no sólo de perder puestos de trabajo de nivel inicial (porque los asistentes digitales pueden reemplazar efectivamente a los humanos) sino también de comprometer la capacidad de los futuros encargados de tomar decisiones para pensar por sí mismos. Sin embargo, eso no es inevitable. Como sugiere Beane, las empresas podrían utilizar su inteligencia artificial para crear diferentes y mejores oportunidades de aprendizaje para sus empleados, al tiempo que mejoran el sistema haciéndolo más transparente y dando a los empleados más control. Debido a que los futuros participantes en la fuerza de trabajo habrán crecido en un lugar de trabajo humano más máquina, casi seguro que serán más rápidos que sus colegas pre-AI en detectar oportunidades para innovar e introducir actividades que agregan valor y crean puestos de trabajo, lo que nos lleva a la fase final.

Fase 4: El compañero de equipo

Edwin Hutchins, un antropólogo cognitivo, desarrolló lo que se conoce como la teoría de la cognición distribuida. Se basa en su estudio de la navegación naval, que, según él, implicaba una combinación de marineros, cartas, gobernantes, brújulas y una herramienta de trazado. La teoría se relaciona ampliamente con el concepto de mente extendida, que postula que el procesamiento cognitivo, y los actos mentales asociados tales como la creencia y la intención, no se limitan necesariamente al cerebro, o incluso al cuerpo. Las herramientas e instrumentos externos pueden, en las condiciones adecuadas, desempeñar un papel en el procesamiento cognitivo y crear lo que se conoce como sistema acoplado.

En línea con este pensamiento, en la fase final del viaje de implementación de IA (que hasta nuestro conocimiento ninguna organización ha adoptado todavía) las empresas desarrollarían una red acoplada de humanos y máquinas en la que ambos aportarían experiencia. Creemos que a medida que la IA mejora a través de sus interacciones con usuarios individuales, analizando e incluso modelando usuarios expertos utilizando datos sobre sus decisiones y comportamientos pasados, una comunidad de expertos (humanos y máquinas) surgirá naturalmente en organizaciones que han integrado completamente los coachbots de IA. Por ejemplo, un gerente de compras que, con un solo clic en el momento de la decisión, pudiera ver qué precio daría otra persona podría beneficiarse de un colectivo personalizado de expertos.

Aunque la tecnología para crear este tipo de inteligencia colectiva ya existe, esta fase está plagada de desafíos. Por ejemplo, cualquier integración de IA debe evitar crear prejuicios antiguos o nuevos y respetar las preocupaciones de privacidad humana para que las personas puedan confiar en la IA tanto como lo harían con un socio humano. Eso en sí mismo es un reto bastante grande, dado el volumen de investigación que demuestra lo difícil que es construir confianza entre los humanos.

Los mejores enfoques para crear confianza en el lugar de trabajo se basan en la relación entre confianza y comprensión, un tema de estudio de David Danks y colegas de Carnegie Mellon. De acuerdo con este modelo, confío en alguien porque entiendo los valores, deseos e intenciones de esa persona, y demuestran que él o ella tiene mis mejores intereses en el corazón. Aunque la comprensión ha sido históricamente una base para generar confianza en las relaciones humanas, es potencialmente adecuada para cultivar asociaciones entre la IA humana y la IA, porque el miedo de los empleados a la inteligencia artificial generalmente se basa en la falta de comprensión de cómo funciona la IA.

 

 

En la construcción de la comprensión, un desafío particular es definir lo que significa «explicación», y mucho menos «buena explicación». Este desafío es el foco de una gran cantidad de investigación. Por ejemplo, uno de nosotros (Evgeniou) está trabajando para abrir «cajas negras» de aprendizaje automático mediante las llamadas explicaciones contrafácticas. Una explicación contrafáctica ilumina una decisión particular de un sistema de inteligencia artificial (por ejemplo, aprobar el crédito para una transacción determinada) identificando una breve lista de características de transacción que impulsaron la decisión de una forma u otra. Si alguna de las características hubiera sido diferente (o contrario al hecho), el sistema habría tomado una decisión diferente (se habría denegado el crédito).

Evgeniou también está explorando lo que la gente percibe como buenas explicaciones para las decisiones de IA. Por ejemplo, ¿ven una explicación como mejor cuando se presenta en términos de una combinación lógica de características («La transacción fue aprobada porque tenía características X, Y, Z») o cuando se presenta en relación con otras decisiones («La transacción fue aprobada porque se ve como otras aprobadas transacciones, y aquí están para que usted vea»)? A medida que continúa la investigación sobre lo que hace que la IA pueda explicarse, los sistemas de IA deberían volverse más transparentes, facilitando así la confianza.

CONCLUSIÓN

La adopción de nuevas tecnologías siempre ha sido un reto importante, y cuanto más impacto tenga una tecnología, mayor será el desafío. Debido a su impacto potencial, la inteligencia artificial puede ser percibida como particularmente difícil de implementar. Sin embargo, si se hace con atención, la adopción puede ser bastante fluida. Es precisamente por eso que las empresas deben asegurarse de que el diseño y el desarrollo de la IA sean responsables —especialmente en lo que respecta a la transparencia, la autonomía de decisión y la privacidad— y que involucre a las personas que van a trabajar con ella. De lo contrario, temerán razonablemente ser restringidos, o incluso reemplazados, por máquinas que están tomando todo tipo de decisiones de maneras que no entienden.

La clave es superar estos temores para crear una relación de confianza con la IA. En las cuatro fases descritas en estas páginas, los seres humanos determinan las reglas básicas. Con un diseño responsable, la IA puede convertirse en un verdadero socio en el lugar de trabajo, procesando rápidamente grandes volúmenes de datos variados de una manera consistente para mejorar la intuición y la creatividad de los humanos, que a su vez enseñan la máquina.

Nota del editor: Theodoros Evgeniou es asesor de Marble Bar Asset Management (una empresa de inversión nombrada en este artículo).

A version of this article appeared in the
July–August 2020 issue of
Harvard Business Review.