4 formas de abordar el sesgo de género en la IA

0 Shares
0
0
0
0

Resumen ejecutivo

Cualquier examen de sesgo en la IA necesita reconocer el hecho de que estos sesgos provienen principalmente de los sesgos inherentes a los humanos. Los modelos y sistemas que creamos y formamos son un reflejo de nosotros mismos. Por lo tanto, no es sorprendente descubrir que la IA está aprendiendo prejuicios de género de los humanos. Por ejemplo, se ha descubierto que el procesamiento del lenguaje natural (PNL), un ingrediente crítico de los sistemas comunes de inteligencia artificial como Alexa de Amazon y Siri de Apple, entre otros, muestra sesgos de género, y este no es un incidente independiente. Ha habido varios casos de alto perfil de sesgo de género, incluidos los sistemas de visión por computadora para el reconocimiento de género que informaron tasas de error más altas para reconocer a las mujeres, específicamente aquellas con tonos de piel más oscuros. Para producir una tecnología que sea más justa, debe haber un esfuerzo concertado de investigadores y equipos de aprendizaje automático en toda la industria para corregir este desequilibrio. Tenemos la obligación de crear tecnología que sea efectiva y justa para todos.

  

   HBR Staff / Unsplash
   

  Cualquier examen de sesgo en la IA necesita reconocer el hecho de que estos sesgos provienen principalmente de los sesgos inherentes a los humanos. Los modelos y sistemas que creamos y formamos son un reflejo de nosotros mismos.
  Por lo tanto, no es sorprendente descubrir que la IA está aprendiendo el sesgo de género de los humanos. Por ejemplo, el procesamiento del lenguaje natural (PNL), un ingrediente crítico de los sistemas comunes de inteligencia artificial como Alexa de Amazon y Siri de Apple, entre otros, ha demostrado tener prejuicios de género , y este no es un incidente independiente. Ha habido varios casos de alto perfil de sesgo de género, incluidos los sistemas de visión por computadora para el reconocimiento de género que informaron tasas de error más altas para reconocer a las mujeres, específicamente aquellas con tonos de piel más oscuros. Para producir una tecnología que sea más justa, debe haber un esfuerzo concertado de investigadores y equipos de aprendizaje automático en toda la industria para corregir este desequilibrio. Afortunadamente, estamos comenzando a ver un nuevo trabajo que analiza exactamente cómo se puede lograr.
 

Centro de información

  

   

  •      

    AI y sesgo

         

           Patrocinado por SAS
          
          
            Construyendo sistemas de aprendizaje automático justos y equitativos.
          
         
  •    

  De particular interés es la investigación de sesgo que se lleva a cabo con respecto a la inserción de palabras, que es cuando las palabras se convierten en representaciones numéricas, que luego se utilizan como entradas en modelos de procesamiento de lenguaje natural. Las incrustaciones de palabras representan palabras como una secuencia o un vector de números. Si dos palabras tienen significados similares, sus incorporaciones asociadas estarán cercanas entre sí, en un sentido matemático. Las incrustaciones codifican esta información al evaluar el contexto en el que se produce una palabra. Por ejemplo, AI tiene la capacidad de completar objetivamente la palabra “reina” en la oración “El hombre es el rey, como la mujer es la X”. El problema subyacente surge en los casos en que la IA completa oraciones como “El padre es médico como la madre es la enfermera ”. El sesgo de género inherente en el comentario refleja una percepción obsoleta de las mujeres en nuestra sociedad que no se basa en hechos o igualdad.
  Pocos estudios han evaluado los efectos del sesgo de género en el habla con respecto a la emoción, y la emoción AI está comenzando a desempeñar un papel más destacado en el futuro del trabajo, el marketing y casi todas las industrias que se te ocurran. En los humanos, el sesgo ocurre cuando una persona malinterpreta las emociones de una categoría demográfica con más frecuencia que otra, por ejemplo, pensando erróneamente que una categoría de género está enojada con más frecuencia que otra. Este mismo sesgo ahora se observa en las máquinas y en cómo clasifican erróneamente la información relacionada con las emociones. Para entender por qué es esto y cómo podemos solucionarlo, es importante observar primero las causas del sesgo de IA.
  ¿Qué causa el sesgo de AI?
  En el contexto del aprendizaje automático, el sesgo puede significar que hay un mayor nivel de error para ciertas categorías demográficas. Debido a que no existe una causa raíz de este tipo de sesgo, existen numerosas variables que los investigadores deben tener en cuenta al desarrollar y entrenar modelos de aprendizaje automático, con factores que incluyen:
 

  • Un conjunto de datos de entrenamiento incompleto o sesgado: Esto sucede cuando faltan categorías demográficas en los datos de entrenamiento. Los modelos desarrollados con estos datos pueden no escalar adecuadamente cuando se aplican a los nuevos datos que contienen esas categorías faltantes. Por ejemplo, si las hablantes femeninas representan solo el 10% de sus datos de entrenamiento, entonces cuando aplica un modelo de aprendizaje automático entrenado a las mujeres, es probable que produzca un mayor grado de errores.
  •   

  • Etiquetas utilizadas para el entrenamiento: La gran mayoría de los sistemas comerciales de IA utilizan aprendizaje automático supervisado, lo que significa que los datos del entrenamiento están etiquetados para enseñar al modelo cómo comportarse. La mayoría de las veces, a los humanos se les ocurren estas etiquetas, y dado que las personas frecuentemente exhiben prejuicios (tanto conscientes como inconscientes), pueden codificarse involuntariamente en los modelos de aprendizaje automático resultantes. Dado que los modelos de aprendizaje automático están capacitados para estimar estas etiquetas, esta clasificación errónea e injusticia hacia la categoría de género particular se codificará en el modelo, lo que conducirá a un sesgo.
  •   

  • Características y técnicas de modelado: Las mediciones utilizadas como entradas para los modelos de aprendizaje automático, o el entrenamiento del modelo en sí, también pueden introducir sesgos. Por ejemplo, durante muchas décadas, la síntesis de voz de campo, es decir, la tecnología de texto a voz (por ejemplo, la voz de Stephen Hawking) y el reconocimiento automático de voz, la tecnología de voz a texto (por ejemplo, subtítulos) – se desempeñó mal para hablantes femeninos en comparación con hombres . Esto se atribuye al hecho de que la forma en que se analizaba y modelaba el habla era más precisa para hablantes más altos con cuerdas vocales más largas y voces de tono más bajo. Como resultado, la tecnología del habla fue más precisa para hablantes con estas características, que son típicamente hombres, y mucho menos precisa para aquellos con voces más agudas, que suelen ser mujeres.
  •  

Cuatro mejores prácticas para que los equipos de aprendizaje automático eviten el sesgo de género
  Como muchas cosas en la vida, las causas y soluciones del sesgo de la IA no son en blanco y negro. Incluso la “equidad” en sí misma debe cuantificarse para ayudar a mitigar los efectos del sesgo no deseado. Para los ejecutivos que están interesados ​​en aprovechar el poder de la IA, pero están preocupados por el sesgo, es importante asegurarse de que lo siguiente suceda en sus equipos de aprendizaje automático:
 

  • Asegura la diversidad en las muestras de entrenamiento (por ejemplo, usa aproximadamente tantas muestras de audio femeninas como masculinas en tus datos de entrenamiento).
  •   

  • Asegúrese de que los humanos que etiquetan las muestras de audio provengan de diversos orígenes.
  •   

  • Aliente a los equipos de aprendizaje automático a medir los niveles de precisión por separado para diferentes categorías demográficas y a identificar cuándo una categoría se está tratando de manera desfavorable.
  •   

  • Resuelva las injusticias mediante la recopilación de más datos de capacitación asociados con grupos sensibles. A partir de ahí, aplique técnicas modernas de desestimación del aprendizaje automático que ofrezcan formas de penalizar no solo los errores en el reconocimiento de la variable primaria, sino que también tengan penalidades adicionales por producir injusticias.
  •  

Aunque examinar estas causas y soluciones es un primer paso importante, todavía quedan muchas preguntas abiertas por responder. Más allá de la capacitación en aprendizaje automático, la industria necesita desarrollar enfoques más holísticos que aborden las tres causas principales de sesgo, como se describió anteriormente. Además, la investigación futura debería considerar datos con una representación más amplia de variantes de género, como transgénero, no binario, etc., para ayudar a ampliar nuestra comprensión de cómo manejar la diversidad en expansión.
  Tenemos la obligación de crear tecnología que sea efectiva y justa para todos. Creo que los beneficios de la IA superarán los riesgos si podemos abordarlos colectivamente. Depende de todos los profesionales y líderes en el campo colaborar, investigar y desarrollar soluciones que reduzcan el sesgo en la IA para todos.

También te pueden interesar