¿Qué son los prejuicios inconscientes? ¿Cómo nos afectan?
Los prejuicios inconscientes son estereotipos sociales sobre determinados grupos de personas, que se forman fuera de la conciencia personal. Por ejemplo, un responsable de contratación puede suponer que un candidato joven tiene más probabilidades de cumplir con sus obligaciones laborales en comparación con uno de mayor edad, a pesar de que la edad no tiene nada que ver con la capacidad de un individuo para desempeñar eficazmente sus funciones laborales.
Otro ejemplo frecuente es el sesgo de confirmación, en el que una persona busca opiniones y validaciones de otros que ya están de acuerdo con sus puntos de vista y rechaza cualquier información contraria, independientemente de lo cierta o aplicable que sea. El quid de la cuestión es que a menudo es muy difícil para las personas reconocer y mucho menos tomar medidas para erradicar sus prejuicios inconscientes.
Una de las razones principales es que las personas que tienen algún tipo de prejuicio hacia otra persona o grupo, ya sea consciente o inconsciente, suelen transmitirlo a sus familiares y amigos. Además, muchos prejuicios que permean la sociedad actual, sobre todo los relacionados con la raza y el género, están tan arraigados en la mente de muchas personas que les resulta difícil cambiar su forma de pensar.
¿Cómo nos afectan los prejuicios inconscientes en el contexto del aprendizaje automático?
Como los algoritmos informáticos necesarios para el aprendizaje automático son creados por personas, sus prejuicios pueden filtrarse en la programación. Dado que los algoritmos de aprendizaje automático se utilizan actualmente para tomar decisiones críticas, como la contratación o el despido de empleados y las determinaciones en el sistema de justicia penal, es importante que estos métodos estén tan libres de prejuicios como sea posible. El aprendizaje automático puede ofrecer muchos beneficios en la erradicación de los prejuicios inconscientes. Por ejemplo, los sistemas de aprendizaje automático descartan determinadas variables cuando no pueden predecir con precisión los resultados de su uso. Esto contrasta con los seres humanos, quienes tienen la capacidad de mentir a conciencia en cualquier momento, independientemente de su formación o habilidades. Además, es mucho más fácil sondear los sistemas de inteligencia artificial en busca de prejuicios que demostrar la existencia de sesgos inconscientes en seres humanos.
Por otra parte, el aprendizaje automático puede amplificar los prejuicios inconscientes en algunas situaciones. A esto se refirió la presentación de Rachel Thomas “Analyzing and & Preventing Unconscious Bias in Machine Learning ” (“Analizar y prevenir los prejuicios inconscientes en el aprendizaje automático”) cuando sacó a relucir varios casos de sesgo en algoritmos. Entre estos se encontraba un algoritmo que al leer fotos de personas cocinando etiquetó al 84% de las personas como mujeres, mientras que en realidad sólo el 67% eran féminas.
Otro ejemplo es el contenido sugerido a los consumidores de videos en línea. Zeypey Tufecki, que investiga la intersección entre la sociedad y la tecnología, señaló que los videos de desinformación y propaganda se sugieren a menudo a los espectadores que acaban de consumir contenidos sobre un tema completamente diferente, como los deportes o el entretenimiento.
La incrustación de palabras es otro ejemplo de transferencia de prejuicios humanos a los sistemas informáticos. Dado que las bibliotecas de palabras como Word2Vec de Google se crean con aportaciones humanas, los prejuicios pueden filtrarse en las palabras y asociaciones de palabras de estas bibliotecas. Las bibliotecas de palabras como Word2Vec colocan palabras similares a una distancia más cercana de las palabras no similares. Así, una investigación sobre la biblioteca Word2Vec descubrió que la distancia entre las palabras “hombre” y “genio” era significativamente menor que la distancia entre las palabras “mujer” y “genio”.
¿Qué se puede hacer para combatir los prejuicios inconscientes en el aprendizaje automático?
El primer paso para combatir los prejuicios inconscientes en el aprendizaje automático es identificar qué sesgo hay en los datos consultados por el aprendizaje automático. Los algoritmos que sustentan el aprendizaje automático sólo pueden funcionar sobre la base de los datos que se proporcionan. Si un conjunto de datos margina intrínsecamente a un determinado grupo de personas, obviamente esto se reflejará en el desempeño del sistema de aprendizaje automático. Además, se deben supervisar los procesos diseñados para captar los prejuicios inconscientes presentes en el aprendizaje automático con el fin de determinar si estos son lo suficientemente prácticos o eficaces.
Por último, es necesario que haya diversidad en los equipos que elaboran los modelos de aprendizaje automático. Es muy difícil que alguien represente adecuadamente a un grupo social o demográfico al que no pertenece. Para combatir realmente el sesgo en el aprendizaje automático debemos asegurarnos de que personas de todas las razas, orígenes, orientaciones sexuales y géneros tengan voz en el proceso.