Detección de sesgos en el desarrollo de algoritmos de IA

Detección de sesgos en el desarrollo de algoritmos de IA

A medida que la inteligencia artificial se ha ido extendiendo en los últimos años, temas como la parcialidad en los algoritmos de IA son más importantes que nunca. Un sistema de IA sólo será tan imparcial como las personas que desarrollen la tecnología, ya que los prejuicios implícitos que las personas tienen contra otros miembros de la sociedad se filtrarán inevitablemente en el trabajo que creen.

Además, como muchos equipos de desarrollo que trabajan en algoritmos de IA no son diversos, es muy difícil crear modelos de IA que representen a grandes poblaciones con precisión y eficacia. Aunque identificar cualquier sesgo que se pueda poseer es el primer paso para abordar el sesgo en los algoritmos de IA, hay otras medidas que se pueden tomar para garantizar que toda la tecnología creada funcione desde una perspectiva imparcial en todo momento.

Dado que el desarrollo de la IA se produce a lo largo de muchas etapas, es imperativo que los sesgos inconscientes se aborden en cada una de ellas. Cuatro ejemplos comunes de estas etapas son la recopilación de datos, el procesamiento de datos, el análisis de datos y el modelado.

AI Recogida de datos

La recogida de datos es la primera etapa del desarrollo en la que se pueden detectar sesgos y la etapa más influyente en el desarrollo en general. La razón principal es que, como es obvio que los conjuntos de datos se crean a partir de aportaciones humanas, también están sujetos a sesgos, prejuicios o nociones preconcebidas humanas. Es imprescindible introducir diversidad en el conjunto de datos en esta fase para garantizar que el modelo de IA disponga de una amplia gama de referencias e información entre las que elegir una vez concluido el proceso de desarrollo. Un sesgo habitual en la fase de recopilación de datos es el sesgo de selección, que se define como la selección de datos de tal forma que la muestra no está representada con exactitud en el conjunto de datos.

Por poner un ejemplo, muchos estudios de investigación utilizarán estudiantes universitarios como grupo de enfoque para probar cualquier hipótesis que pretendan plantear. Sin embargo, los estudiantes no son representativos de toda la población del país, ya sea desde el punto de vista de la edad, la salud física o una miríada de otros factores. Por ello, un estudio que extrajera respuestas estrictamente de estudiantes universitarios estaría sesgado hacia los sentimientos de un grupo demográfico más joven. Otro aspecto de la recopilación de datos en el que existe sesgo es el “efecto marco”, en el que las preguntas de la encuesta se formulan con un sesgo particular.

Por poner otro ejemplo, la opción 1 puede ofrecer una ganancia de 100 dólares, mientras que la opción 2 puede ofrecer 200 dólares, pero con una pérdida de 100 dólares. A pesar de que ambas opciones supondrían una ganancia total de 100 dólares, el efecto de encuadre postula que algunas personas pueden considerar la segunda opción más atractiva que la primera porque está enmarcada de forma que implica más dinero. Este es un ejemplo del sesgo de que más es siempre mejor, independientemente de cualquier prueba que demuestre lo contrario. Otro ejemplo de sesgo que puede aparecer en la fase de recogida de datos es el sesgo sistemático, en el que se produce un error constante y repetible. Aunque esta forma de sesgo puede ser extremadamente difícil de detectar, la mayoría de las veces es el resultado de una maquinaria defectuosa y puede combatirse fácilmente manteniendo un buen conocimiento del hardware que se utiliza para crear el modelo de IA en cuestión.

Procesamiento de datos de IA

Aunque la recopilación de una amplia gama de datos es el paso más importante para crear un modelo de IA eficaz, estos datos siguen estando en bruto y necesitan ser procesados para que puedan ser comprendidos por los algoritmos de ML. En la etapa de procesamiento de datos, los datos recogidos en la etapa de recopilación pueden extraerse y estructurarse, desestructurarse o semiestructurarse en función del modelo que se esté creando. Además, hay tres etapas dentro de la etapa de procesamiento de datos: formateo, limpieza y muestreo. Dado que existen diferentes formas en las que se pueden encontrar los datos, como el formato de archivo Parquet y el formato propietario, el formateo de los datos facilita a los modelos de aprendizaje automático trabajar con los datos de la manera más eficiente posible. En la etapa de limpieza, se pueden eliminar los datos no deseados, corruptos o que faltan para que el resultado final sea lo más pulido y refinado posible. Por último, la etapa de muestreo permite a los desarrolladores ahorrar tiempo y espacio de memoria seleccionando una muestra concreta del conjunto de datos, lo que permitirá crear prototipos y soluciones de exploración más rápidamente.

Por lo que respecta al tratamiento de los sesgos, la detección de valores atípicos es un ejemplo de eliminación de sesgos potenciales antes de que tengan la oportunidad de formarse en la etapa de tratamiento de datos. Por ejemplo, en un conjunto de datos en el que la gran mayoría de las personas son estudiantes universitarios sanos de entre 20 y 25 años, una persona de 90 años jubilada tendría menos probabilidades de ser representativa de los datos. Por poner otro ejemplo, en un conjunto de datos de matrículas que contenga principalmente matrículas estadounidenses, una matrícula europea no sería muy representativa de los datos globales a pesar de que técnicamente también es una matrícula.

Análisis de datos

Una vez recogidos y procesados los datos, están listos para su análisis. Durante la tercera fase de desarrollo, la fase de análisis de datos, éstos pueden afinarse aún más para garantizar el mejor producto final posible. Por ejemplo, los desarrolladores pueden utilizar modelos estadísticos de datos, como el análisis de regresión y la correlación, para identificar las relaciones entre las variables de datos del conjunto. Alternativamente, se pueden utilizar técnicas de visualización de datos para examinar los datos en un formato gráfico con el objetivo de obtener más información y claridad en el propio conjunto de datos. Además, la fase de análisis de datos es un momento oportuno para comprobar que las dos primeras etapas de desarrollo son satisfactorias y eficientes antes de pasar a la etapa final de desarrollo.

En cuanto al sesgo, el sesgo de confirmación puede tener un efecto adverso en un conjunto de datos durante la fase de análisis de datos. Como es muy fácil que las personas busquen información y parámetros que confirmen su punto de vista actual, es importante tener en cuenta perspectivas ajenas a la propia visión del mundo a la hora de recopilar datos. A la inversa, algo tan simple como un gráfico engañoso puede introducir un sesgo en un modelo de IA. Por ejemplo, un científico de datos puede decidir que el eje Y de su gráfico comience en 0, lo que a su vez podría hacer que los resultados de dicho gráfico parecieran mucho más pronunciados y notables que si el eje Y estuviera en un número como 70 u 80.

Modelización de la IA

Una vez completadas las tres primeras fases de desarrollo, la última etapa del proceso consiste en poner el modelo en producción. Sin embargo, antes de ponerlo a disposición del público, hay que comprobar su precisión y eficacia. Un ejemplo de estas pruebas son las pruebas unitarias, en las que el programa de IA se divide en bloques y cada elemento se prueba por separado. Otra prueba habitual es la de regresión, en la que la IA se prueba con otra opción de software existente para garantizar que el modelo que se está creando no se rompa de repente o experimente otros problemas técnicos. También pueden realizarse pruebas de integración, que funcionan observando cómo funcionan juntos varios componentes de un programa. Además de estas pruebas, la IA también puede probarse con métricas más generales como la exactitud, la pérdida, la precisión y la recuperación.

Las formas de sesgo que pueden estar presentes en la fase de modelización incluyen la compensación sesgo/varianza y la deriva conceptual. Aunque un modelo con un sesgo elevado resultará inadecuado con el tiempo, es necesario un cierto nivel de varianza para garantizar respuestas generales. Por el contrario, la deriva conceptual describe un fenómeno en el que las propiedades estadísticas de una variable objetivo cambian gradualmente con el tiempo de forma inesperada. Por ejemplo, puede desarrollarse un modelo para predecir el comportamiento de los clientes que frecuentan una tienda de ropa en línea. Si bien el modelo puede empezar siendo excelente, puede ir perdiendo eficacia a lo largo de un año natural. Lo que ha ocurrido en este caso es que el comportamiento de los clientes ha cambiado durante el año, y es muy difícil cuantificar estos cambios, ya que el comportamiento humano no se basa en ninguna métrica concreta.

Independientemente de cualquier etapa de desarrollo o jerga técnica asociada, corresponde a los propios desarrolladores tratar de identificar sus sesgos y asegurarse de que están creando modelos de IA que son representativos de la totalidad de la población a la que están sirviendo en un momento dado.

Related Reads