Ley de responsabilidad algorítmica, sesgo y tecnología
December 13, 2024 | 4 minutes read
Debido al papel que la inteligencia artificial sigue desempeñando en el desarrollo de nuevas tecnologías a escala internacional, los algoritmos de aprendizaje automático están siendo utilizados actualmente por empresas de todo el mundo para automatizar procesos y decisiones que tradicionalmente han sido tomados por seres humanos. Desde la sanidad hasta la vivienda, pasando por la educación, los algoritmos de aprendizaje automático se utilizan actualmente para influir en las decisiones que afectan a la vida diaria de las personas. Sin embargo, a pesar de los inmensos beneficios de la inteligencia artificial y el aprendizaje automático en determinadas áreas, la tecnología no está libre del sesgo inherente que puede estar asociado con el proceso de desarrollo de software que se utiliza para crear dichos algoritmos.
Por ejemplo, ha habido numerosos estudios y casos de uso que han descubierto que los algoritmos de reconocimiento facial tienen dificultades para identificar los rasgos faciales de las personas de piel más oscura en comparación con los de las personas de piel más clara. Por esta razón, el Congreso está considerando actualmente aprobar una nueva ley que encargaría a la Comisión Federal de Comercio (FTC) la regulación de “sistemas de alto riesgo que involucran información personal o toman decisiones automatizadas, como sistemas que utilizan inteligencia artificial o aprendizaje automático.” Presentada por primera vez en 2019, la Ley de Responsabilidad Algorítmica exigiría a las empresas dentro de ciertos sectores de la industria, como la educación, la vivienda y el empleo, entre otros, que realicen evaluaciones de impacto de privacidad para garantizar que los sistemas automatizados en los que confían para tomar decisiones estén libres de sesgos.
¿Cómo define la ley la IA de alto riesgo?
Según el borrador actual de la Ley de Responsabilidad Algorítmica, “los sistemas automatizados de decisión de alto riesgo incluyen aquellos que (1) pueden contribuir a la inexactitud, parcialidad o discriminación; o (2) facilitan la toma de decisiones sobre aspectos sensibles de la vida de los consumidores mediante la evaluación de su comportamiento”. Además, un sistema de decisión automatizado, o un sistema de información que implique datos personales, se considera de alto riesgo si (1) plantea problemas de seguridad o privacidad, (2) implica la información personal de un número significativo de personas, o (3) supervisa sistemáticamente una ubicación física grande y accesible al público.”
Por otro lado, la Ley de Responsabilidad Algorítmica también establece los requisitos para las evaluaciones de impacto sobre la privacidad que deben realizarse a la hora de determinar si un sistema automatizado de toma de decisiones de alto riesgo puede ser propenso a tomar decisiones sesgadas. Posteriormente, la ley establece que estas evaluaciones de impacto sobre la privacidad deben incluir los siguientes elementos:
- Una descripción detallada del sistema automatizado de toma de decisiones que se está evaluando.
- Una evaluación de los costes y beneficios relativos de la utilización del sistema automatizado de toma de decisiones.
- Una determinación de los riesgos asociados a la utilización del sistema de toma de decisiones automatizada en relación con la privacidad y la protección de la información personal.
- Las medidas que la empresa u organización ha adoptado o está adoptando para mitigar los riesgos potenciales asociados al sistema automatizado de toma de decisiones, en caso de que se descubran tales riesgos en el curso de la evaluación del impacto sobre la privacidad.
- La medida en que el sistema de toma de decisiones automatizada protege la información personal y la privacidad de los consumidores estadounidenses.
Un repositorio público
Además de exigir a las empresas y organizaciones que utilizan sistemas automatizados de toma de decisiones que lleven a cabo evaluaciones de impacto sobre la privacidad para comprobar cualquier posible sesgo de discriminación, la Ley de Responsabilidad Algorítmica también establecería un repositorio público dentro de la FTC para dichos sistemas automatizados. En este sentido, este repositorio público serviría para obtener un cierto nivel de transparencia y responsabilidad entre las empresas que utilizan algoritmos de IA y aprendizaje automático en sus respectivos sistemas y los clientes que adquieren los bienes y servicios de dichas empresas, ya que los medios por los que un sistema de IA concreto llega a una conclusión determinada se han considerado históricamente un secreto comercial y, como tal, algo que debe permanecer confidencial.
Aunque una sola ley no bastará para reducir por completo la aparición de sistemas de IA que tomen decisiones inherentemente sesgadas, la promulgación de la Ley de Responsabilidad Algorítmica sería, no obstante, un paso en la dirección correcta. Con este fin, la IA y el aprendizaje automático seguirán integrándose en los modelos de negocio que se utilizan actualmente en todo el mundo, así como en la creación de nuevos modelos de negocio que aún están por descubrir. Del mismo modo, es imperativo que estos sistemas de IA estén regulados de una forma u otra, puesto que ya se han recopilado suficientes datos para confirmar que un algoritmo sesgado puede llegar a decisiones que resulten desastrosas tanto para los clientes como para las empresas.