La tecnología de reconocimiento facial y su privacidad

La tecnología de reconocimiento facial y su privacidad

Todos hemos sido testigos de la tensa escena de las películas de espionaje en la que los investigadores examinan exhaustivamente una señal de vigilancia en directo con la esperanza de encontrar el rostro del villano entre los miles de rostros de la multitud. La escena se intensifica cuando una voz detrás del ordenador grita “Objetivo identificado” y, a continuación, comparte su monitor en la pantalla grande para que el resto de la sala pueda observarlo. En la transmisión en directo, aparece un recuadro alrededor de la cara de la persona mientras se mueve entre la multitud junto a una imagen estática de la persona, a un lado de la pantalla, con la leyenda que dice “100% coincidencia”.

Los agentes en tierra se abalanzan sobre la multitud, persiguen al villano y finalmente lo capturan. Es un trabajo bien hecho, pero ¿cómo identificaron al objetivo entre una multitud de mil personas? La respuesta está en la tecnología de reconocimiento facial.

La tecnología de reconocimiento facial no sólo está en las películas, sino también en nuestros teléfonos, se utiliza en los controles de aduanas y es un tema candente cuando se trata de proteger la intimidad personal.

¿Qué es la tecnología de reconocimiento facial?

La tecnología de reconocimiento facial (FRT) está programada para determinar la similitud entre dos imágenes faciales como forma de identificar una coincidencia. El software lo consigue identificando y cuantificando los rasgos faciales para poder compararlos cuando se presenta al programa una segunda imagen de un rostro.

La FRT utiliza el aprendizaje automático para identificar y discernir entre objetos como rostros y matrículas. El software convierte rasgos faciales únicos como ojos, narices y bocas en puntos de datos numéricos para la comparación cruzada. El algoritmo del FRT genera una puntuación de similitud cuando los puntos de datos de un rostro se comparan con otro conjunto de puntos de datos de un rostro diferente. Esta puntuación de similitud informa a los humanos que supervisan el nivel de confianza del FRT a la hora de emparejar o diferenciar dos rostros. Si un objeto como una matrícula aparece en la misma imagen o vídeo que un rostro, el FRT reconocerá que la matrícula carece de rasgos faciales reconocibles y la excluirá de cualquier análisis facial.

Precisión y sesgo algorítmico

Lines of computer code

La precisión de la tecnología de reconocimiento facial depende de las circunstancias en que se utilice. Cuando se comparan imágenes de dos rostros en situaciones de iluminación y ángulos similares, el software de FRT tiene un alto grado de precisión. Sin embargo, si una de las imágenes es una ficha policial, por ejemplo, tomada bajo luz fluorescente con una resolución de alta calidad en comparación con una imagen granulada capturada a partir de una grabación en blanco y negro de una cámara de seguridad, el grado de precisión disminuirá debido a que las circunstancias no son ideales.

Además, la precisión del software FRT también depende de las imágenes con las que se entrenó durante el proceso inicial de aprendizaje automático. Si la mayoría de las imágenes representan rostros de un solo grupo demográfico, entonces el programa sería más hábil para identificar con precisión las características de ese grupo demográfico en particular y menos preciso cuando se le pide que identifique y compare las características de un rostro de un grupo demográfico diferente, lo que lleva a un fuerte sesgo racial.

Según un estudio de diciembre de 2019 del Instituto Nacional de Estándares y Tecnología (NIST), los investigadores descubrieron que entre los más de 100 software FRT probados, la precisión del programa era más alta para los hombres blancos de mediana edad. Las diferencias entre identificar con precisión a un hombre blanco frente a una mujer negra fueron significativas; el software de tecnología de reconocimiento facial probado identificó falsamente imágenes de mujeres negras en cualquier lugar entre 10 y 100 veces más frecuentemente de lo que identificó falsamente imágenes de hombres blancos.

Una explicación del sesgo racial algorítmico podría ser el resultado de un conjunto de datos no diverso utilizado durante el proceso de aprendizaje automático. Sin embargo, este problema puede abordarse y rectificarse. Las investigaciones en curso del NIST y del Departamento de Seguridad Nacional muestran un aumento significativo de la precisión en todos los grupos demográficos a partir de 2023. A pesar de estas mejoras, la preocupación por la identificación errónea continúa debido a las implicaciones legales en el mundo real que pueden derivarse de tales errores.

Nijeer Parks, un hombre afroamericano de 33 años, fue detenido en febrero de 2019 y acusado de robar caramelos en una tienda y de intentar atropellar a un agente de policía con un coche. Excepto que él estaba a 30 millas de distancia en el momento del incidente. El Sr. Parks fue detenido debido a una falsa coincidencia de la tecnología de reconocimiento facial utilizada por los investigadores estatales de Nueva Jersey. Según el Sr. Parks, la única similitud que vio entre la foto, utilizada para acusarle erróneamente del delito y él mismo, era que ambos eran hombres afroamericanos con barba. Tras pasar 10 días en la cárcel y gastar 5.000 dólares en costas judiciales, el caso fue sobreseído por falta de pruebas.

Con el conocido sesgo racial de los algoritmos FRT y las crecientes tensiones entre las fuerzas del orden y las comunidades minoritarias, no es de extrañar que grupos como la ALCU crean que el FRT podría utilizarse para atacar a las comunidades negras y marrones de Estados Unidos. Un mes después de la muerte de George Floyd, IBM, Amazon y Microsoft anunciaron que pausarían o detendrían la venta de su tecnología de reconocimiento facial a las agencias policiales, en parte debido a su uso potencial para la elaboración de perfiles raciales. A pesar del aumento de la precisión desde el estudio del NIST de 2019, se han emprendido acciones legales para restringir el uso de FRT por parte de las fuerzas del orden y las agencias gubernamentales.

Preocupación por la privacidad

Man hiding his face with his coat collar.

Varias ciudades de EE.UU. han prohibido o limitado el uso de la tecnología de reconocimiento facial por parte de las fuerzas del orden y los organismos gubernamentales debido a la posibilidad ya mencionada de que se elaboren perfiles raciales y se identifique erróneamente a los sujetos. El Congreso aún no ha aprobado ninguna ley que regule el uso de la tecnología de reconocimiento facial, por lo que es competencia de los gobiernos estatales y municipales. Sin embargo, esto no significa que el Congreso no lo haya intentado. Los senadores Coons y Lee del 116º Congreso introdujeron la Ley de Garantía de Tecnología de Reconocimiento Facial de 2019, que habría exigido a las agencias policiales obtener una orden antes de usar FRT, pero el proyecto de ley murió en el comité sin ser votado. Debido a la falta de regulación federal, casi dos docenas de gobiernos estatales o locales entre 2019 y 2021 pusieron en los libros legislación que restringe el uso de FRT, pero con la preocupación por el aumento de las tasas de criminalidad, algunos estados han comenzado a revertir su legislación anti-FRT para ayudar a los investigadores.

En parte debido a la controvertida implementación doméstica de la tecnología de reconocimiento facial en Estados Unidos, China ha tomado la delantera como exportador mundial de FRT. Las posibles implicaciones políticas de la exportación china de software de reconocimiento facial han sido señaladas por académicos de Harvard y el MIT en un informe combinado, en el que se argumenta que el aumento de la vigilancia gubernamental podría convertir las democracias débiles en autocracias en toda regla y podría ser una ayuda para el aumento de los abusos contra los derechos humanos en esos países.

El lado positivo del FRT

Con todas las preocupaciones sobre las violaciones de la privacidad relacionadas con la tecnología de reconocimiento facial, no podemos pasar por alto cómo se puede utilizar el FRT para proteger la privacidad personal. CaseGuard Studio, una solución de redacción todo en uno, utiliza una función de detección facial basada en inteligencia artificial que permite a sus usuarios detectar y eliminar automáticamente rostros de imágenes, vídeos y documentos.

La eliminación de rostros es una herramienta importante para mantener el anonimato, ya se trate de transeúntes que aparecen en las imágenes de vigilancia de la escena de un crimen, estudiantes no implicados en un altercado en clase o cualquier otro escenario que requiera ocultar rostros o identidades. Sin el FRT basado en IA, los miembros de los departamentos de policía, escuelas, hospitales y muchos otros organismos tendrían que redactar manualmente las caras de las imágenes, vídeos y documentos antes de hacerlos públicos. Si bien la redacción manual ofrece a quienes la realizan un control total, es innegable que lleva mucho tiempo. Por el contrario, la detección automática de IA de CaseGuard garantiza la protección de la privacidad de las personas de forma muy rápida y eficaz.

Related Reads