Las nuevas normas: La Ley de Inteligencia Artificial de la UE

Las nuevas normas: La Ley de Inteligencia Artificial de la UE

Con el desarrollo de nuevas tecnologías, siempre llegan nuevas leyes, y en este caso, es la Inteligencia Artificial (IA) la que se enfrenta a la normativa por primera vez en su nueva andadura.

El Parlamento Europeo ha aprobado la Ley de Inteligencia Artificial de la UE con la intención de poner límites a la IA y su uso, entendiendo que pueden surgir dificultades en función de la funcionalidad de la tecnología. La ley no pretende controlar la IA y sus capacidades, sino establecer directrices que ayuden a gestionar y reducir cualquier riesgo que pueda plantear. El reglamento fue acordado por los diputados del Parlamento Europeo (PE) en diciembre de 2023 y finalmente se convirtió en ley el 13 de marzo de 2024.

La legislación impone obligaciones generales de transparencia, obligando a los desarrolladores a garantizar que los sistemas de IA se construyan con la trazabilidad en su núcleo. La inteligencia artificial de mayor envergadura, que presenta más riesgos, se enfrentará a más normativas que los modelos menos intrusivos, que no se enfrentarán a casi ninguna.

Ahora, la tecnología de IA también debe cumplir la legislación de la UE sobre derechos de autor, lo que significa que no puede hacer o reproducir el trabajo de ningún humano, con lo que se espera eliminar el riesgo de fraude o difamación debido a cualquier sistema de inteligencia artificial.

Categorías de riesgo: Entender la Ley de IA de la UE

La Ley de IA de la UE clasifica los sistemas de IA en cuatro categorías en función del nivel de riesgo. Son las siguientes:

Riesgo inaceptable: los sistemas de IA diseñados para violar los derechos fundamentales están estrictamente prohibidos. Esto incluye sistemas que podrían manipular tu comportamiento, permitir la vigilancia masiva o fomentar acciones perjudiciales.

Alto riesgo: los sistemas de IA utilizados en áreas importantes como hospitales o centrales eléctricas necesitan normas de seguridad adicionales. Los humanos deben supervisar cuidadosamente estos sistemas y tener registros claros de cómo funcionan para poder solucionar los problemas rápidamente.

Riesgo limitado: Incluso las aplicaciones de IA aparentemente inofensivas pueden volverse problemáticas si los usuarios no son conscientes de su verdadera naturaleza. La Ley de IA de la UE da prioridad a la transparencia, exigiendo a los chatbots que revelen su condición no humana y a los generadores de contenidos de IA que etiqueten claramente sus resultados. Esto protege contra el engaño, evita la propagación de deepfakes y otras formas de desinformación generada por IA, y ayuda a mantener la confianza pública en la tecnología de IA a medida que se generaliza.

Riesgo mínimo/sin riesgo: sistemas de IA que no suponen una amenaza. Algunos ejemplos son los filtros de spam de IA y la IA utilizada para el entretenimiento. Esta categoría de riesgo incluye la mayoría de los sistemas utilizados en la UE, que no están sujetos a ninguna normativa, salvo las autoimpuestas.

¿Por qué necesitamos una normativa?

El rápido aumento de la autonomía de la IA exige un debate social urgente y salvaguardias proactivas. Las normativas son cruciales para garantizar que el desarrollo de la IA prioriza la seguridad y el uso ético.

Seguridad y desinformación

La IA ha demostrado ser una herramienta valiosa para quienes buscan crear contenidos falsos y difundir desinformación. Los vídeos deepfake pueden crear la apariencia de cualquier persona diciendo o haciendo casi cualquier cosa. Casos como los protagonizados por artistas de fama mundial como Bad Bunny y Drake ya han visto el uso de la IA para replicar sus voces y crear canciones sin su permiso.

Sora, de OpenAI, presentado recientemente, puede generar vídeos de casi cualquier cosa con gran precisión a partir de un texto, lo que demuestra que esta tecnología es increíblemente accesible y muy fácil de usar.

Protección de datos

Los sistemas de IA aprenden constantemente recopilando y almacenando grandes cantidades de datos, incluida información personal sensible como registros financieros o historiales médicos. Esto crea un riesgo significativo para la privacidad de los datos. Con una supervisión limitada, estos datos podrían ser vulnerables a filtraciones o utilizarse para una vigilancia invasiva. Peor aún, podrían venderse o reutilizarse sin el conocimiento de las personas que los facilitaron. La Ley de Inteligencia Artificial de la UE pretende dar respuesta a estas preocupaciones imponiendo estrictas medidas de seguridad para el tratamiento de los datos personales y exigiendo transparencia sobre el modo en que los sistemas de IA utilizan dicha información.

Prejuicios y discriminación

Los sistemas de IA deben servir a todos los usuarios de forma equitativa, sin prejuicios. Esto pone de relieve la necesidad de una normativa que promueva un desarrollo ético y evite resultados discriminatorios. Un uso habitual de la IA es su capacidad de reconocimiento facial, que permite identificar fácilmente a las personas gracias a sus datos biométricos.

Sin embargo, es crucial reconocer la posibilidad de sesgos inconscientes en los sistemas de IA, especialmente en el ámbito de la tecnología de reconocimiento facial. A pesar de su pretendida neutralidad, estos sistemas pueden perpetuar inadvertidamente prejuicios contra determinadas etnias o grupos. Abordar este problema requiere no solo normativas éticas, sino también un esfuerzo concertado para mitigar los sesgos inconscientes integrados en los algoritmos.

Además, el uso generalizado de la tecnología de reconocimiento facial suscita preocupación por la invasión de la intimidad personal. Al aprovechar las cámaras y los sistemas de CCTV, esta tecnología permite un seguimiento continuo de las personas, lo que puede comprometer su autonomía y libertad. Las salvaguardias y normativas son cruciales para reducir estos riesgos para la privacidad asociados a los sistemas de reconocimiento facial. La nueva normativa sobre IA es un paso adelante para garantizar que estas posibilidades imprudentes y peligrosas acaben antes de que tengan la oportunidad de hacer daño a nadie.

¿Cómo se aplica?

Para hacer cumplir adecuadamente esta nueva ley, la UE ha creado la Oficina Europea de Inteligencia Artificial, un comité encargado de velar por el cumplimiento de las nuevas normas y reglamentos.

La Oficina de IA desempeñará un papel fundamental a la hora de garantizar el cumplimiento de la normativa sobre modelos de IA de uso general. Esta oficina está facultada para realizar evaluaciones, solicitar información a los proveedores y aplicar sanciones en caso necesario.

La Oficina de Inteligencia Artificial tiene entre sus funciones promover una inteligencia artificial digna de confianza, colaborar con los sectores público y privado y fomentar las mejores prácticas y la innovación. Además, pretende reforzar el papel de la UE en los asuntos mundiales de IA estimulando la colaboración internacional y dando forma a normas y acuerdos mundiales sobre IA.

Si la oficina de AI descubre casos de incumplimiento, puede imponer multas que oscilan entre millones de euros y un porcentaje de los ingresos globales de la empresa implicada. Estas sanciones son dinámicas y cambian en función de la infracción cometida y del tamaño de la empresa, lo que significa que las empresas afectadas por estas normas deben tener un conocimiento crítico de las mismas.

¿Cómo cambia esto la IA?

El hecho de que ahora la IA tenga que pasar por canales y que sus desarrolladores estén sujetos a la conformidad significa que los eurodiputados están preocupados por cómo podría ser el futuro de la tecnología.

Según Dragos Tudorache, eurodiputado rumano, la IA “nos empujará a repensar el contrato social en el corazón de nuestras democracias”. Brando Benifei, eurodiputado italiano, cree que gracias al proyecto de ley “se protegerán los derechos de los trabajadores y los ciudadanos”.

Antes de este acto, el mundo se encontraba en una posición poco clara sobre la IA. China cuenta con normas que le permiten supervisar la tecnología de IA y Estados Unidos aprobó en octubre una orden ejecutiva que obliga a los desarrolladores de IA a compartir los resultados de seguridad con el gobierno, pero los eurodiputados han logrado algo innovador.

En febrero de este año, Jensen Huang, consejero delegado de Nvidia, empresa líder en el desarrollo de IA, hizo una declaración en la que reconocía que la tecnología se encuentra “en un punto de inflexión”. También comentó que “estamos empezando a ver un uso generalizado de la IA”, insinuando que la IA ha dejado de ser un ámbito de uso exclusivo de las empresas tecnológicas y ahora ocupa espacio en montones de sectores diferentes.

Estas nuevas normativas sobre la IA ayudan a que se desarrolle de forma que no sólo beneficie a sus desarrolladores y a sus empresas, sino que también ayude a las personas que la utilizan manteniendo su seguridad.

¿Cómo le afecta?

El principal efecto de la regulación de la IA en nuestra vida cotidiana será, si tiene éxito, la capacidad de despreocuparnos de lo que la IA pueda estar haciendo ahí fuera.

A medida que vamos conociendo mejor la IA y lo que es capaz de hacer, estas normativas intentan ofrecer protección al consumidor obligándole a tomar decisiones con conocimiento de causa.

La normativa sobre IA proporciona directrices que garantizan el desarrollo responsable y ético de las tecnologías de IA, protegiendo así a las personas que puedan carecer de conocimientos sobre IA de posibles daños o explotación.

Estas medidas garantizan además un acceso equitativo a los servicios de IA para todas las personas. Al supervisar y regular aspectos específicos de la tecnología, los sistemas de IA están libres de prejuicios y garantizan un trato justo a todos los usuarios. Tus datos están mejor protegidos que antes gracias a que los desarrolladores de IA siguen instrucciones para aplicar nuevas estrategias que salvaguardan la privacidad individual.

En esencia, esta nueva normativa no sólo proporciona un marco para el despliegue responsable de la IA en la UE, sino que también constituye un paso fundamental para fomentar la confianza, la transparencia y la equidad en el ámbito cada vez más extendido de la inteligencia artificial, protegiendo en última instancia tanto a las personas como a la sociedad en su conjunto.

Para llevar

Aunque la Ley de Inteligencia Artificial de la UE es un paso crucial para abordar los riesgos potenciales asociados a la Inteligencia Artificial, es importante reconocer que la cooperación mundial es esencial para regular esta tecnología en rápida evolución. Muchos sistemas de IA operan a través de las fronteras, y será necesario un enfoque unificado de la regulación para gestionar eficazmente su impacto.

Además de las medidas reguladoras, también es vital promover la alfabetización en IA entre el público en general y fomentar la conciencia ética dentro de la comunidad de desarrollo de IA. Las iniciativas de educación y concienciación pueden ayudar a las personas a comprender las capacidades y limitaciones de la IA, capacitándolas para tomar decisiones informadas sobre su uso en diversas aplicaciones.

También es necesario que los responsables políticos mantengan un diálogo activo con los desarrolladores para mantener las expectativas y poder expresar sus preocupaciones. La confianza entre ambas partes y una buena comunicación no sólo pueden beneficiar a las personas a las que afecta la IA, sino también al propio desarrollo de los sistemas.

Si bien esta normativa sienta un precedente para las empresas que no quieran ser multadas con millones de euros por infracciones, también apunta a la idea de que la IA puede utilizarse para ayudar a cumplir esta normativa. Una de las ventajas de la IA es su capacidad para escanear y redactar rápidamente cualquier información sensible que pueda comprometer la identidad de los clientes o infringir las normas de la Ley de IA.

Aunque la Ley de IA de la UE representa un hito importante en la regulación de la IA, es sólo el principio de un proceso complejo y continuo. Si damos prioridad a la transparencia, las consideraciones éticas y la colaboración mundial, podemos trabajar para minimizar los riesgos potenciales de la IA y, al mismo tiempo, aprovechar su poder.

Related Reads