IA transparente frente a IA de caja negra, desarrollo de nuevo software
November 06, 2024 | 6 minutes read
Aunque la inteligencia artificial se ha convertido en un término paraguas que define de hecho una serie de tecnologías diferentes, muchas aplicaciones de la inteligencia artificial en el mundo actual pueden dividirse en dos categorías distintas, la IA opaca y la transparente. Dicho de la forma más sencilla, los sistemas de inteligencia artificial opacos no revelan fácilmente por qué han llegado a una solución o decisión concreta, mientras que los sistemas de inteligencia artificial transparentes ofrecen una explicación directa de todas las soluciones o decisiones que se han tomado. En este punto, como ocurre con cualquier aplicación de la tecnología, los sistemas de inteligencia artificial opacos y transparentes tienen distintos usos y pueden implementarse en distintas configuraciones.
¿Qué es la inteligencia artificial opaca?
La inteligencia artificial opaca, también conocida como IA de caja negra, se refiere a los sistemas de inteligencia artificial que resuelven problemas y toman decisiones de acuerdo con entradas y operaciones que no se hacen visibles al público en general. Muchos sistemas de IA de caja negra funcionan en conjunción con redes neuronales y algoritmos de aprendizaje automático, ya que los desarrolladores de software entrenan estos sistemas a través de cantidades masivas de datos de entrenamiento, permitiéndoles gradualmente tomar decisiones a través del reconocimiento de patrones, características y similitudes dentro de los datos que se utilizaron para entrenar dichos sistemas. Algunos ejemplos comunes de IA de caja negra son los coches autoconducidos y los populares asistentes de voz como Alexa y Siri.
Gracias a los avances realizados en la última década en algoritmos de aprendizaje automático y redes neuronales, estas formas de inteligencia artificial son capaces de realizar tareas muy específicas con una precisión y eficacia increíbles. Por ejemplo, la noción misma de coches autoconducidos se limitaba al reino de la ciencia ficción hace sólo veinte años. Sin embargo, aunque estos algoritmos son extremadamente potentes e innovadores, puede ser muy difícil entender por qué un algoritmo ha tomado una decisión concreta o ha llegado a una solución determinada, incluso para los desarrolladores de software que han creado dichos algoritmos. Así, aunque el funcionamiento interno de un asistente de voz como Siri puede ser insignificante en el esquema general de las cosas, la IA de caja negra que se aplica de forma más amplia puede dar lugar a problemas morales y éticos.
Para ilustrar mejor este punto, consideremos un algoritmo de aprendizaje automático que se utiliza para conceder o denegar una solicitud de préstamo hipotecario. Dado que la decisión de aprobar o denegar un préstamo puede verse influida por un gran número de factores, como el salario, el historial crediticio, el historial de pagos y la antigüedad laboral de una persona, por nombrar solo algunos, los consumidores deben poder asegurarse de que los procesos que se utilizan para determinar su idoneidad para un préstamo son justos e imparciales. Sin embargo, un prestamista hipotecario que utilice un sistema de IA de caja negra para determinar la idoneidad de una persona para un préstamo tendría dificultades para explicar por qué un sistema tomó la decisión de aprobar o denegar el préstamo en cuestión, ya que los miles de millones de neuronas, parámetros y datos de entrenamiento que se utilizaron en la decisión en cuestión hacen que la transparencia sea, en el mejor de los casos, poco práctica.
Inteligencia artificial transparente
En el otro extremo del espectro, la IA transparente o basada en reglas se refiere a cualquier modelo o sistema que se basa puramente en reglas predeterminadas que han sido desarrolladas e implementadas por un ingeniero de software. En comparación con las redes neuronales y los algoritmos de aprendizaje automático, estos sistemas basados en reglas toman decisiones y llegan a soluciones de acuerdo con un conjunto rígido de reglas y hechos. Los desarrolladores de software crean este tipo de sistemas basándose en afirmaciones de codificación “si-entonces”, donde 1+1 siempre será igual a 2. Antes del desarrollo de las redes neuronales y los algoritmos de aprendizaje automático, así como de la complejidad computacional y la potencia necesarias para dar soporte a estos sistemas, la gran mayoría de la IA se creaba utilizando modelos basados en reglas.
Algunos ejemplos habituales de inteligencia artificial basada en reglas son la detección de fraudes, el análisis de fallos en ingeniería y el diagnóstico médico. Como estos ejemplos afectan a aspectos de la sociedad que son fundamentales para casi todos los ciudadanos, desde la asistencia sanitaria hasta los propios edificios en los que vivimos, los desarrolladores de software deben poder determinar fácilmente por qué y cómo estos sistemas han llegado a una decisión o solución concreta. Por ejemplo, si se utilizara un sistema de IA para diagnosticar un cáncer a una persona, ésta obviamente buscaría una explicación detallada y matizada de su proveedor de atención sanitaria sobre cómo se ha desarrollado el cáncer, a qué velocidad se está extendiendo y qué medidas deben tomarse a continuación, entre otros detalles relevantes.
Sin embargo, aunque los sistemas de IA basados en reglas proporcionan un mayor nivel de comprensión y transparencia al público en general en comparación con la IA de caja negra, estos sistemas son mucho más limitados en sus capacidades y ambiciones. Por ejemplo, muchas formas de IA basada en reglas funcionan esencialmente como formas más avanzadas de Automatización Robótica de Procesos o RPA, programas de software que se utilizan para automatizar tareas mundanas y tediosas. Como tales, aunque estos sistemas son muy fiables y consistentes, no se alinean con el desarrollo de la llamada inteligencia artificial general, sistemas de IA que pueden tomar decisiones similares a las humanas por sí mismos sin necesidad de orientación o interferencia humana.
A medida que la inteligencia artificial y los algoritmos de aprendizaje automático sigan evolucionando y alcanzando nuevas cotas, estos sistemas se implantarán sin duda en más aspectos de la vida humana y de la sociedad. Por ello, es imperativo que estos sistemas y modelos se creen desde un lugar de igualdad y justicia, ya que las decisiones y soluciones a las que lleguen estos sistemas y modelos podrían tener implicaciones y consecuencias a largo plazo para las personas de todo el mundo. Como todo el mundo tiene algún tipo de prejuicio, ya sea consciente o inconscientemente, es importante que los desarrolladores de software y los ingenieros tengan en cuenta los posibles defectos que podrían estar incrustados en los algoritmos que crean, independientemente de los avances tecnológicos o las hazañas que estos algoritmos puedan ser capaces de lograr.