El desarrollo de la IA, impulsado por las pandemias

El desarrollo de la IA, impulsado por las pandemias

Inteligencia artificial y COVID19

COVID19, también conocido como coronavirus, se ha convertido recientemente en una amenaza mundial. La enfermedad no tiene cura, ni tratamientos, ni medios para controlarla, aparte del aislamiento, el distanciamiento social, las mascarillas y el lavado de manos. Una forma de tecnología que ha demostrado su capacidad para rastrear, seguir y ayudar a prevenir la propagación del virus es la inteligencia artificial o IA.

Los sistemas de IA ya se utilizaban como herramienta para ayudar a predecir y prevenir la propagación de virus en la comunidad sanitaria. Fue un sistema basado en IA el que descubrió por primera vez una forma desconocida de neumonía que se estaba extendiendo por Wuhan (China), dando a entender que una epidemia estaba en sus inicios. Los profesionales de la salud que tuvieron acceso a esta información fueron el sistema de alerta temprana que llevó al mundo a comprender que algo iba mal, que efectivamente había una nueva cepa vírica que amenazaba y crecía en todo el planeta.

La inteligencia artificial utiliza algoritmos de aprendizaje automático y minería de datos automatizada para revisar conjuntos de datos a gran escala y extraer cualquier patrón detectado para su posterior inspección. Los sistemas de IA pueden agregar y agrupar información procedente de diversas fuentes, como Internet, comunicados de prensa, redes sociales y sitios web gubernamentales. Estos sistemas inteligentes pueden formar patrones de datos correspondientes, determinando cuándo empiezan a formarse conjuntos de datos generalizados. Puede tratarse de cualquier cosa, una infección vírica o un exceso de existencias de caramelos Reese. Puede ser prácticamente cualquier cosa que pueda organizarse, numerarse y contarse. Esta determinación incluye también a las personas, sus datos, su información personal y sus estadísticas sanitarias. ¿En qué momento la agregación de todos estos datos se convierte en una fuente de violación de la intimidad?

Problemas de privacidad con el seguimiento exhaustivo de datos

Aunque usted no sea consciente de ello, sus acciones están sometidas a un escrutinio constante. Tanto los gobiernos como las empresas privadas ya han implantado sistemas de vigilancia pública que incluyen características biométricas como tecnologías de reconocimiento facial. Estos sistemas se incorporan a otros sistemas de vigilancia basados en la IA. Los días predichos del libro 1984, ya están sobre nosotros.

En algunos países, los sistemas de transporte público están siendo equipados con nuevos sistemas de imagen térmica, que toman la temperatura corporal de cada persona que entra o utiliza el sistema. Ese mismo sistema no sólo introduce su temperatura, sino que también coteja sus datos de reconocimiento facial, añadiendo información a su archivo de datos ya repleto de estadísticas sobre usted, salud, educación, residencia y afiliaciones políticas.

Con el susto del COVID19, los estadounidenses están haciendo la vista gorda ante la violación de sus libertades civiles, ya que las empresas estadounidenses están instalando sistemas similares en zonas públicas. Estos sistemas también vigilan el distanciamiento social de los ciudadanos, rastrean sus datos con reconocimiento facial y detallan con quién se le ve. También puede tomar nota del porcentaje de individuos de una zona determinada que llevan máscaras. Aunque las máscaras proporcionan cierta cobertura y perturban en cierta medida el reconocimiento facial, no se engañe pensando que una máscara significa que no se puede determinar su identidad. Algunas tecnologías de reconocimiento facial pueden establecer su identidad incluso con una máscara. Otras tecnologías de IA pueden agregar datos de fuentes externas y llegar a una determinación aproximada, si no exacta, de quién lleva la máscara. Ya no estás a salvo en ningún sitio.

Las autoridades han determinado que las aplicaciones de seguimiento y localización de datos son una herramienta útil para frenar la propagación del virus. Los estadounidenses tardan en utilizarlas. Temen que se viole su intimidad y se abuse de ella. Los estadounidenses no están acostumbrados a una sociedad en la que se rastrean todos sus movimientos y se detalla a las personas con las que entran en contacto. Deberían alarmarse.

Estas aplicaciones utilizan las tecnologías GPS y Bluetooth para agregar datos sobre el individuo, su paradero junto con el de todos aquellos que se acerquen a menos de 10-12 pies, a medida que el Bluetooth de su móvil se registra contra el suyo. Si bien es cierto que podrías estar caminando junto a un desconocido, la recopilación de datos seguirá la pista y acabará viendo el patrón de quién es, ya sabes, quiénes son tus amigos y conocidos. ¿Es esto una violación de las libertades civiles de los estadounidenses? Renunciar a las libertades a cambio de seguridad es algo contra lo que se viene advirtiendo desde la fundación de nuestro país.

Los gobiernos prometen que el uso de estas aplicaciones es seguro. Sin embargo, ya se ha descubierto que grandes empresas como Apple y Google, que se unieron para crear una aplicación de rastreo, están haciendo un uso indebido de los datos recopilados. A través de una agencia externa, han descubierto que dentro de unas líneas de código, los datos recogidos se están vendiendo a múltiples terceros para abusar de los consumidores.

Normas éticas: ¿se las cree?

El uso de la IA en el sector sanitario no ha alcanzado los avances tecnológicos de otros usos comerciales de la tecnología. A la luz de COVID19, se están creando más aplicaciones que utilizan esta forma avanzada de inteligencia artificial y que están siendo utilizadas por el personal sanitario y el público en general.

Para que la IA siga siendo un producto de confianza en el que el público se plantee utilizar, invertir y participar, tendrá que haber un conjunto de principios rectores o éticos que impidan el abuso de cualquier sistema de IA. Los Principios de Asilomar son un conjunto de políticas o directrices utilizadas para gestionar la ética de la IA. Estas directrices se crearon en 2017 en la Conferencia Asilomar sobre IA Beneficiosa. La conferencia, celebrada en Pacific Grove, California, fue organizada por el Future of Life Institute.

El Future of Life Institute es una organización sin ánimo de lucro cuya principal declaración de principios es “catalizar y apoyar la investigación y las iniciativas para salvaguardar la vida y desarrollar visiones optimistas del futuro, incluyendo formas positivas para que la humanidad dirija su rumbo teniendo en cuenta las nuevas tecnologías y retos”. El conjunto de 23 principios bien desarrollados garantiza que la IA no se utilice de forma que perjudique a la humanidad. Un ejemplo sería una carrera armamentística de armas autónomas letales, que podría desembocar en guerras catastróficas. Muchos desarrolladores de IA se han comprometido a respetar estos principios. Siguiendo estas directrices, la humanidad puede trabajar para aprovechar la fuerza de la IA en beneficio de todos y evitar su uso indebido por parte de entidades poderosas contra los ciudadanos.

Como ciudadanos, debemos preguntarnos por las empresas que siguen abusando de la IA contra las personas. Un ejemplo de abuso reciente por parte de Google y Apple en su aplicación SafeTrace, que fue aprobada por los gobernadores estatales para que los ciudadanos la utilizaran como COVID19 aplicaciones telefónicas de seguimiento y localización, debería causar alarma. Que el gobierno y las corporaciones trabajen juntos para violar nuestras libertades civiles fundamentales crea la necesidad, ahora más que nunca, de separar la influencia del dinero corporativo en nuestro gobierno. También debería hacer que los estadounidenses comprendieran que hoy, más que nunca, necesitarán estar al tanto de las nuevas tecnologías a medida que se presenten. Cuando las empresas abusan de su poder, los estadounidenses aún tienen opciones. No gasten su dinero en esas empresas ni utilicen sus servicios. O entienden que tienen que poner en orden sus prioridades o quebrarán. Está en nuestras manos.

Cuestiones de investigación

  1. Objetivo de la investigación: el objetivo de la investigación en IA debe ser crear inteligencia beneficiosa, no inteligencia no dirigida.
  2. Financiación de la investigación: Cuando se invierta en el desarrollo de la IA, debería incluirse la financiación de la investigación en áreas que aborden su uso beneficioso y otras cuestiones éticas y morales.
  3. Vínculo ciencia-política: Los investigadores de IA y los legisladores deben mantener intercambios constructivos para crear políticas tecnológicas.
  4. Cultura de investigación: Los investigadores y los desarrolladores de IA deben compartir una cultura de cooperación, confianza y transparencia.
  5. Evitar la carrera: Los desarrolladores no deben considerar la IA como una carrera hasta el final, sino cooperar y evitar tomar atajos que puedan obstaculizar las medidas de seguridad.

Ética y valores

  1. Seguridad: Los sistemas de IA deben poder funcionar de forma fiable durante toda su vida útil. La fiabilidad debe verificarse cuando sea aplicable y factible.
  2. Transparencia de los fallos: Si se determina que un sistema de IA puede causar daños, debe ser totalmente transparente para que pueda ser estudiado para determinar las razones que lo provocaron.
  3. Transparencia judicial: Si la IA interviene en la toma de decisiones judiciales, también debe ser capaz de dar a conocer los motivos de la decisión tomada y ser auditable por intervención humana.
  4. Responsabilidad: Comprender que, como diseñadores y constructores de sistemas avanzados de IA, los creadores son partes interesadas esenciales en cualquier posible uso indebido. Esta previsión requiere previsión en la construcción para dar forma a una seguridad responsable e implicaciones positivas.
  5. Alineación de valores: Los diseñadores de sistemas de IA altamente autónomos deben procurar que sus objetivos y comportamientos estén alineados con los valores humanos y perduren a lo largo de su vida operativa.
  6. Valores humanos: Los sistemas de IA deben estar diseñados para seguir la moral y los valores humanos éticos compatibles con las ideas de dignidad humana, derechos, libertad y diversidad cultural.
  7. Privacidad personal: Con el poder de la IA para analizar y utilizar datos, las personas deben poder acceder, gestionar y controlar los datos generados.
  8. Libertad y privacidad: Cuando la IA se aplica a datos personales, debe hacerse de tal manera que no recorte las libertades individuales o los derechos civiles reales o percibidos de las personas.
  9. Beneficio compartido: Las ventajas tecnológicas de la IA deben beneficiar y capacitar a todas las personas por igual.
  10. Prosperidad compartida: Cuando la IA crea prosperidad económica, ésta debe compartirse en beneficio de toda la humanidad.
  11. Control humano: La toma de decisiones debe ser siempre humana. Los humanos eligen cuándo y cómo delegar la toma de decisiones en la IA y sólo para lograr los objetivos elegidos por los humanos.
  12. No subversión: El poder otorgado por el control de sistemas de IA altamente avanzados debe observar y mejorar, en lugar de subvertir, los procesos sociales y cívicos en los que se basa la sociedad.
  13. Carrera armamentística de la IA: Nunca debemos crear una carrera armamentística en la que creemos armas autónomas letales. Debe evitarse.

Cuestiones a largo plazo

  1. Precaución sobre las capacidades: Dado que no existe una respuesta conocida, debemos evitar predecir límites a la naturaleza autónoma de la IA.
  2. Importancia: Los sistemas avanzados de IA pueden crear cambios profundos en la Tierra. Sabiendo esto, deberíamos emplear gran cuidado y recursos para planificar y gestionar tales modificaciones impactantes en la historia de nuestro planeta y de nuestra gente.
  3. Riesgos: La IA presenta riesgos catastróficos y existenciales; los diseñadores deben planificar y realizar esfuerzos de mitigación acordes con el impacto esperado.
  4. Automejora recursiva: Ciertos sistemas de IA están diseñados para autorreplicarse y automejorarse; éstos deben someterse a estrictas normas de seguridad y control.
  5. Bien común: La superinteligencia sólo debe desarrollarse por el bien de toda la humanidad, no en beneficio de un único individuo, corporación o nación, y debe compartir ideas éticamente sólidas similares.

Ética en la inteligencia artificial

La inteligencia artificial, combinada con el aprendizaje automático, es la tecnología transformadora de hoy y del futuro. Será capaz de conducir nuestros coches, gestionar nuestros servicios públicos, hacerse cargo de nuestro trabajo manual, incluso aprender a discriminar a las personas, crear y librar guerras y, posiblemente, destruir la humanidad. En definitiva, es más que un ataque a nuestra privacidad: es un ataque a la raza humana. Aunque la IA tiene muchas ventajas, ¿cómo podemos controlar las capacidades de lo que hemos creado?

Este tipo de preguntas ha llevado a algunos de los principales líderes del pensamiento tecnológico a pasar de las funciones de la IA a las consideraciones éticas de la misma. Estas formas de tecnología altamente inteligente y de autoaprendizaje tienen consecuencias poderosas y potencialmente desafiantes para la vida de todo el planeta.

La preocupación de la mayoría de la gente con respecto a la IA, al margen de la privacidad, es la idea de que la tecnología avanzada ocupará puestos de trabajo. De hecho, la transformación digital ya está eliminando categorías enteras de empleo, haciendo que esos puestos queden obsoletos para los humanos. La transformación de la mano de obra no significa el fin del trabajo disponible; es un cambio. Los humanos tendrán que aprender nuevas habilidades para emplearse en otros puestos, y la IA creará de hecho nuevas y apasionantes oportunidades de trabajo. Es probable que el número de empleos creados supere al número de puestos que serán superados. Es una buena noticia.

Actualmente hay una oleada de problemas éticos con las aplicaciones de la IA, que continuarán en el futuro. Un ejemplo de ello es la lucha contra la desinformación. Tecnologías muy avanzadas pueden ahora imitar y crear imágenes, vídeos y conversaciones falsas. En una época en la que la desinformación se utiliza como arma contra el público, ¿cómo se supone que el ciudadano de a pie puede comprender si lo que ve u oye es real o se trata de un bot? Incluso las aplicaciones sanitarias, incluidas las que utilizan servicios de asesoramiento basados en texto, no tienen ni idea de si están recibiendo asistencia de un ser humano real o de un programa de IA muy avanzado. ¿Le incomoda esto?

Está claro que hay que centrarse en la ética de la tecnología. Como seres humanos, tenemos que pensar en cómo controlar los sistemas basados en IA y cómo mantenerlos dentro de unos límites. Cuando la IA presenta desinformación o realiza tareas de datos fuera de sus límites prescritos, tanto los gobiernos como las empresas deben empezar a reaccionar ante ellas como amenazas a la ciberseguridad. Eso es lo que son las disfunciones: amenazas. Si estas entidades no se toman en serio estas amenazas y protegen al público de los abusos de la privacidad y las violaciones de los delitos informáticos, son tan maliciosas como la IA fuera de control que está causando la amenaza.

Related Reads