Robots asesinos de IA: El dilema ético de los gobiernos ante los sistemas de armas autónomas letales

Fiabilidad

El profesor Dave Waters tenía razón cuando dijo: “Los beneficios potenciales de la inteligencia artificial son enormes, pero también lo son sus peligros”.

Un digno aspirante al primer puesto de la lista de IA peligrosas son los sistemas de armas autónomas letales (LAWS).

También conocidos como robots asesinos, estas armas de IA “utilizan conjuntos de sensores y algoritmos informáticos para identificar de forma independiente un objetivo y emplear un sistema de armas a bordo para atacar y destruir el objetivo sin control humano manual del sistema”.

La realidad es que los robots asesinos no son una amenaza lejana. Según se informa, Estados Unidos ha realizado una importante inversión en drones de IA de la Fuerza Aérea, y hay amplios ejemplos del uso de esta tecnología en el conflicto entre Rusia y Ucrania, así como en Oriente Próximo.

Estas armas de IA no requieren que un ser humano apriete el gatillo, ni siquiera que participe en el proceso de toma de decisiones que conduce a la muerte.

Alerta roja.

El concepto de autonomía “humana fuera del bucle” es un campo de minas ético y, dado que no se ha planteado una prohibición rotunda, el mundo se pregunta qué van a hacer las potencias gobernantes ante la amenaza de las armas de IA.

Puntos clave

  • Los LAWS no requieren la intervención humana para funcionar.
  • El sesgo algorítmico y la imprecisión del sistema en los LAWS pueden provocar resultados catastróficos.
  • La Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía no es jurídicamente vinculante y se basa en limitaciones voluntarias.
  • La Conferencia de Viena sobre Sistemas de Armas Autónomas y el Desafío de la Regulación instó a la restricción legal de las armas de IA.

El pánico moral que rodea a los robots asesinos

En 2019, el Secretario General de la ONU, António Guterres, declaró que la IA es “políticamente inaceptable, moralmente repugnante y debería estar prohibida por el derecho internacional”.

Aunque esto no se ha hecho realidad, muchos comparten la convicción de Guterres de que la IA en la guerra es moralmente indefendible.

Pero, ¿cuáles son los riesgos de las armas autónomas?

La IA es bien conocida por cometer errores, pero cuando se trata de robots asesinos, los fallos de funcionamiento podrían ser catastróficos. Imagina que el infame sesgo algorítmico de la IA condujera a una discriminación de consecuencias mortales.

Esta es una de las principales preocupaciones de Bonnie Docherty, profesora de la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard. Dijo en una entrevista a la Gaceta de Harvard:

“Hay muchas pruebas de que la inteligencia artificial puede ser tendenciosa. En la comunidad de derechos humanos nos preocupa mucho que esto se utilice en máquinas diseñadas para matar”.

Otra preocupación constante es que se confunda a civiles con combatientes. La declaración de 2013, “Llamamiento de los científicos para prohibir los robots letales autónomos”, comunicaba sus dudas de que la IA pudiera obtener alguna vez “la funcionalidad necesaria para la identificación precisa de objetivos” para no causar elevados niveles de daños colaterales.

También hay otros que sostienen que “las armas asistidas por IA podrían ser más precisas que las guiadas por humanos, reduciendo potencialmente tanto los daños colaterales… como el número de soldados muertos y mutilados”.

Incluso después de una década de avances en este campo, sigue sin haber garantías de que las LAWS no dañen a los civiles, e incluso si las hubiera, eso no resolvería la tensión ética general de permitir que los algoritmos tomen decisiones de vida o muerte.

 

La Humanidad en una Encrucijada: El Desafío de la Regulación de los Sistemas de Armas Autónomos

Las perspectivas enfrentadas sobre los pros y los contras de las LAWS se extienden a la forma en que las distintas naciones creen que deberían regularse.

En marzo de 2024, el Departamento de Estado de EE.UU. organizó una asamblea en la Universidad de Maryland para debatir la adopción de restricciones voluntarias, como se indica en la Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía.

52 países han firmado la declaración, pero como han expresado acertadamente los críticos, el documento no es jurídicamente vinculante y no emite ninguna amenaza de sanción si los firmantes no lo cumplen.

En contraste con los humildes 150 participantes que asistieron a la sesión plenaria de EE.UU., la Conferencia de Viena sobre Sistemas de Armas Autónomas y el Desafío de la Regulación, que tuvo lugar en abril de 2024, reunió a unos 1.000 participantes de más de 140 países.

Sin embargo, no fue sólo el tamaño lo que diferenció a estas dos asambleas. Los debates de Viena fueron notablemente distópicos e instaron a imponer restricciones legales a las armas de IA.

El ministro austriaco de Asuntos Exteriores, Alexander Schallenberg, abrió la conferencia con una comparación escalofriante: “Creo que éste es el momento Oppenheimer de nuestra generación“.

La perspectiva de eliminar a los seres humanos de los procesos de vida o muerte de la guerra llenó a Schallenberg de un sentimiento de urgencia.

“Ahora es el momento de acordar reglas y normas internacionales que garanticen el control humano. Al menos, asegurémonos de que la decisión más profunda y trascendental: quién vive y quién muere sigue en manos de humanos y no de máquinas”.

Gran parte del debate se centró en la responsabilidad. ¿Quién puede ser considerado responsable si los humanos ya no aprietan el gatillo?

Dijo la presidenta del Comité Internacional de la Cruz Roja, Mirjana Spoljaric Egger:

“Ya no podemos garantizar el cumplimiento del derecho internacional humanitario si no hay control humano sobre el uso de estas armas”.

Aunque la rendición de cuentas es sin duda una consideración clave, también se planteó como una señal de alarma la facilidad de convertir en armas la IA en comparación con, por ejemplo, el uso de arsenales nucleares.

Schallenberg predijo que “probablemente acabará muy pronto en manos de actores no gubernamentales o grupos terroristas”.

El programador estonio Jaan Tallinn también advirtió que una vez que las LAWS “sean capaces de distinguir perfectamente entre los seres humanos, facilitarán considerablemente la realización de genocidios y los asesinatos selectivos que busquen características humanas específicas”.

No se escatimaron esfuerzos para describir vívidamente los horrores potenciales que podrían perpetrar los robots asesinos.

Sin embargo, Tallin añadió una nota de optimismo: “Hemos actuado de forma preventiva al prohibir las armas láser cegadoras, por no hablar de las restricciones a las armas biológicas, químicas y nucleares”.

Esto puede servir como señal esperanzadora de que las medidas preventivas son posibles, pero la necesidad de actuar con rapidez y hacer cumplir la normativa es primordial.

Para remachar la cuestión, el debate terminó de la misma manera que había empezado, con otra aterradora comparación de Schallenberg:

“Todos conocemos las películas: Terminator, Matrix y como se llamen. No queremos robots asesinos”.

Lo esencial

Casi mil años después de que San Agustín avanzara su Teoría de la Guerra Justa, Tomás de Aquino desarrolló unos criterios exhaustivos de lo que constituía una guerra justa. Entre otros puntos, afirmó que el uso de la fuerza debe distinguir entre milicia y civiles. Esto ha llegado a conocerse como el principio de discriminación en la ética militar moderna.

Es este principio el que protege a los civiles, y es este principio el que LAWS amenaza potencialmente.

Muchos declaran que la vida humana no concierne a la IA mortífera, mientras que otros sostienen que los robots asesinos podrían ser más éticos que sus homólogos humanos. Independientemente de cuál sea tu postura al respecto, todos estamos de acuerdo en que las LAWS requieren una regulación estricta.

Todos podemos hacernos eco de las palabras de Schallenberg: “No queremos robots asesinos”.

Preguntas frecuentes

¿Son legales los robots asesinos?

¿Cuál es un ejemplo de IA armada?

¿Qué países disponen de armas autónomas letales?

¿Cuáles son los ejemplos de sistemas de armas autónomos?

¿Qué tipo de normas y reglamentos internacionales existen actualmente para las armas autónomas?

Temas relacionados

Artículos relacionados

Sam Cooling
Crypto and Blockchain Writer
Sam Cooling
Editor

Sam es un periodista de tecnología con un enfoque en noticias del mercado de criptomonedas e inteligencia artificial, con sede en Londres. Su trabajo ha sido publicado en Yahoo News, Yahoo Finance, Coin Rivet, CryptoNews.com, Business2Community y Techopedia. Con una Maestría en Gestión del Desarrollo de la London School of Economics, Sam ha trabajado previamente como Consultor de Tecnología de Datos para la Fundación Fairtrade y como Investigador Asociado Junior para la Academia de Defensa del Reino Unido. Ha estado operando activamente con criptomonedas desde 2020, contribuyendo de manera activa a proyectos como Fetch.ai y Landshare.io. La pasión de Sam…