La IA y el futuro de la guerra

Estandarte de clases y cursos de IA de Jon AI, Stelio Inacio
de Stélio Inácio, fundador de Jon AI y especialista en IA

La IA y el futuro de la guerra

Pasamos ahora a la aplicación más aleccionadora y arriesgada de la inteligencia artificial: la guerra. La misma IA que puede escribir un poema o diagnosticar una enfermedad también puede usarse para guiar un misil o pilotar un dron. La integración de la IA en la tecnología militar no es un escenario hipotético y lejano; está ocurriendo ahora y está a punto de cambiar la naturaleza de los conflictos tan profundamente como la invención de la pólvora o la bomba atómica.

Esta «guerra algorítmica» introduce una velocidad, una escala y una autonomía sin precedentes en el campo de batalla. La IA se utiliza para analizar grandes cantidades de datos de inteligencia, mejorar la ciberseguridad y optimizar la logística. Pero la frontera con mayor carga ética es el desarrollo de sistemas de armas autónomas letales (LAWS), a menudo denominados «robots asesinos». Se trata de armas que pueden buscar, identificar, atacar y matar de forma independiente a seres humanos sin el control humano directo. Esta capacidad obliga a la humanidad a enfrentarse a un terrible precipicio moral y estratégico.

Un nuevo tipo de carrera armamentista

La búsqueda de armas impulsadas por la IA ha desencadenado una nueva carrera armamentista mundial. A diferencia de las carreras de armamentos nucleares del pasado, esta se libra con algoritmos y datos. El temor principal es que la increíble velocidad de los conflictos provocados por la IA pueda provocar una escalada accidental. Un escenario en el que los sistemas autónomos de bandos opuestos interactúen y agraven un conflicto en cuestión de segundos (más rápido de lo que podría intervenir un ser humano) es una posibilidad muy real y aterradora que podría provocar una catástrofe.

Los niveles de control humano

Un debate central en la IA militar gira en torno al papel del ser humano en la decisión de utilizar la fuerza letal. Esto suele dividirse en tres niveles de autonomía.

Nivel de autonomía Descripción Ejemplo
Human-in-the-Loop La IA puede seleccionar objetivos, pero un operador humano debe dar la orden final para atacar. El ser humano es una parte necesaria de la cadena de decisiones. Un dron militar identifica un objetivo potencial y envía los datos a un piloto humano que debe pulsar físicamente el botón para disparar.
¡Un ser humano al tanto La IA puede seleccionar y atacar objetivos por sí sola, pero un operador humano está presente para monitorear el sistema y puede intervenir o anular su decisión. Un sistema antimisiles defensivo está autorizado a derribar automáticamente los cohetes entrantes, pero una tripulación humana lo supervisa y puede abortar el proceso.
¡Un ser humano al tanto La IA funciona con total autonomía. Se despliega y toma toda la decisión de encontrar, rastrear y usar fuerza letal contra un objetivo sin intervención humana. Un dron «cazador-asesino» totalmente autónomo entra en una zona de combate con la orden de encontrar y destruir por sí solo todos los tanques enemigos que encuentre.

El dilema estratégico y ético de las armas autónomas

El debate sobre la elaboración de leyes es intenso y enfrenta las pretensiones de necesidad militar con las objeciones morales fundamentales.

Argumentos a favor del desarrollo

Los defensores sostienen que los sistemas autónomos podrían hacer que la guerra fuera más precisa y menos mortífera para sus propios soldados.

  • Protección de la fuerza: enviar máquinas autónomas a situaciones peligrosas mantiene a los soldados humanos alejados del peligro.
  • Velocidad y tiempo de reacción: en un conflicto dominado por los misiles hipersónicos y la guerra electrónica, es posible que los humanos reaccionen con demasiada lentitud para reaccionar con eficacia. La IA puede funcionar a la velocidad de una máquina.
  • Precisión: Se afirma que una IA bien programada podría ser más precisa que la de un soldado humano, lo que podría reducir las bajas civiles si se respetan estrictamente las normas de combate sin miedo ni emoción.
  • Disuasión: si tu adversario está desarrollando armas autónomas, tú debes hacer lo mismo para evitar una enorme desventaja estratégica.

Argumentos en contra del desarrollo

Los opositores, como la «Campaña para detener a los robots asesinos», sostienen que delegar las decisiones de vida o muerte en una máquina es una línea roja moral intolerable.

  • Responsabilidad moral: No se puede responsabilizar moralmente a una máquina por sus acciones. Delegar la decisión de matar elimina el albedrío moral humano del acto de matar.
  • El problema de la «caja negra»: estos sistemas pueden ser impredecibles. A menudo es imposible saber exactamente por qué una IA tomó una decisión determinada, lo que hace imposible la rendición de cuentas.
  • Falta de juicio humano: la IA carece de la capacidad humana única en cuanto al contexto, los matices y la compasión que se requieren en situaciones complejas en el campo de batalla.
  • Inestabilidad global: la proliferación de leyes reduciría el umbral para ir a la guerra y podría provocar una escalada rápida e incontrolable.

Comprobación rápida

¿Qué nivel de autonomía describe un sistema de armas que puede seleccionar y atacar un objetivo por sí solo, pero que cuenta con un supervisor humano que puede intervenir y abortar la misión?

Resumen: La IA y el futuro de la guerra

Lo que cubrimos:
  • La integración de la IA en la tecnología militar está creando una nueva era de «guerra algorítmica».
  • El desarrollo más controvertido son los sistemas de armas autónomas letales (LAWS), o «robots asesinos», que pueden funcionar sin el control humano directo.
  • El debate sobre las leyes se centra en el nivel de control humano, las implicaciones morales de delegar decisiones letales y los riesgos estratégicos de una carrera armamentista basada en la IA.
  • Uno de los principales temores es el riesgo de una escalada rápida e involuntaria provocada por la interacción de los sistemas autónomos a la velocidad de una máquina.

Por qué es importante:
  • Las decisiones que tomemos hoy sobre las armas autónomas tendrán profundas consecuencias para la seguridad mundial y el futuro de la humanidad. Esta es una de las conversaciones éticas más urgentes a las que nos enfrentamos.

El siguiente paso:
  • Examinaremos los marcos y leyes propuestos que se están desarrollando en todo el mundo para tratar de garantizar el mejor uso posible de la IA.