El Ejército de Estados Unidos ha anunciado recientemente que está desarrollando los primeros drones que pueden detectar y apuntar a vehículos y personas mediante inteligencia artificial (IA). Se trata de un gran paso adelante. Mientras que los actuales drones militares siguen siendo controlados por personas, esta nueva tecnología decidirá a quién matar sin apenas intervención humana.
Una vez completados, estos drones representarán la máxima militarización de la IA y desencadenarán vastas implicaciones legales y éticas para la sociedad en general. Existe la posibilidad de que la guerra pase de la lucha al exterminio, perdiendo cualquier atisbo de humanidad en el proceso. Al mismo tiempo, podría ampliar la esfera de la guerra de modo que las empresas, los ingenieros y los científicos que construyen la IA se conviertan en objetivos militares válidos.
Los actuales drones militares letales, como el MQ-9 Reaper, están cuidadosamente controlados y pilotados vía satélite. Si un piloto lanza una bomba o dispara un misil, un operador de sensores humano lo guía activamente hacia el objetivo elegido mediante un láser.
En última instancia, la tripulación tiene la responsabilidad ética, legal y operativa final de matar a los objetivos humanos designados. Como afirma un operador de Reaper:
“Soy de la opinión de que dejaría escapar a un insurgente, por muy importante que sea el objetivo, antes que hacer un disparo arriesgado que pueda matar a civiles”.
Incluso con estos asesinatos con drones, las emociones humanas, los juicios y la ética siempre han permanecido en el centro de la guerra. La existencia de traumas mentales y del trastorno de estrés postraumático (TEPT) entre los operadores de drones muestra el impacto psicológico de los asesinatos a distancia.
Y esto apunta en realidad a un posible argumento militar y ético de Ronald Arkin, en apoyo de los drones asesinos autónomos. Quizás si estos drones lanzan las bombas, se pueden evitar los problemas psicológicos entre los miembros de la tripulación.
El punto débil de este argumento es que no hace falta ser responsable de matar para quedar traumatizado por ello. Los especialistas en inteligencia y otros militares analizan regularmente las imágenes gráficas de los ataques con drones. Las investigaciones demuestran que es posible sufrir daños psicológicos por ver con frecuencia imágenes de violencia extrema.
En entrevistas del autor Peter Lee con más de 100 miembros de la tripulación del Reaper, cada uno de los entrevistados que realizaban ataques letales con drones creían que, en última instancia, debería ser un humano el que apretara el gatillo final. Si se elimina al ser humano, también se elimina la humanidad de la decisión de matar.
Graves consecuencias
La perspectiva de los drones totalmente autónomos alteraría radicalmente los complejos procesos y decisiones que hay detrás de los asesinatos militares. Pero la responsabilidad legal y ética no desaparece simplemente si se elimina la supervisión humana. Por el contrario, la responsabilidad recaerá cada vez más en otras personas, incluidos los científicos especializados en inteligencia artificial.
Las implicaciones legales de estos desarrollos ya se están haciendo evidentes. Según el derecho internacional humanitario actual, las instalaciones de “doble uso” -las que desarrollan productos para aplicaciones civiles y militares- pueden ser atacadas en las circunstancias adecuadas.
Por ejemplo, en la guerra de Kosovo de 1999, la refinería de petróleo de Pancevo fue atacada porque podía abastecer de combustible a los tanques yugoslavos y también a los coches civiles.
En el caso de un sistema de armamento autónomo para drones, es casi seguro que ciertas líneas de código informático se clasificarían como de doble uso. Empresas como Google, sus empleados o sus sistemas, podrían ser susceptibles de ser atacados por un estado enemigo. Por ejemplo, si el software de IA de reconocimiento de imágenes del Proyecto Maven de Google se incorpora a un dron autónomo del ejército estadounidense, Google podría verse implicada en el negocio de los “asesinatos” de drones, al igual que cualquier otro contribuyente civil a estos sistemas autónomos letales.
Desde el punto de vista ético, hay cuestiones aún más oscuras. El objetivo de los algoritmos de autoaprendizaje -programas que aprenden de forma independiente a partir de cualquier dato que puedan recoger- que utiliza la tecnología es que mejoren en cualquier tarea que se les encomiende.
Para que un dron autónomo y letal mejore en su trabajo a través del autoaprendizaje, alguien tendrá que decidir en qué fase de desarrollo aceptable -cuánto le queda por aprender- se puede desplegar. En el caso del aprendizaje automático militarizado, esto significa que los líderes políticos, militares e industriales tendrán que especificar cuántas muertes de civiles se considerarán aceptables a medida que se perfeccione la tecnología.
Las recientes experiencias de la IA autónoma en la sociedad deberían servir de advertencia. Los experimentos fatales de Uber y Tesla con coches autoconducidos sugieren que está prácticamente garantizado que habrá muertes involuntarias de drones autónomos a medida que se solucionen los errores informáticos.
Si se deja que las máquinas decidan quién muere, especialmente a gran escala, lo que estamos presenciando es un exterminio. Cualquier gobierno o ejército que desencadene tales fuerzas violaría los valores que dice defender. En comparación, un piloto de avión no tripulado que se enfrenta a la decisión de “matar o no matar” se convierte en el último vestigio de humanidad en el negocio, a menudo inhumano, de la guerra.