jueves, 28 de marzo de 2013

GUERRA ACTUAL Y FUTURA Y LOS ROBOTS MILITARES, DRONES Y SISTEMAS DE ARMAS AUTÓNOMOS

En la segunda parte de la saga Terminator, la protagonista Sarah Connor y el robótico Arnold Swarzenegger quieren matar al científico que, en el futuro, creará la red Skynet con la que las máquinas se levantarán contra los humanos. Algo antes, en abril, una gran campaña busca prohibir el diseño y desarrollo de robots para la guerra, aunque aún no existen. Y esto último no es ninguna película.

Tras el neutro nombre de sistemas de armas autónomos se esconden robots programados para disparar sin intervención humana. Aún no existen armas así. Los 'drones', como el Predator que usa Estados Unidos en Afganistán, son operados desde bases estadounidenses como si fueran un videojuego.

Tanto Israel como Corea del Sur tienen máquinas en sus fronteras capaces de detectar un intruso, pero sólo disparan a la orden de un humano. Los expertos estiman que aún quedan 10 o 20 años para que veamos robots completamente autónomos en una guerra. Pero ya hay quien quiere acabar con ellos antes de que los construyan.

Un frente internacional contra los robots de la guerra

“Queremos conseguir un acuerdo internacional vinculante que prohíba el desarrollo y despliegue de sistemas de armas autónomos que una vez activados puedan seleccionar y acabar con objetivos sin una posterior intervención humana”, dice el profesor de inteligencia artificial y robótica de la Universidad de Sheffield, Noel Sharkey. El británico es también miembro del Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés). 

Esta organización lanzará una campaña en abril para que la sociedad civil, empezando por los ingenieros que trabajan en el campo de la robótica y acabando con los políticos, imponga la prohibición de los robots de la guerra. En este esfuerzo contarán con grupos tan significados como Pugwash, creada hace más de medio siglo por Bertrand Russell y Albert Einstein, espantados por la amenaza para la civilización que suponía el uso militar de una energía nuclear que ellos mismos habían animado.
La ong Human Rights Watch (HRW) coordinará la campaña Stop Killer Robots en todo el mundo. “Creemos que las decisiones sobre la vida y la muerte en el campo de batalla no las deben tomar robots letales armados”, sostiene el director de la división de armas de HRW, Steve Goose

“Si bien los avances en autonomía y robótica no son en sí mismos criticables, siempre debería haber una adecuada intervención humana. Un ser humano tendría que poder decidir a qué apuntar y cuándo disparar, no un robot”, añade.

Pero las objeciones a la robótica militar no son sólo éticas. Son fundamentalmente prácticas. Los militares de Estados Unidos, la principal potencia en estos sistemas autónomos, han asegurado en varias ocasiones que los humanos tendrán siempre la última palabra. 

La postura de Estados Unidos

En noviembre pasado, el Gobierno de Estados Unidos establecía una nueva directiva sobre estas armas en la que declaraba que los sistemas de armas autónomos “deberán diseñarse para permitir a los mandos u operadores ejercer el adecuado nivel de juicio humano sobre el uso de la fuerza”. También declara que los humanos que controlen las máquinas tendrán que cumplir con las leyes de la guerra y las normas de enfrentamiento.

“El principal problema es que los robots autónomos no pueden discriminar”, critica Sharkey. La tecnología disponible no les permitirá cumplir con el principio de discriminación, amparado por la Convención de Ginebra. “No cuentan con los adecuados sensores para separar combatientes de los civiles o reconocer a los que están heridos o a los que se han rendido”, añade.  
Tampoco parece probable que sepan lo que es el principio de proporcionalidad. “Por ejemplo, en cuanto a la munición usada cerca de una escuela donde había 200 niños, el 'software' puede estimar que sólo morirían 50 y no todos si se hubiera usado otro tipo de bomba”. Puede parecer un cálculo racional pero no parece una lógica muy humana.

Hay un tercer aspecto al que Sharkey da mucha importancia y es el de la responsabilidad. “Un robot no tiene capacidad legal, moral o de otro tipo y, por tanto, no puede ser responsable de sus acciones”, recuerda. Entonces, en caso de un fallo o un crimen de guerra, ¿quién es el responsable, el programador, el militar que lo opera o el político que autorizó su despliegue?

30.000 millones para diseñar robots

Uno de los grandes incentivos para el desarrollo de robots de la guerra es su promesa de una guerra limpia, al menos para quien los controla. Con su concurso, Estados Unidos puede que haya reducido el número de sus soldados muertos en combate. Y aquellas imágenes de aviones cargados de ataúdes cubiertos por la bandera de las barras y las estrellas hacían mucho daño a los gobernantes estadounidenses. Quizá por ello, ese país piensa dedicar mas de 30.000 millones de dólares a la investigación en estos sistemas hasta 2015.

Sin embargo, los robots autónomos pueden traer aún más guerra. “Reducen el umbral de conflicto llevando a los Gobiernos a creer que pueden acabar con sus enemigos sin arriesgarse a que sus propios soldados regresen a casa en una bolsa de plástico”, argumenta el filósofo australiano especializado en teoría de la guerra, Robert Sparrow

Este profesor de la universidad de Monash hizo el año pasado un llamamiento a los científicos e ingenieros para que no aceptaran dinero de origen militar en sus trabajos con robots.
Para Sparrow, los sistemas armados autónomos también pueden elevar el riesgo de una guerra por accidente o elevación del nivel de confrontación. Por el simple hecho de que los 'drones', por ejemplo, no llevan un piloto a bordo, pueden ser desplegados con mayor frecuencia y en posiciones más agresivas. 

“En el futuro veremos guerras que empezaron porque un dron disparó a otro o incluso un sistema de armas autónomo eligió atacar a otro sin ninguna intervención humana”, vaticina. 

La visión de Sparrow puede estar sesgada por su militancia, no en vano es uno de los fundadores del ICRAC. Pero no difiere mucho de un experto en guerra moderna como Peter Singer. El estadounidense, que ha asesorado al Senado de Estados Unidos, fue el primero en destacar el papel de las empresas privadas de defensa en Irak

En la web de su último libro, Wired for War: The Robotics Revolution and Conflict in the 21st Century, aparece una encuesta sobre si los robots harán más fácil que haya una guerra. El respondió que sí.

Sobre la campaña de abril contra los robots de la guerra, Singer reconoce que puede atraer la atención sobre el problema que se nos viene encima pero asegura: “desafortunadamente, la historia no me deja confiar demasiado en que tenga éxito. Tenemos un patrón, desarrollamos la tecnología y sólo después pensamos en sus consecuencias”.

No hay comentarios: