En la segunda parte de la saga Terminator, la protagonista Sarah Connor y el robótico Arnold Swarzenegger quieren matar al científico que, en el futuro, creará la red Skynet
con la que las máquinas se levantarán contra los humanos. Algo antes,
en abril, una gran campaña busca prohibir el diseño y desarrollo de
robots para la guerra, aunque aún no existen. Y esto último no es
ninguna película.
Tras el neutro nombre de sistemas de armas autónomos se esconden robots programados para disparar sin intervención humana. Aún no existen armas así. Los 'drones', como el Predator que usa Estados Unidos en Afganistán, son operados desde bases estadounidenses como si fueran un videojuego.
Tanto Israel como Corea del Sur
tienen máquinas en sus fronteras capaces de detectar un intruso, pero
sólo disparan a la orden de un humano. Los expertos estiman que aún
quedan 10 o 20 años para que veamos robots completamente autónomos en
una guerra. Pero ya hay quien quiere acabar con ellos antes de que los
construyan.
Un frente internacional contra los robots de la guerra
“Queremos
conseguir un acuerdo internacional vinculante que prohíba el desarrollo
y despliegue de sistemas de armas autónomos que una vez activados
puedan seleccionar y acabar con objetivos sin una posterior intervención
humana”, dice el profesor de inteligencia artificial y robótica de la
Universidad de Sheffield, Noel Sharkey. El británico es también miembro del Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés).
Esta
organización lanzará una campaña en abril para que la sociedad civil,
empezando por los ingenieros que trabajan en el campo de la robótica y
acabando con los políticos, imponga la prohibición de los robots de la
guerra. En este esfuerzo contarán con grupos tan significados como Pugwash, creada hace más de medio siglo por Bertrand Russell y Albert Einstein,
espantados por la amenaza para la civilización que suponía el uso
militar de una energía nuclear que ellos mismos habían animado.
La ong Human Rights Watch (HRW) coordinará la campaña Stop Killer Robots
en todo el mundo. “Creemos que las decisiones sobre la vida y la muerte
en el campo de batalla no las deben tomar robots letales armados”,
sostiene el director de la división de armas de HRW, Steve Goose.
“Si
bien los avances en autonomía y robótica no son en sí mismos
criticables, siempre debería haber una adecuada intervención humana. Un
ser humano tendría que poder decidir a qué apuntar y cuándo disparar, no
un robot”, añade.
Pero las
objeciones a la robótica militar no son sólo éticas. Son
fundamentalmente prácticas. Los militares de Estados Unidos, la
principal potencia en estos sistemas autónomos, han asegurado en varias
ocasiones que los humanos tendrán siempre la última palabra.
La postura de Estados Unidos
En noviembre pasado, el Gobierno de Estados Unidos establecía una nueva directiva
sobre estas armas en la que declaraba que los sistemas de armas
autónomos “deberán diseñarse para permitir a los mandos u operadores
ejercer el adecuado nivel de juicio humano sobre el uso de la fuerza”.
También declara que los humanos que controlen las máquinas tendrán que
cumplir con las leyes de la guerra y las normas de enfrentamiento.
“El
principal problema es que los robots autónomos no pueden discriminar”,
critica Sharkey. La tecnología disponible no les permitirá cumplir con
el principio de discriminación, amparado por la Convención de Ginebra.
“No cuentan con los adecuados sensores para separar combatientes de los
civiles o reconocer a los que están heridos o a los que se han
rendido”, añade.
Tampoco
parece probable que sepan lo que es el principio de proporcionalidad.
“Por ejemplo, en cuanto a la munición usada cerca de una escuela donde
había 200 niños, el 'software' puede estimar que sólo morirían 50 y no
todos si se hubiera usado otro tipo de bomba”. Puede parecer un cálculo
racional pero no parece una lógica muy humana.
Hay un tercer aspecto al que Sharkey da
mucha importancia y es el de la responsabilidad. “Un robot no tiene
capacidad legal, moral o de otro tipo y, por tanto, no puede ser
responsable de sus acciones”, recuerda. Entonces, en caso de un fallo o
un crimen de guerra, ¿quién es el responsable, el programador, el
militar que lo opera o el político que autorizó su despliegue?
30.000 millones para diseñar robots
Uno
de los grandes incentivos para el desarrollo de robots de la guerra es
su promesa de una guerra limpia, al menos para quien los controla. Con
su concurso, Estados Unidos puede que haya reducido el número de sus soldados muertos en combate.
Y aquellas imágenes de aviones cargados de ataúdes cubiertos por la
bandera de las barras y las estrellas hacían mucho daño a los
gobernantes estadounidenses. Quizá por ello, ese país piensa dedicar mas
de 30.000 millones de dólares a la investigación en estos sistemas hasta 2015.
Sin
embargo, los robots autónomos pueden traer aún más guerra. “Reducen el
umbral de conflicto llevando a los Gobiernos a creer que pueden acabar
con sus enemigos sin arriesgarse a que sus propios soldados regresen a
casa en una bolsa de plástico”, argumenta el filósofo australiano
especializado en teoría de la guerra, Robert Sparrow.
Este
profesor de la universidad de Monash hizo el año pasado un llamamiento a
los científicos e ingenieros para que no aceptaran dinero de origen
militar en sus trabajos con robots.
Para
Sparrow, los sistemas armados autónomos también pueden elevar el riesgo
de una guerra por accidente o elevación del nivel de confrontación. Por
el simple hecho de que los 'drones', por ejemplo, no llevan un piloto a bordo, pueden ser desplegados con mayor frecuencia y en posiciones más agresivas.
“En
el futuro veremos guerras que empezaron porque un dron disparó a otro o
incluso un sistema de armas autónomo eligió atacar a otro sin ninguna
intervención humana”, vaticina.
La visión de Sparrow puede estar sesgada por su militancia, no en vano es uno de los fundadores del ICRAC. Pero no difiere mucho de un experto en guerra moderna como Peter Singer. El estadounidense, que ha asesorado al Senado de Estados Unidos, fue el primero en destacar el papel de las empresas privadas de defensa en Irak.
En la web de su último libro, Wired for War: The Robotics Revolution and Conflict in the 21st Century, aparece una encuesta sobre si los robots harán más fácil que haya una guerra. El respondió que sí.
Sobre
la campaña de abril contra los robots de la guerra, Singer reconoce que
puede atraer la atención sobre el problema que se nos viene encima pero
asegura: “desafortunadamente, la historia no me deja confiar demasiado
en que tenga éxito. Tenemos un patrón, desarrollamos la tecnología y sólo después pensamos en sus consecuencias”.
No hay comentarios:
Publicar un comentario