El peligroso camino de la Inteligencia Artificial: armas autónomas

La agencia de noticias PRESSENZA brinda un análisis de Javiel Tolcachier sobre los sistemas de armas letales autónomas o “LAWS”, por sus siglas en inglés. Recomendamos visitar la página y mirar los videos de la campaña StopKillerRobots.

Reseñamos el artículo de la agencia PRESSENZA:


El desarrollo de la Inteligencia Artificial (A.I. por sus siglas en inglés) cursa por un sendero peligroso. La promesa de la simplificación de labores humanas y de procesos complejos esconde el desarrollo de esta tecnología para fines bélicos. En diversos países, principalmente en Estados Unidos, China y Francia, se están diseñando sistemas de armas automatizadas, es decir, drones con la capacidad de discernir y atacar un objetivo sin ser manipulado por un ser humano. Esto ha desatado una nueva carrera armamentista en el que ningún país industrializado quiere quedar “en desventaja frente a sus aliados”.


En Estados Unidos se prevé que el gasto en la investigación y emplazamiento de esta tecnología será de 18 mil millones de dólares entre 2016 y 2020, una suma equivalente al gasto del Proyecto Manhattan para producir la bomba atómica (23 mil millones de dólares1). Asimismo, China está construyendo un parque industrial exclusivamente para la producción de Inteligencia Artificial y ha anunciado sus aspiraciones bélicas con dicha tecnología. No obstante, la lista no se limita a Estados Unidos y China: Alemania, Cora del Sur, Rusia, Israel, India, Francia, Gran Bretaña e Israel están desarrollando y produciendo sistemas autónomos armados.


El emplazamiento de la Inteligencia Artificial ya no es sueño futurista de las novelas de ciencia ficción. Aunque aún es limitado el campo de aprendizaje de cada A.I., como por ejemplo un juego de ajedrez, reconocimiento facial o especulación en la bolsa de valores, es suficiente para automatizar un robot para asesinar a una persona o a un conjunto de personas con rasgos específicos. El usuario de esta tecnología sólo tendría que establecer los parámetros de su “enemigo” o de un comportamiento “hostil”, el algoritmo podría detectar estas características e incluso cotejar con bases de datos masivas en Internet o en manos de algún gobierno.


Sin embargo, la intención de producir esta tecnología no es únicamente bélica, las empresas implicadas en el desarrollo y emplazamiento de los sistemas autónomos armados regocijan ya sus millonarias ganancias, patrocinadas con el erario público de diversos países. Esta tecnología, a diferencia de sus contrapartes más ‘masivas’ —como las bombas atómicas, las bombas de destrucción masiva, entre otras—, tienen una frontera con el consumo “civil” más desdibujada. Sería relativamente sencillo producir como conseguir los algoritmos, las piezas o el instrumento mismo para automatizarlo y convertirlo en un arma que cualquier civil pueda usar contra otros. Basta con ver los casos de las matanzas en Estados Unidos a manos de civiles que adquirieron rifles automáticos.


Existen campañas que abogan por la prohibición de todo desarrollo, producción y uso de sistemas autónomos. La campaña StopKillerRobots señala que de ser emplazada esta tecnología “erosiona la obligación fundamental que rige la Ley Humanitaria Internacional (IHL) y atenta contra los derechos humanos establecidos.”; ofusca la responsabilidad de una atrocidad, desdibuja fronteras éticas y promueve el diseño y desarrollo de las futuras tecnologías para fines bélicos.


Visitar la página para leer el texto completo:
https://www.pressenza.com/es/2018/04/comienza-en-ginebra-quinta-ronda-co...