La inteligencia artificial y la preparación para la guerra

0

19/12/2017 – Laura Fernández de Mosteyrín (Universidad a Distancia de Madrid, UDIMA)

Hace un par de semanas recibí a través de un grupo de whastap un vídeo con el que también me había cruzado en twitter. En él se presenta, con un enfoque comercial,  el potencial para matar de un pequeño dron exactamente igual al que podrían pedir nuestras hijas e hijos a los Reyes Magos.

Me sobrecogió y, además de desvelarme un acrítico afán ‘reenviatorio’, me provocó dos reflexiones inmediatas.

Primero pensé: “qué bien y con qué poco sonrojo se venden instrumentos de matar”, seguido de: “esto de la inteligencia artificial va mucho más deprisa de lo que podemos éticamente reflexionar, de lo que podemos socialmente digerir, de lo que podemos legalmente regular y de lo que debemos políticamente aceptar”.

Lo reenvié… Pero se me había quedado el ‘aguijón’ de la postverdad y decidí dedicar un rato a indagar sobre la procedencia del vídeo. Encontré la versión larga, que es mucho más interesante, aunque requiere 7 minutos que, en la era de la inmediatez, es muchísimo.

Recordé que el contexto lo es todo para interpretar el sentido de las acciones. El vídeo no está diseñado para vender armas sino, todo lo contrario, para denunciar sus riesgos y demandar a los poderes públicos la prohibición de su uso.

No me quedé mucho más tranquila, pues sea ‘verdad’ o ‘fake’, el vídeo refleja que vivimos tiempos en los que el miedo y el control se han incrustado en todas las esferas de la vida social. Recomiendo que inviertan los siete minuto en verlo: hay muchas cuestiones condensadas en él.

Aquí solo señalaré algunas, pues he desarrollado otras en este otro post y quiero profundizar algo más en la comprensión de la guerra en nuestra época: de qué manera la convergencia entre la inteligencia artificial y la belicosidad dan forma a nuestra sociedad, igual que lo han hecho en el pasado.

Parece que la tecnología aplicada a armas autónomas no está desarrollada plenamente (es decir,  que una máquina no dispone por completo de la capacidad para actuar en el ‘campo de batalla’ sin intervención humana), pero sabemos que está en avance y que su precedente está en la guerra de drones que Obama inició como su propia versión de la guerra contra el terror.

Así lo ilustran algunos estudios académico-científicos y se ve en toda su enjundia en la película de 2015, Eye in the Sky. De manera paralela, en los últimos años se viene debatiendo a nivel internacional y en el marco de Naciones Unidas la gobernanza de los sistemas de armas autónomas.

Sabemos que hay muchos países con altas capacidades militares avanzando en sistemas autónomos de defensa (Estados Unidos, Reino Unido, Israel, Corea, China…). Ello está siendo objeto de investigaciones en centros de referencia como el SIPRI, Stockholm International Peace Research Institute y por parte de agentes de la sociedad civil global como  Human Rights Watch. Hay también respuesta de la sociedad, ente ellas las campañas  Ban Autonomous Weapons, de la que procede el vídeo del que hablamos, y Stop Killer Robots, una coalición no  gubernamental que presiona, apoyada por expertos del mundo entero, para adoptar una prohibición preventiva sobre el desarrollo LAWs (Lethal Autonomous Weapons).

Pero lo que hay en este vídeo distópico es una cuestión completamente añeja: me refiero a la capacidad de los Estados para utilizar la violencia organizada, el papel de la tecnología en el desarrollo de la guerra y las dos caras históricas de un mismo proceso: la guerra en el exterior del Estado está directamente relacionada con la ‘pacificación’ en el interior del Estado, como nos recuerda Mark Neocleous (2011).

Es el relato de lo que el complejo militar-industrial-securitario puede hacer: mejorar la defensa nacional frente a enemigos con perfiles muy concretos, minimizando así los ‘daños colaterales’ y seguir haciendo la guerra sin que a las opiniones públicas occidentales, que Martin Shaw llama sociedades postmilitares,  se les atragante la cena con el telediario. En otra lectura de este vídeo distópico, son los ‘malos’ (¿terroristas?, ¿radicales? ¿anarquistas?, ¿criminales?, ¿piratas? ¿refugiados?) esto es, -los que desafían el monopolio estatal de la violencia-, quienes nos atacan sin la ‘legitimidad’ ni las ‘restricciones’  que poseen los Estados occidentales.

Pero sigamos especulando  que son los Estados pues, al fin y al cabo, son las organizaciones políticas más poderosas, las que tienen mayor capacidad de destrucción y la que expanden su poder ante las amenazas. Los Estados pueden controlar a millones de personas a nivel planetario y separar a los ‘amigos’ de los ‘enemigos’ con un simple ejercicio de perfilación. Lo pueden hacer con sus enemigos exteriores y lo pueden hacer con sus enemigos interiores.

En esta distopía, se utilizan las armas autónomas para ‘neutralizar’ el disenso y pacificar en el interior de la sociedad. Ese mecanismo de expansión histórica del poder del Estado que es la guerra, y la forma que toma en este momento, no es posible sin dos fenómenos complementarios que, siendo igualmente viejos (pues los Estados siempre han recogido datos de sus poblaciones haciendo uso de la sociedad), adquieren hoy unas dimensiones planetarias y difícilmente mesurables: el Big data y la vigilancia masiva.

El potencial predictivo del Big data, como el valor preventivo de la vigilancia masiva,  están en entredicho. Sin Thick Data  -y redundamos aquí en el conflicto metodológico clásico entre los hechos y los significados; entre lo cuantitativo y lo cualitativo– no podemos discernir, por ejemplo, entre los decires y los haceres. Sin embargo, la expansión del poder de  vigilar, evidenciada en las revelaciones de Snowden en 2015, depende en buena medida de que los ciudadanos/as proveamos datos al sistema.

Esos datos permiten la perfilación, ‘enseñan a hablar a los algoritmos’; permiten parametrizan muchos aspectos de la vida cotidiana y, junto con la inteligencia artificial, están entrando en instituciones centrales de la sociedad  incluyendo las de control, porque permiten ‘predecir patrones de conducta’ (criminal), ‘asignar de manera eficiente recursos’ (policiales) y ‘minimizar riesgos’ (colaterales?).

Precisamente la guerra es una institución central de todas las sociedades en todos los momentos históricos. La Inteligencia Artificial y el Aprendizaje Automatizado aplicados a la guerra, nos alertan de la importancia de entrar en el debate sobre su regulación. En contra de los argumentos neo darwinistas de moda, a los humanos les repulsa matar.

Eso explica que históricamente los ejércitos hayan recurrido a sustancias para ‘facilitar’ la tarea de matar y que la ideologización sea un elemento central en todos los ejércitos. Eso explica también que haya deserciones, motines y desobediencias en la cadena de mando– como el soldado que opera drones en la  película  Eye in the Sky-. En un contexto cambiante, ¿puede  rehacerse un cálculo  estratégico y moral? ¿Fallan los sistemas? ¿Fallan las máquinas? ¿Quién es responsable? He aquí algunos desafíos éticos que plantea la guerra mediada por la Inteligencia Artificial  sin mencionar, por supuesto, la capacidad de aniquilar al género humano o, peor, a una ‘parte designada’ de la humanidad.

Dos grandes sociólogos de la violencia han mostrado que los humanos ‘matan mejor en grupo’. Randall Collins y Siniša Malešević, aportan distintos tipos de evidencia que sostienen el argumento de que la violencia es mayor y más efectiva cuando media la organización social y la ideología. En la medida en que las sociedades se complejizan y la organización de la violencia se sofistica, el potencial para matar es mayor.

Legitimaciones nos sobran en un mundo marcado por una cada vez mayor identificación del diferente (en nacionalidad, en pertenencia étnica, en religión) como enemigo. El avance de la Inteligencia Artificial, combinado con el giro autoritario de los Estados nación, es un desafío sobre el que es necesario seguir reflexionando.

Pero el vídeo me dio para pensar en el poder de los escenarios de futuro. ¿Por qué nos gusta tanto elaborar, construir y consumir distopías (y no utopías)? La imaginación de futuro es esencial a la vida social y aunque en la ‘sociedad del riesgo’ ha quedado clara la dificultad para imaginar una línea clara, certera y positiva de futuro, vivimos en una cultura obsesionada con ‘adelantarse al futuro’ (análisis de riesgos, construcción de escenarios etc…). Sin embargo, a veces olvidamos algo que la Sociología llama ‘profecía auto-cumplida’; cuando los individuos piensan algo como real, acaba siendo real en sus consecuencias, pues actúan como si fuera real.

Recuperando al siempre inspirador Charles. W. Mills debemos plantearnos si la principal causa de la guerra es la preparación para la guerra.

Referencias

– Collins, Randall. (2009). Violence: a Micro-sociological Theory. Princeton and Oxford: Princeton University Press.

– Malešević, Siniša (2017). The Rise of Organised Brutality: A Historical Sociology of Violence. London: Routledge.

– Mills, Charles, W. (1958). The Causes of the Third World War. New York: Simon and Schuster.

– Neocleous M (2011) “‘A brighter and nicer new life’: Security as pacification”. Social & Legal Studies 20(2): 191–208.

NOTA: Imagen de portada de Hugo Bononi distribuida bajo licencia CC

Compartir.

Sobre el Autor

Dejar una Respuesta