Las naciones están gastando miles de millones en la investigación de ‘robots asesinos’

Las naciones están gastando miles de millones en la investigación del ‘robot asesino’

Recientemente, las Naciones Unidas no lograron ponerse de acuerdo sobre una prohibición total de los sistemas de armas autónomos.James Dawes, profesor de inglés en Macalester College, analiza la situación actual y el posible futuro al que nos enfrentamos si no se hace nada para detener el desarrollo de ‘robots asesinos’.


Los sistemas de armas autónomos, comúnmente conocidos como robots asesinos, pueden haber matado seres humanos por primera vez el año pasado, según un informe reciente del Consejo de Seguridad de las Naciones Unidas sobre la guerra civil en Libia. La historia bien podría identificar esto como el punto de partida de la próxima gran carrera armamentista, una que tiene el potencial de ser la final de la humanidad.

La Convención de las Naciones Unidas sobre Ciertas Armas Convencionales debatió la cuestión de prohibir las armas autónomas en su reunión de revisión que se realiza una vez cada cinco años en Ginebra del 13 al 17 de diciembre de 2021, pero no llegó a un consenso sobre la prohibición. Establecida en 1983, la convención se ha actualizado regularmente para restringir algunas de las armas convencionales más crueles del mundo, incluidas las minas terrestres, las trampas explosivas y las armas incendiarias.

Los sistemas de armas autónomos son robots con armas letales que pueden operar de forma independiente, seleccionando y atacando objetivos sin que un ser humano intervenga en esas decisiones. Los militares de todo el mundo están invirtiendo fuertemente en la investigación y el desarrollo de armas autónomas. Solo EE. UU. presupuestó 18.000 millones de dólares para armas autónomas entre 2016 y 2020.

Mientras tanto, las organizaciones humanitarias y de derechos humanos se apresuran a establecer regulaciones y prohibiciones sobre el desarrollo de tales armas. Sin tales controles, los expertos en política exterior advierten que las tecnologías disruptivas de armas autónomas desestabilizarán peligrosamente las estrategias nucleares actuales, tanto porque podrían cambiar radicalmente las percepciones de dominio estratégico, aumentando el riesgo de ataques preventivos, como porque podrían combinarse con ataques químicos, biológicos y radiológicos. y las propias armas nucleares.

Como especialista en derechos humanos con un enfoque en la militarización de la inteligencia artificial, encuentro que las armas autónomas hacen que los equilibrios inestables y las salvaguardas fragmentadas del mundo nuclear, por ejemplo, la autoridad mínimamente restringida del presidente de EE. UU. para lanzar un ataque, sean más inestables y más fragmentado. Dado el ritmo de la investigación y el desarrollo de armas autónomas, la reunión de la ONU podría haber sido la última oportunidad para evitar una carrera armamentista.

Errores letales y cajas negras

Veo cuatro peligros principales con las armas autónomas. El primero es el problema de la identificación errónea. Al seleccionar un objetivo, ¿las armas autónomas podrán distinguir entre soldados hostiles y niños de 12 años que juegan con pistolas de juguete? ¿Entre civiles que huyen de un lugar de conflicto e insurgentes que realizan una retirada táctica?

El problema aquí no es que las máquinas cometan tales errores y los humanos no. Es que la diferencia entre el error humano y el error algorítmico es como la diferencia entre enviar una carta y tuitear. La escala, el alcance y la velocidad de los sistemas de robots asesinos, gobernados por un algoritmo de orientación, desplegados en todo un continente, podrían hacer que las identificaciones erróneas de humanos individuales, como un reciente ataque de aviones no tripulados estadounidenses en Afganistán, parezcan meros errores de redondeo en comparación.

El experto en armas autónomas Paul Scharre usa la metáfora del arma fuera de control para explicar la diferencia. Una pistola fuera de control es una ametralladora defectuosa que continúa disparando después de soltar el gatillo. El arma continúa disparando hasta que se agota la munición porque, por así decirlo, el arma no sabe que está cometiendo un error. Las armas fuera de control son extremadamente peligrosas, pero afortunadamente tienen operadores humanos que pueden romper el enlace de la munición o intentar apuntar el arma en una dirección segura. Las armas autónomas, por definición, no tienen tal salvaguardia.

Es importante destacar que la IA armada ni siquiera necesita ser defectuosa para producir el efecto de un arma desbocada. Como han demostrado múltiples estudios sobre errores algorítmicos en todas las industrias, los mejores algoritmos, que funcionan según lo diseñado, pueden generar resultados correctos internamente que, sin embargo, propagan errores terribles rápidamente entre las poblaciones.

Por ejemplo, una red neuronal diseñada para su uso en hospitales de Pittsburgh identificó el asma como un reductor de riesgo en los casos de neumonía; el software de reconocimiento de imágenes utilizado por Google identificó a los negros como gorilas; y una herramienta de aprendizaje automático utilizada por Amazon para clasificar a los candidatos a puestos de trabajo que sistemáticamente asignó puntajes negativos a las mujeres.

El problema no es solo que cuando los sistemas de IA se equivocan, se equivocan en masa. Es que cuando se equivocan, sus hacedores muchas veces no saben por qué lo hicieron y, por lo tanto, cómo corregirlos. El problema de la caja negra de la IA hace que sea casi imposible imaginar un desarrollo moralmente responsable de sistemas de armas autónomos.

Los problemas de proliferación

Los siguientes dos peligros son los problemas de proliferación de gama baja y alta. Comencemos con el extremo inferior. Los militares que desarrollan armas autónomas ahora están procediendo bajo el supuesto de que podrán contener y controlar el uso de armas autónomas. Pero si la historia de la tecnología armamentística le ha enseñado algo al mundo, es esto: las armas se propagan.

Las presiones del mercado podrían resultar en la creación y venta generalizada de lo que se puede considerar como el arma autónoma equivalente al rifle de asalto Kalashnikov: robots asesinos que son baratos, efectivos y casi imposibles de contener mientras circulan por el mundo. Las armas autónomas “Kalashnikov” podrían caer en manos de personas fuera del control del gobierno, incluidos terroristas internacionales y nacionales.

Sin embargo, la proliferación de gama alta es igual de mala. Las naciones podrían competir para desarrollar versiones cada vez más devastadoras de armas autónomas, incluidas aquellas capaces de montar armas químicas, biológicas, radiológicas y nucleares. Los peligros morales del aumento de la letalidad de las armas se verían amplificados por el aumento del uso de armas.

Es probable que las armas autónomas de gama alta conduzcan a guerras más frecuentes porque disminuirán dos de las principales fuerzas que históricamente han impedido y acortado las guerras: la preocupación por los civiles en el extranjero y la preocupación por los propios soldados. Es probable que las armas estén equipadas con costosos reguladores éticos diseñados para minimizar los daños colaterales, utilizando lo que la relatora especial de la ONU, Agnes Callamard, ha llamado el “mito de un ataque quirúrgico” para sofocar las protestas morales. Las armas autónomas también reducirán tanto la necesidad como el riesgo para los propios soldados, alterando drásticamente el análisis de costo-beneficio al que se someten las naciones al iniciar y mantener guerras.

Es probable que las guerras asimétricas, es decir, las guerras libradas en el suelo de naciones que carecen de tecnología competitiva, se vuelvan más comunes. Piense en la inestabilidad global causada por las intervenciones militares soviéticas y estadounidenses durante la Guerra Fría, desde la primera guerra de poder hasta el retroceso experimentado en todo el mundo hoy. Multiplique eso por cada país que actualmente busca armas autónomas de alta gama.

Finalmente, las armas autónomas socavarán el recurso provisional final de la humanidad contra los crímenes de guerra y las atrocidades: las leyes internacionales de la guerra. Estas leyes, codificadas en tratados que se remontan a la Convención de Ginebra de 1864, son la delgada línea azul internacional que separa la guerra con honor de la masacre. Se basan en la idea de que las personas pueden rendir cuentas por sus acciones incluso en tiempo de guerra, que el derecho a matar a otros soldados durante el combate no otorga el derecho a asesinar a civiles. Un ejemplo destacado de alguien que rindió cuentas es Slobodan Milosevic, ex presidente de la República Federativa de Yugoslavia, quien fue acusado de crímenes de lesa humanidad y crímenes de guerra por el Tribunal Penal Internacional para la ex Yugoslavia de la ONU.

Pero, ¿cómo se pueden responsabilizar a las armas autónomas? ¿Quién tiene la culpa de que un robot cometa crímenes de guerra? ¿Quién sería llevado a juicio? ¿El arma? ¿El soldado? ¿Los comandantes de los soldados? ¿La corporación que fabricó el arma? Las organizaciones no gubernamentales y los expertos en derecho internacional temen que las armas autónomas conduzcan a una grave brecha en la rendición de cuentas.

Para responsabilizar penalmente a un soldado por desplegar un arma autónoma que comete crímenes de guerra, los fiscales deberían probar actus reus y mens rea, términos latinos que describen un acto culpable y una mente culpable. Esto sería difícil desde el punto de vista legal y posiblemente injusto desde el punto de vista moral, dado que las armas autónomas son inherentemente impredecibles. Creo que la distancia que separa al soldado de las decisiones independientes que toman las armas autónomas en entornos que evolucionan rápidamente es simplemente demasiado grande.

El desafío legal y moral no se facilita trasladando la culpa hacia arriba en la cadena de mando o de vuelta al sitio de producción. En un mundo sin regulaciones que exijan un control humano significativo de las armas autónomas, habrá crímenes de guerra sin criminales de guerra a los que responsabilizar. La estructura de las leyes de la guerra, junto con su valor disuasorio, se verá significativamente debilitada.

Una nueva carrera armamentista mundial

Imagine un mundo en el que los militares, los grupos insurgentes y los terroristas nacionales e internacionales puedan desplegar una fuerza letal teóricamente ilimitada con un riesgo teóricamente cero en los momentos y lugares que elijan, sin responsabilidad legal resultante. Es un mundo en el que el tipo de errores algorítmicos inevitables que afectan incluso a los gigantes tecnológicos como Amazon y Google ahora pueden conducir a la eliminación de ciudades enteras.

En mi opinión, el mundo no debería repetir los errores catastróficos de la carrera de armamentos nucleares. No debe caminar sonámbulo hacia la distopía.

James Dawes , profesor de inglés, Macalester College

Lee el artículo original . 

Fuente: La conversación |

Compartir

Dejá un comentario

Tu dirección de correo electrónico no será publicada.