Oficinas Centrales

Bahía de Ballenas No. 58
Col. Verónica Anzures, Alcaldía Miguel Hidalgo
C.P. 11300, Ciudad de México

Contácto

El Departamento de Defensa de E.U.A. define arma autónoma letal (LAW Lethal Atonomous Weapon) como “un sistema que, una vez activado, puede seleccionar objetivos y apuntar contra ellos sin necesidad de intervención humana”. La carrera en la aplicación y desarrollo de la Inteligencia Artificial (IA) la comanda China, Estados Unidos, Reino Unido, Israel, Corea del Sur y Rusia y desde el año del 2014 la ONU ha debatido sobre la prohibición de las LAWS, específicamente las del uso del ejército. Aunque los usos de la IA en el ejército son varios, desde analizar una cantidad muy grande de datos para definir estrategias en el campo de batalla, o el apoyo en la identificación de objetivos civiles o hasta la decisión de apretar el gatillo automáticamente al cumplirse ciertas condiciones, la prohibición radica en que una máquina no decida quien muere y quien vive.

El debate no ha terminado y tanto el ejército, el gobierno, la industria como la academia deben participar en conjunto para definir no solo las reglas del uso de este tipo de armas sino hasta en la toma de decisión para la prohibición de estas. Aunque el objetivo teórico del uso de LAWS sea reducir el riesgo de muerte de civiles en la guerra, nadie querrá que una máquina con un software sea quien decida si una persona o grupo de personas conserva su vida o no.

Los ejércitos que apoyan el uso de la IA comentan que el criterio humano siempre deberá prevalecer en la toma de decisiones y las armas robotizadas sean quienes ejecuten la orden.

¿Qué pasaría si alguna de estas armas o robots son comprados por organizaciones delictivas o terroristas? ¿Qué pasaría si un dictador tuviera acceso a esta tecnología? ¿Quién sería el responsable de las muertes de un error de la IA? ¿Quién y como establece los parámetros para que alguien sea identificado como OBJETIVO por la LAW? Cada día existen más cuestionamientos a resolver que avances en el debate.

  • Juan Antonio Guerrero. (# 430). Armas autónomas, la amenaza fantasma. febrero 07, 2021, de Muy Interesante Sitio web: https://www.muyinteresante.es/revista-muy/noticias-muy/articulo/armas-autonomas-la-amenaza-fantasma-461487840117
  • Tom McKay. (enero 27, 2021). Congressional Panel: We Have a ‘Moral Imperative’ to At Least Consider Building a Terminator. febrero 07, 2021, de Gizmodo Sitio web: https://gizmodo.com/congressional-panel-we-have-a-moral-imperative-to-at-l-1846144971
  • Larry Lewis. (enero 10, 2020). Killer robots reconsidered: Could AI weapons actually cut collateral damage?. febrero 07, 2021, de Bulletin of the Atomic Scientists Sitio web: https://thebulletin.org/2020/01/killer-robots-reconsidered-could-ai-weapons-actually-cut-collateral-damage/

Share:

Marco Chávez

editor