Considerado en vida como uno de los tres grandes escritores de ciencia ficción, junto con Robert A. Heinlein y Arthur C. Clarke, Isaac Asimov comenzó a publicar relatos de ciencia ficción en 1939, con base en los avances tecnológicos y científicos de la época que, aunados a la prolífica imaginación literaria del autor, constituyeron la base de su obra futurista. El autor de “Yo, Robot” incluso tiene un asteroide bautizado en su honor: “5020 Asimov”.
En este espacio hemos publicado algunas consideraciones al respecto de la reunión organizada por la “Convención sobre Prohibiciones o Restricciones del Empleo de Ciertas Armas Convencionales que puedan considerarse excesivamente nocivas o de efectos indiscriminados” (CCW) de la Organización de las Naciones Unidas (ONU). Por primera vez, en el año 2014, representantes de 21 países y 13 expertos independientes discutieron las implicaciones éticas, legales, técnicas, militares y humanitarias respecto de los sistemas de armas autónomas y la posible prohibición de los mismos.
¿Qué es un arma autónoma? También son conocidas como “robots asesinos”, ya que buscan, identifican y atacan objetivos de manera independiente, sin intervención humana; una vez activadas, pueden seleccionar sus objetivos y enfrentarlos sin ningún tipo de intervención de operador humano, con autonomía en las “funciones críticas” de rastrear y atacar. No requieren el control de una persona para tomar la decisión de terminar con la vida de un ser humano.
Es interesante conocer que el término “robot” proviene de la palabra checa “robota”, cuyo significado es “trabajo”, y fue introducido en el vocabulario popular por el dramaturgo Karel Capek, en 1921, en una novela satírica a la que tituló “Rossum’s Universal Robots”. En ella describe al robot como una máquina que sustituye a los seres humanos para ejecutar tareas sin descanso; sin embargo, los robots se vuelven contra sus creadores y aniquilan a toda la raza humana.
Uno de los principales problemas respecto al uso de las armas autónomas es al que hizo referencia el presidente del Comité Internacional de la Cruz Roja (CICR), Peter Maurer, durante una charla que ofreció en la Facultad de Derecho de la Universidad Nacional Autónoma de México (UNAM): “nadie sabe qué derecho aplicar” en el caso de las AAL. Tal como el CICR subraya en su página en línea: “¿Quién será responsable si la operación de un sistema armado automatizado genera un crimen de guerra? ¿El ingeniero, el programador, el constructor o el mando que activó el arma?”. Por su condición de máquina, no podría responsabilizarse a un sistema de armas autónomas por una violación del derecho internacional humanitario.
Este año, líderes del ámbito tecnológico, entre ellos Elon Musk, fundador de Tesla, y Mustafa Suleyman, creador del laboratorio de inteligencia artificial de Google, firmaron una carta -redactada por el científico y experto en inteligencia artificial Toby Walsh y dirigida a la ONU- para pedir la prohibición de los “robots asesinos”, sumándose a los integrantes de organizaciones sociales, movimientos religiosos, comunidades científicas y activistas que desde hace varios años piden la prohibición de las armas autónomas letales; en total, 116 líderes del ámbito tecnológico de 26 países firmaron la carta.
Cabe agregar que desde que la ONU aborda el futuro de dichas armas autónomas letales (de las cuales se ha señalado que son la última tentación de los ejércitos más poderosos), los gobiernos que participan en la revisión de esta convención han aplazado una y otra vez su decisión, siendo la última vez en diciembre de 2016; y es que, según la organización Human Rights Watch, más de una docena de países, entre ellos Estados Unidos, China, Israel, Corea del Sur y Rusia, están desarrollando sistemas de armas autónomas.
En algunos extractos de la “Carta abierta a la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales” se apunta lo siguiente:
“Nosotros, compañías que construyen la tecnología en inteligencia artificial y robótica que podría ser reutilizada para desarrollar armas autónomas, nos sentimos particularmente responsables de alzar la voz en este sentido.
(…)
Lamentamos que el primer encuentro del GEG, el cual debería haber empezado hoy (21 de agosto de 2017), haya sido cancelado debido al reducido número de estados dispuestos a pagar su contribución financiera a Naciones Unidas. Por tanto, exhortamos a las Altas Partes Contratantes a duplicar sus esfuerzos durante el primer encuentro del GEG previsto para noviembre.
Las armas autónomas letales amenazan con convertirse en la tercera revolución armamentística. Una vez desarrolladas, darán lugar a conflictos armados a una escala nunca antes vista, y a una velocidad superior a la que los humanos nunca podrán alcanzar. Estas pueden ser armas de terror, armas que los déspotas y terroristas usen contra poblaciones inocentes, y armas susceptibles de ser hackeadas para actuar de forma indeseable. No tenemos mucho tiempo para actuar. Una vez que la Caja de Pandora se haya abierto, será difícil cerrarla. Por tanto, rogamos a las Altas Partes Contratantes que encuentren la forma de protegernos de estos peligros”.
Como ya lo hemos comentado en Panóptico Rojo, en domingos pasados, aunque hablemos de tecnología también debe considerarse el plano emocional: HRW plasmó en un informe anterior que “las emociones humanas ofrecen una de las mejores salvaguardas contra la muerte de civiles y la falta de emoción puede hacer más fácil matar; las emociones deben ser vistas como cruciales para la moderación en la guerra”. Aunque en el otro extremo, los sistemas de armas autónomas no estarían influenciados por emociones humanas negativas, como el miedo o el deseo de venganza.
Lo importante sería entonces conocer en qué punto y bajo cuáles circunstancias se corre el riesgo de perder ‘control humano significativo’ sobre el uso de la fuerza. Tal como lo señalaba Leonardo Da Vinci: “La naturaleza nunca quebranta sus propias leyes”. Coincidimos.