Considerado en vida como uno de los tres grandes escritores de ciencia ficción, junto con Robert A. Heinlein y Arthur C. Clarke, Isaac Asimov comenzó a publicar relatos de ciencia ficción en 1939, basado en los avances tecnológicos y científicos de la época que, aunados a la prolífica imaginación literaria del autor, constituyeron la base de su obra futurista. El autor de “Yo, Robot” incluso tiene un asteroide bautizado en su honor: “5020 Asimov”.
En el mes de junio del año pasado, con el título “Del Caballero Mecánico a la autonomía letal”, publicamos en este espacio algunas consideraciones al respecto de la reunión organizada por la “Convención sobre Prohibiciones o Restricciones del Empleo de Ciertas Armas Convencionales que puedan considerarse excesivamente nocivas o de efectos indiscriminados” (CCW) de la Organización de las Naciones Unidas (ONU). Por primera vez, representantes de 21 países y 13 expertos independientes discutieron las implicaciones éticas, legales, técnicas, militares y humanitarias respecto de los sistemas de armas autónomas y la posible prohibición de los mismos.
¿Qué es una arma autónoma? También son conocidas como “robots asesinos”, ya que buscan, identifican y atacan objetivos de manera independiente, sin intervención humana; una vez activadas, pueden seleccionar sus objetivos y enfrentarlos sin ningún tipo de intervención de operador humano, con autonomía en las “funciones críticas” de rastrear y atacar. No requieren el control de una persona para tomar la decisión de terminar con la vida de un ser humano.
“Fíjate en ti. No lo digo con ánimo de desprecio, pero fíjate bien. El material del que estás hecho es blando y flojo, carece de resistencia, y su energía depende de la oxidación ineficiente del material orgánico (...) Sois alterables. Yo, por el contrario, soy un producto acabado. Absorbo energía eléctrica directamente y la utilizo con casi un ciento por ciento de eficiencia. Estoy compuesto de fuerte metal, permanezco consciente todo el tiempo y puedo soportar fácilmente los más extremados cambios ambientales”, son las ‘palabras’ de QT-1 Cutie, al dudar sobre su existencia y debatir con humanos en la novela “Yo, Robot”.
Es interesante conocer que el término “robot” proviene de la palabra checa “robota”, cuyo significado es “trabajo”, y fue introducido en el vocabulario popular por el dramaturgo Karel Capek, en 1921, en una novela satírica a la que tituló “Rossum’s Universal Robots”. En ella describe al robot como una máquina que sustituye a los seres humanos para ejecutar tareas sin descanso; sin embargo, los robots se vuelven contra sus creadores y aniquilan a toda la raza humana.
En la semana que acaba de concluir tuvo lugar en Ginebra una nueva reunión internacional sobre los sistemas de “armas letales autónomas” (AAL), en la que un panel de expertos de la ONU discutió sobre los problemas éticos y legales que generan dichas armas, que científicos castrenses de más de 40 países afinan y prueban en sus laboratorios. El objetivo del panel, a largo plazo, es llegar a un acuerdo sobre la regulación de las AAL en el marco de la CCW, a la cual se han adherido 120 países.
Los sistemas autónomos dados a conocer por los militares en los debates sobre las AAL, son en su mayoría sistemas de defensa. Por ejemplo, el “Domo de Acero” de Israel, que detecta e intercepta cohetes, del mismo modo que el “Phalanx” estadounidense producido por la compañía Raytheon. No se puede dejar de mencionar al robot “Techwin SGR-A1”, instalado por el ejército surcoreano en la frontera desmilitarizada con Corea del Norte y que “detecta, advierte y provee un fuego supresor contra invasores”, o el ‘avión no tripulado autónomo’, “X-47B”, desarrollado por la empresa estadounidense Northrop Grumman para que realice vuelos pre-programados y que se espera entre en servicio en el 2019.
Uno de los principales problemas respecto al uso de las armas autónomas es al que hizo referencia el presidente del Comité Internacional de la Cruz Roja (CICR), Peter Maurer, durante una charla que ofreció en la Facultad de Derecho de la Universidad Nacional Autónoma de México (UNAM): “nadie sabe qué derecho aplicar” en el caso de las AAL. Tal como el CICR subraya en su página en línea: “¿Quién será responsable si la operación de un sistema armado automatizado genera un crimen de guerra? ¿El ingeniero, el programador, el constructor o el mando que activó el arma?”. Por su condición de máquina, no podría responsabilizarse a un sistema de armas autónomas por una violación del derecho internacional humanitario.
“¡Cuidado con la brecha!: La falta de rendición de cuentas de los robots de combate”, es el título del informe publicado conjuntamente por Human Rights Watch (HRW) y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard, documento en el que se destaca que programadores, fabricantes y personal militar podrían eximirse de toda responsabilidad penal por las muertes y lesiones ilegítimas causadas por las armas completamente autónomas. HRW es miembro fundador y coordinador de la “Campaña contra los robots asesinos”, una coalición internacional de más de 50 organizaciones no gubernamentales que impulsa la prohibición preventiva del desarrollo, producción y uso de dichas armas totalmente autónomas.
Como ya lo señalamos en Panóptico Rojo en domingos pasados, aunque hablemos de tecnología también debe considerarse el plano emocional: HRW plasmó en un informe anterior que “las emociones humanas ofrecen una de las mejores salvaguardas contra la muerte de civiles y la falta de emoción puede hacer más fácil matar; las emociones deben ser vistas como cruciales para la moderación en la guerra”. Aunque en el otro extremo, los sistemas de armas autónomas no estarían influenciados por emociones humanas negativas, como el miedo o el deseo de venganza.
Lo importante sería entonces conocer en qué punto y bajo cuáles circunstancias se corre el riesgo de perder ‘control humano significativo’ sobre el uso de la fuerza. Coincidamos entonces con Leonardo Da Vinci: “La naturaleza nunca quebranta sus propias leyes”.