Cabe hacer un breve paréntesis para referir lo que implica la declaración de una emergencia de salud pública de importancia internacional que se adopta ante un brote: ésta refiere a una situación "grave, repentina, inusual e inesperada", con consecuencias sanitarias cuyo impacto se extiende más allá del país afectado y tras la cual comienza el proceso que posibilite una acción internacional que sea inmediata y coordinada.
La OMS ha adoptado dicha decisión anteriormente en cinco ocasiones, entre las que se cuentan: el brote de gripe H1N1, en 2009; contra la polio, en 2014; contra el ébola, en África Occidental, en 2014; contra el virus zika en 2016 y en julio del 2019 contra el ébola, en la República Democrática del Congo.
Sin embargo y en espera de mayor información y más datos (a la fecha en que esto se escribe se tienen contabilizados más de dos mil 19 casos y 59 muertes) y acciones internacionales en lo que corresponde al 2019-nCoV (nuevo virus de 2019, pero cuyo nombre la OMS decidirá en definitivo), este día comentaremos de otro asunto que también debe ser motivo de cautela y del que ya hemos escrito anteriormente, en 2014: las armas autónomas.
En 1495, Leonardo Da Vinci diseñó un "Caballero Mecánico", capaz de imitar diversas actividades humanas tales como subir los brazos, abrir y cerrar la mandíbula e incluso sentarse; en los borradores del cuaderno de notas de Da Vinci, el sistema ideado por el genio renacentista graficó manivelas y poleas, sin embargo no es clara la manera por medio de la cual se controlaría una “autonomía de combate”.
La inteligencia artificial (AI, por sus siglas en inglés) avanzó, de manera lenta al inicio, por ejemplo con el telautomaton, primer vehículo de control remoto; el “Bicho de Kettering”, torpedo aéreo y las bombas “Fritz X”, sin olvidar la cuestión planteada -desde 1950- por “el padrino” de la AI, Alan Turing: “¿Pueden pensar las máquinas?”.
Posteriormente aparecerían en escena los misiles computarizados, la “máquina de cognición asistida”, las “bombas inteligentes”, satélites como “Navstar” y sistemas de defensa aérea como “Aegis”, además de vehículos aéreos no tripulados de vigilancia, como RQ-1 Predator -drones- y robots centinelas, como Samsung Techwin SGR-A1; en el 2014 se difundieron las imágenes de los primeros vuelos de prueba del prototipo Taranis -dios celta del trueno-, nombre que la empresa de armamento británica BAE Systems le dio a su más moderno avión de combate autónomo, capaz de funcionar sin intervención humana.
Y es a partir del 2009 que son relevantes las posturas reflexivas que enfatizan que se requieren, al menos, "niveles adecuados de juicio humano" ejercidos sobre los robots que utilizan fuerza letal; sin dejar de lado lo que han manifestado diversos investigadores, como los de la Universidad de Cambridge: "corremos el riesgo de ceder el control sobre el planeta a las inteligencias que son simplemente indiferentes a nosotros, y a las cosas que consideramos valiosas, como la vida y un medio ambiente sostenible”.
Entrando al terreno de la ciencia ficción, para quienes gustan de este género no son desconocidas las tres leyes de la robótica propuestas por el escritor Isaac Asimov: 1. Un robot no puede hacer daño a un ser humano ni por omisión permitir que un ser humano sufra daño; 2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primer ley y 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera y segunda ley.
Aunque en la realidad, los robots con inteligencia artificial no se rigen por ninguna ley y lo más parecido a una normatividad son las cinco reglas del Consejo de Investigación de Ciencias Físicas y de Ingeniería, un grupo de estudio con sede en Inglaterra que en el año 2010 estableció lo siguiente: 1. Los robots son herramientas, no son sujetos de normas, y sólo pueden ser diseñados como armas para seguridad nacional; 2. Los humanos son sujetos a la ley no los robots, pero éstos deben ser diseñados conforme a ésta; 3. Los robots son productos, no personas; 4. Los robots deben ser transparentes, no deben aprovechar vulnerabilidades humanas; 5. El responsable legal del robot debe estar registrado.
Podríamos decir que estamos por vivir lo mejor o lo peor que le puede suceder a la humanidad en materia de progreso tecnológico. Incluso el físico Stephen Hawking en su momento destacó la importancia de las investigaciones encaminadas a aprovechar los beneficios y evitar los riesgos que pudiera representar la AI, en un artículo firmado también por Stuart Russell, profesor de Ciencias de la Computación en la Universidad de California en Berkeley, y los físicos del MIT Max Tegmark y Frank Wilczek: todos basados en estudios como los del Centro Cambridge para el Estudio de Riesgo Existencial, del Instituto del Futuro de la Humanidad y del Centro de Investigación de la Inteligencia de Máquinas.
En el mes de marzo del 2014 se llevó a cabo en Ginebra una reunión organizada por la Convención de Armas Convencionales (CCW) de la Organización de las Naciones Unidas (ONU), en la que por primera vez representantes de 21 países y 13 expertos independientes discutieron las implicaciones éticas, legales, técnicas, militares y humanitarias respecto de los sistemas de armas autónomas y la posible prohibición de los mismos.
¿Qué debemos entender por “armas autónomas”? Aquellas que, una vez activadas, pueden seleccionar sus objetivos y enfrentarlos sin ningún tipo de intervención de operador humano, con autonomía en las “funciones críticas” de rastrear y atacar; a dichas armas también se les conoce como “robots asesinos”, ya que no requieren el control de una persona para tomar la decisión de terminar con la vida de un ser humano.
Cabe referir que el Comité Internacional de la Cruz Roja (CICR) ya ha solicitado anteriormente que las nuevas armas con funciones autónomas sean objeto de un examen jurídico pormenorizado, “a fin de garantizar que su eventual uso se ajusta al derecho internacional humanitario, requisito de obligado cumplimiento para los Estados que emplean una nueva arma”, ante lo cual surgen dos interrogantes: ¿Las armas autónomas son compatibles con los principios de humanidad? ¿Bajo qué condiciones de distinción, proporcionalidad y precauciones en el ataque?
Diversos ejércitos en el mundo consideran utilizar sistemas de armas autónomas que puedan elegir y eliminar los blancos, por lo que organizaciones como Human Rights Watch (HRW), al frente de otras 52 ONG´s, crearon la campaña “Stop Killer Robots”, para que se evite el uso de tecnologías robóticas capaces de decidir por sí solas cuándo y a quién matar, lo que representa “un nuevo peligro para la humanidad, que necesita detenerse antes de que los estados lleguen a estar demasiado comprometidos a nivel de inversión en esas tecnologías”, según ha expuesto Noel Sharkey, profesor de la Universidad de Sheffield.
Un informe de la Fuerza Aérea de los Estados Unidos señalaba que para el año 2030 “las capacidades de las máquinas habrán crecido hasta el punto en el que los humanos serán el componente más débil de una enorme variedad de sistemas y procesos” implicados en una situación bélica. También habría que considerar el factor responsabilidad: un arma autónoma no puede violar el derecho internacional humanitario, ¿quién sería jurídicamente responsable: el programador, el fabricante o el comandante que despliega dicha arma?
En entrevista concedida a BBC Mundo en 2014, Mark Gubrud, investigador del Programa sobre Ciencia y Seguridad Global de la Universidad de Princeton y miembro de Comité Internacional para el Control de Armas Robóticas (CICAR), indicó lo siguiente: “Es un derecho humano no ser muerto por decisión de una máquina. Ese es un muy fuerte principio moral, con un atractivo casi universal. Y esa debe ser la base para prohibir las armas autónomas”; Gubrud hablaba también sobre escenarios futuros en los que habría armas autónomas que reconozcan caras o elementos biométricos, entre otros tópicos que se discuten de manera silenciosa en las fuerzas armadas y de forma más abierta en la ciencia ficción.
Un punto de vista diferente lo expresó en fecha pasada Ronald Arkin, experto en robótica, quien defiende el uso de armas autónomas mediante diversos argumentos: se reducen las bajas militares al mantener a los soldados lejos del campo de batalla y se logra mayor precisión en el ataque, lo que reduciría los daños colaterales que afectan a los civiles presentes en la zona de conflicto.
Resaltan dos cuetionamientos: ¿Un arma autónoma podría distinguir entre combatientes activos y los que están fuera de combate?, ¿y entre civiles que participan de manera directa en las hostilidades y civiles armados para mantener el orden?
Aunque hablemos de tecnología, consideremos también el plano emocional: HRW ha plasmado en un informe que “las emociones humanas ofrecen una de las mejores salvaguardas contra la muerte de civiles y la falta de emoción puede hacer más fácil matar; las emociones deben ser vistas como cruciales para la moderación en la guerra”.
Y es que los sistemas de armas autónomas carecerían de emociones humana positivas: la empatía, la compasión, el juicio y la experiencia estarían ausentes en la evaluación correcta de un intento genuino de rendirse, por ejemplo; las misiones letales se llevarían a cabo incluso sin provocación. En el otro extremo, los sistemas de armas autónomas no estarían influenciados por emociones humanas negativas, como el miedo o el deseo de venganza.
Podría considerarse que la Inteligencia Artificial es un efecto físico del proceso adaptativo por el cual un sistema busca evitar su confinamiento: ¿Seremos capaces de controlarla?
Las ocho reuniones sobre robots asesinos del CCW efectuadas desde 2014 han consolidado un acuerdo generalizado entre prácticamente todos los 80 estados participantes, que resalta la necesidad de mantener algún tipo de control humano sobre el uso de la fuerza.
Actualmente, 30 países promueven un tratado de prohibición como esencial para estigmatizar la eliminación del control humano de los sistemas de armas y además, en septiembre de 2019, en la Asamblea General de alto nivel de la ONU, una iniciativa para la “Alianza por el Multilateralismo” identificó los robots asesinos como uno de los seis temas “políticamente relevantes” que requieren una respuesta multilateral urgente.