Por Teresa Da Cunha Lopes y Pedro Da Cunha Lopes
Cada generación, desarrolla nuevas tecnologías que alteran la naturaleza de la guerra y plantean nuevos desafíos para quienes buscan reducir la frecuencia, la destructividad y la miseria humana de los conflictos.
Cada generación tiene que lidiar con sus dilemas éticos y jurisdificar nuevas relaciones, tipificar nuevos delitos, crear una arquitectura jurídica de protección. Replantear los paradigmas y conceptos del derecho humanitario (Ius in bello) y del derecho de la guerra (Ius bellum) es un imperativo, pero también lo es colocar cuestiones sobre el uso de las nuevas tecnologías en el marco del combate al crimen organizado y de las operaciones de seguridad. O sea, no debemos solamente pensar estos retos a nivel de la seguridad internacional, sino también de la seguridad nacional y de la seguridad pública .
El reto actual consiste en analizar los impactos de una gama completamente nueva de tecnologías (Inteligencia Artificial (IA), robótica, cibertecnología, etc) al uso militar, a la protección de la infraestructura crítica nacional y, a la prevención y persecución de los delitos violentos y/o de cuello blanco. Tal traerá consecuencias potencialmente de gran alcance y algunas reestructuraciones importantes, en los tres niveles.
Aunque los riesgos y ramificaciones de estas nuevas tecnologías, aún no se reconocen ampliamente, los responsables, los actores de la formulación de políticas de seguridad internacional, seguridad nacional y de seguridad pública se verán obligados de abordar los peligros que plantean las tecnologías de armas y de instrumentos innovadores y a diseñar acuerdos internacionales, leyes regulatorias internas para regular o frenar su uso, para garantizar un equilibrio entre las preocupaciones securitarias y el ejercicio de derechos fundamentales.
Aunque se han realizado algunos esfuerzos iniciales en esta dirección, en particular, al intentar prohibir el despliegue de sistemas de armas totalmente autónomos (drone killers), se necesita mucho más trabajo para evaluar los impactos de estas tecnologías y forjar mecanismos de control nuevos o revisados según se considere apropiado.
En particular, se necesita una «pedagogía» de lo que recubren los términos «inteligencia artificial», «sistema inteligentes», «armas autónomas», entre otros, mismos que deben de ser manejados con acuidad tanto por el legislador y el jurista, así como, por los funcionarios de los diversos niveles de decisión de las estructuras de seguridad.
Inteligencia Artificial (IA) es un término genérico que se utiliza para describir una variedad de técnicas para producir máquinas con la capacidad de monitorear su entorno en el mundo físico o en el ciberespacio, para tomar acciones independientes en respuesta a diversos estímulos. Para implementar y operar estas máquinas, los ingenieros han desarrollado algoritmos complejos o conjuntos de reglas basados en computadora, para gobernar sus operaciones. Por ejemplo, un dron aéreo equipado con IA podría estar equipado con sensores para distinguir los tanques enemigos de otros vehículos en un campo de batalla dado y, cuando se detecten algunos, elegir por sí solo (de forma autónoma y sin la intervención de un controlador humano) dispararles con sus misiles a bordo.
Un segundo ejemplo de estas aplicaciones: la IA también se puede emplear en el ciberespacio para monitorear los ciberataques enemigos y contrarrestarlos con una serie de contraataques. En el futuro, las máquinas con IA pueden tener la capacidad de determinar si se está produciendo un ataque nuclear y, de ser así, iniciar un ataque de represalia (tema recurrente en películas , de las cuales una de las más famosas es Dr. Stranglove de Stanley Kubrick, pero que es ahora una posibilidad real).
En este sentido, la IA es una tecnología de «uso omnipresente», con múltiples implicaciones para la guerra y para la lucha contra el terrorismo y el crimen organizado.
Veamos un caso concreto de su aplicación: los sistemas de armas autónomos. Los sistemas de armas autónomos, a veces llamados sistemas de armas autónomos letales, o «robots killers», combinan la tecnología de inteligencia artificial y drones en máquinas equipadas para identificar, rastrear y atacar los activos enemigos de manera autónoma, en que la decisión es producida por el algoritmo y, no por una cadena de mando humana.
Diversas armas de este tipo están, actualmente, en desarrollo, incluidos drones submarinos destinados a la guerra antisubmarina y flotillas enteras de vehículos aéreos no tripulados (drones)diseñados para su uso en «enjambres». Estos «enjambres» o bandadas de drones armados que vuelan sobre el campo de batalla en maniobras coordinadas que son difíciles de controlar. o de seguir por el operador humano, son controlados por un «cerebro» y, suponen la existencia de redes de telecomunicaciones específicas (satélites, etc).
Es evidente que el despliegue de sistemas de armas totalmente autónomos plantea numerosos desafíos para la seguridad internacional y el control de armas, en particular deben ser interpretados como una amenaza potencialmente insuperable para las leyes de la guerra y el derecho internacional humanitario.
Actualmente, unos 25 países han respaldado medidas para preparar y votar un tratado prohibiendo las armas autónomas con inteligencia artificial («robot killers») en forma de protocolo y, bajo el modelo de la Convención sobre ciertas armas convencionales (CAC). Si embargo, estas iniciativas se han enfrentado a posiciones contrarias , en específico de Estados Unidos y Rusia, que se oponen a la prohibición de los sistemas de armas autónomos letales, bajo el argumento de que se pueden establecer protocolos de activación y operación que pueden cumplir con el derecho internacional humanitario (Ius in bello).Nosotros pensamos que tal es un argumento casi imposible de cumplir, o sea , es el equivalente de la «cuadratura del círculo» en términos jurídicos.»