Pía Devoto: “Con la Inteligencia Artificial (IA) las guerras del futuro pueden ser escalofriantes”
Desde Amnistía Internacional advierten sobre las armas autónomas. Se trata de una importante Campaña contra los Robots Asesinos.
Se ha presentado un filtro para redes sociales que permite dar una aterradora ojeada al futuro de la guerra, la actuación policial y el control de fronteras. Escape the Scan, un filtro para Instagram y Facebook, forma parte de una importante campaña que pide una nueva legislación internacional que prohíba los sistemas de armas autónomos.
El filtro emplea tecnología de realidad aumentada (RA) para mostrar aspectos de sistemas de armas que ya se están desarrollando, como el reconocimiento facial, los sensores de movimiento y la capacidad de lanzar ataques sobre “objetivos” sin un control humano significativo.
En comunicación con La Perra Vida de Radio Universidad la vocera de Amnistía Internacional, Pia Devoto, manifestó “que un sistema de armas autónomas es un sistema que puede seleccionar y atacar sin intervención humana. El sistema se reinicia en función de la información. Estamos hablando de cómo se verán las guerras en el futuro, nos referimos a los drones, este sistema de armas puede estar en un submarino, en helicópteros, en un misil. Es la Inteligencia Artificial (IA) que se aplica a cualquier tipo de arma. Es escalofriante al principio”.
Se ha podido comprobar que varios países están realizando una fuerte inversión en el desarrollo de armas autónomas, a pesar de las devastadoras implicaciones para los derechos de otorgar a las máquinas control sobre el uso de la fuerza. En diciembre, un grupo de expertos de la ONU se reunirá para decidir si se empieza a negociar una nueva legislación internacional sobre la autonomía de los sistemas de armas. Amnistía Internacional y Stop Killer Robots han lanzado una petición dirigida a todos los gobiernos para que muestren su apoyo a las negociaciones.
Escape the Scan estará disponible a partir del 2 de noviembre en las páginas de Instagram y Facebook de Stop Killer Robots. Será una versión más amplia del filtro se expondrá en el marco de una experiencia interactiva en Westfield Stratford City (Londres), uno de los centros comerciales más grandes de Europa, a partir de hoy y durante las dos próximas semanas.
La sustitución de tropas por máquinas facilita que se decida ir a la guerra. Además, las máquinas no pueden tomar decisiones éticas complejas en el contexto de un campo de batalla impredecible o situaciones del mundo real; no se puede sustituir la toma de decisiones humana. “Ya hemos visto cómo tecnologías como el reconocimiento facial, de emociones, de la forma de caminar y de la voz no reconocen a personas negras y personas con discapacidad; y cómo causan enormes perjuicios en materia de derechos humanos incluso cuando 'funcionan'. Emplear estas tecnologías en el campo de batalla, en la actuación policial o en el control de fronteras sería desastroso.”, explicaron desde Amnistía Internacional.
Pese a estos motivos de preocupación, países como Estados Unidos, China, Israel, Corea del Sur, Rusia, Australia, India, Turquía y Reino Unido están realizando fuertes inversiones en el desarrollo de sistemas autónomos. Por ejemplo, Reino Unido está desarrollando un vehículo aéreo no tripulado capaz de volar de manera autónoma e identificar un objetivo en una zona programada. China está creando “enjambres” de pequeños drones que podrían programarse para atacar cualquier cosa que emita temperatura corporal, y Rusia ha construido un tanque robot al que se le puede acoplar una ametralladora o un lanzagranadas.
Finalmente Pia Devoto recalcó que estamos hablando de otra tecnología mucho más delicada. “Ya no son los drones tripulados y monitoreados por un operador. Tienen cargados los objetivos y no necesitan contacto con los operadores. Se pudo conocer que en Libia se utilizaron drones completamente autónomos, salió en un informe que difunde Naciones Unidas (ONU), este drone persiguió a los rebeldes y disparó a los vehículos. Una verdadera arma autónoma. ”, concluyó la vocera.