Ya no es ciencia ficción ni paranoia irracional. Ahora, hay que decirlo: No, la policía no debe equiparse robots terrestres o drones aéreos. Esto es cierto tanto si estos dispositivos móviles son controlados a distancia por una persona como si son controlados autónomamente por la inteligencia artificial, y tanto si las armas son máximamente letales (como las balas) o menos letales (como los gases lacrimógenos).

En la actualidad, la policía despliega muchos tipos diferentes de tecnologías de movimiento y realización de tareas. Entre ellas se encuentran los drones voladores, los robots desactivadores de bombas por control remoto y los robots de patrulla autónomos. Aunque estos diferentes dispositivos cumplen funciones distintas y operan de manera diferente, ninguno de ellos -absolutamente ninguno- debería estar armado con ningún tipo de arma.

El "mission creep" es muy real. Una y otra vez, las tecnologías que se dan a la policía para que las utilice sólo en las circunstancias más extremas llegan a las calles durante las protestas o para responder a la delincuencia menor. Por ejemplo, los simuladores de sitios celulares (a menudo llamados "Stingrays") se desarrollaron para su uso en campos de batalla extranjeros, se trajeron a casa en nombre de la lucha contra el "terrorismo", y luego fueron utilizados por las fuerzas del orden para atrapar a los inmigrantes y a un hombre que robó comida por valor de 57 dólares. Del mismo modo, la policía ha atacado a los manifestantes de BLM con cámaras de vigilancia facial y timbres de Amazon Ring.

En la actualidad, los científicos están desarrollando un dron autónomo mejorado por la IA, diseñado para encontrar a las personas durante las catástrofes naturales mediante la localización de sus gritos. ¿Cuánto tiempo pasará hasta que la policía utilice esta tecnología para encontrar a los manifestantes que cantan protestando? ¿Y si estos drones autónomos estuvieran armados? Necesitamos una línea roja clara ahora: nada de drones policiales armados, y punto.

La amenaza es real

Ya hay robots y drones de las fuerzas de seguridad de todas las formas, tamaños y niveles de autonomía patrullando en Estados Unidos mientras hablamos. Desde los robots autónomos Knightscope que merodean en busca de "comportamientos sospechosos" y recogen imágenes de matrículas e información de identificación telefónica, hasta los perros robóticos de Boston Dynamic que acompañan a la policía en las llamadas en Nueva York o comprueban la temperatura de las personas sin hogar en Honolulu, pasando por los drones de vigilancia Predatorque sobrevuelan las protestas de BLM en Minneapolis.

Estamos avanzando rápidamente hacia equipar dichos robots y permitir que la inteligencia artificial autónoma determine si se debe apretar el gatillo o no.

Según un informe de Wired de principios de este año, la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos (DARPA) organizó en 2020 una prueba de robots autónomos para ver la rapidez con la que podían reaccionar en una simulación de combate y el grado de orientación humana que necesitarían. La noticia de esta prueba llega sólo unas semanas después de que la Comisión de Seguridad Nacional sobre Inteligencia Artificial del gobierno federal recomendara a Estados Unidos no firmar acuerdos internacionales que prohíban las armas autónomas. "No es factible ni redunda actualmente en el interés de Estados Unidos", afirma el informe, "perseguir una prohibición global de los sistemas de armas autónomos y con IA".

En 2020, el ejército turco desplegó Kargu, un dron armado totalmente autónomo, para cazar y atacar a los adversarios del campo de batalla libio. Los militares turcos también han desplegado drones armados autónomos (aunque no necesariamente para atacar a personas) en Siria, y los militares azerbaiyanos en Armenia. Aunque todavía no hemos visto el despliegue de robots o drones armados autónomos en un contexto policial nacional, las herramientas de guerra utilizadas en el extranjero suelen llegar a casa.

El gobierno de Estados Unidos depende cada vez más de los drones armados en el extranjero. Muchos departamentos de policía parecen comprar cada nuevo y caro juguete que sale al mercado. La policía de Dallas ya ha matado a alguien atando una bomba a un robot desactivador de bombas por control remoto.

Así que los activistas, los políticos y los tecnólogos deben intervenir ahora, antes de que sea demasiado tarde. No podemos permitir que transcurra un tiempo entre el desarrollo de esta tecnología y la creación de políticas que permitan a la policía comprar, desplegar o utilizar robots armados. Por el contrario, debemos prohibir que la policía arme a los robots, ya sea en el aire o en tierra, ya sea automatizado o controlado a distancia, ya sea letal o menos letal, y en cualquier otra configuración aún no imaginada.

No hay robots policiales autónomos armados

Tanto si están armados con una pistola eléctrica, una pistola o un spray de pimienta, los robots autónomos tomarían decisiones en fracciones de segundo para quitar una vida o infligir una lesión grave, basándose en un conjunto de programas informáticos.

Pero las tecnologías policiales funcionan mal todo el tiempo. Por ejemplo, la tecnología de reconocimiento facial, la detección de disparos por audio y los lectores automáticos de matrículas generan con frecuencia falsos positivos. Cuando esto ocurre, la tecnología despliega a la policía armada en una situación en la que puede no ser necesaria, lo que a menudo conduce a detenciones erróneas y a un uso excesivo de la fuerza, especialmente contra personas de color erróneamente identificadas como sospechosas de delitos. Si la tecnología policial que funciona mal estuviera armada y fuera autónoma, se crearía una situación mucho más peligrosa para los civiles inocentes.

Cuando, inevitablemente, un robot hiera o mate injustificadamente a alguien, ¿quién será el responsable? Responsabilizar a la policía por matar a civiles por error ya es bastante difícil. En el caso de una mala decisión automatizada, ¿quién es responsable? ¿La persona que escribió el algoritmo? ¿El departamento de policía que desplegó el robot?

Los robots policiales armados y autónomos podrían convertirse en una forma más de eludir o redirigir la culpa de las infracciones y evitar que se produzcan cambios reales en el funcionamiento de la policía. El debate podría estancarse en la posibilidad de ajustar la inteligencia artificial que guía la toma de decisiones de un robot asesino. Además, la tecnología desplegada por la policía suele ser creada y mantenida por empresas privadas. Una investigación transparente sobre un asesinato erróneo cometido por una máquina autónoma podría verse bloqueada por afirmaciones sobre la supuesta necesidad de la empresa de mantener el secreto comercial de su tecnología patentada, o por acusaciones entre la policía y la empresa. Mientras tanto, no se haría nada para que la gente en las calles estuviera más segura.

El profesor del MIT y cofundador del Instituto del Futuro de la Vida, Max Tegmark, declaró a Wired que las armas de IA deberían ser "estigmatizadas y prohibidas como las armas biológicas". Estamos de acuerdo. Aunque su misión es mucho más amplia que las preocupaciones de esta entrada del blog, puedes conocer más sobre lo que los activistas han estado haciendo en torno a este tema visitando la Campaña para Detener los Robots Asesinos.

Tampoco hay robots policiales armados por control remoto

Incluso cuando la policía tiene control remoto sobre drones y robots armados, los graves peligros para los derechos humanos son demasiado grandes. La policía despliega habitualmente nuevas y potentes tecnologías en comunidades negras, latinas e inmigrantes que ya están excesivamente vigiladas. La policía también las utiliza con demasiada frecuencia como parte del régimen de control de la inmigración de Estados Unidos, y para vigilar las protestas y otras actividades protegidas por la Primera Enmienda. Podemos esperar más de lo mismo con cualquier robot armado.

Además, los robots policiales armados probablemente aumentarían la frecuencia de la fuerza excesiva contra los sospechosos y los transeúntes. Un agente de policía que se encuentre en el lugar de los hechos suele tener más información sobre los peligros que se presentan y las oportunidades de reducir la tensión, en comparación con un agente que se encuentra a kilómetros de distancia y que mira la pantalla de un ordenador portátil. Además, un agente a distancia podría sentir menos empatía por el objetivo humano de la violencia mecánica.

Además, los piratas informáticos intentarán inevitablemente hacerse con robots policiales armados. Ya han conseguido hacerse con el control de las cámaras de vigilancia de la policía. Lo último que necesitamos es que gobiernos extranjeros o delincuentes organizados se hagan con el control de robots policiales armados y los apunten contra personas inocentes.

Los robots policiales armados son especialmente amenazantes en las protestas. Las capacidades de la policía para realizar el control de multitudes por la fuerza son ya demasiado grandes. No hay más que ver cómo el Departamento de Policía de la ciudad de Nueva York ha tenido que pagar cientos de miles de dólares para resolver una demanda civil relacionada con el uso por parte de la policía de un Dispositivo Acústico de Largo Alcance (LRAD) de forma punitiva contra los manifestantes. La policía nunca debe desplegar robots equipados con pistolas eléctricas o drones que arrojen gas pimienta contra una multitud. Los robots armados disuadirían a la gente de asistir a las protestas. Debemos desmilitarizar a nuestra policía, no militarizarla aún más.

Necesitamos una prohibición total de los robots policiales armados, incluso si su uso puede parecer razonable en circunstancias poco comunes. En Dallas, en 2016, la policía ató una bomba a un robot difusor de explosivos para matar a un pistolero escondido en un aparcamiento que ya había matado a cinco policías y disparado a otros siete. Normalizar los robots policiales armados supone una amenaza demasiado grande para el público como para permitir su uso incluso en circunstancias atenuantes. La policía ha demostrado una y otra vez que las tecnologías pensadas sólo para las circunstancias más extremas se convierten inevitablemente en algo habitual, incluso en las protestas.

Conclusión:

Tanto si están controlados por una inteligencia artificial como por un operador humano a distancia, los robots y drones policiales armados suponen una amenaza inaceptable para los civiles. Es exponencialmente más difícil quitar una tecnología de las manos de la policía que evitar que se compre y se despliegue en primer lugar. Por eso es el momento de impulsar una legislación que prohíba el despliegue policial de estas tecnologías. La revolución que se está produciendo en el campo de la robótica exige que actuemos ahora para evitar una nueva era de violencia policial.

Related Issues