El conflicto entre Anthropic y el Pentágono, que se ha intensificado rápidamente y que empezó cuando la empresa se negó a dejar que el Gobierno usara su tecnología para espiar a los estadounidenses, ha llegado ahora a los tribunales. El Departamento de Defensa tomó represalias al calificar a la empresa de «riesgo para la cadena de suministro» (SCR). Ahora, Anthropic pide a los tribunales que anulen esa calificación, argumentando que la Primera Enmienda no permite que el Gobierno obligue a una empresa privada a reescribir su código para servir a los fines del Gobierno.

Estamos de acuerdo.

Como explicaron la EFF, la Fundación para los Derechos Individuales y la Expresión, y muchas otras organizaciones de interés público en un escrito presentado en apoyo de la moción de Anthropic, el desarrollo y el funcionamiento de los grandes modelos de lenguaje implican múltiples elecciones expresivas protegidas por la Primera Enmienda. Exigir a una empresa que reescriba su código para eliminar las barreras de seguridad supone obligarla a cambiar su forma de expresarse, lo que constituye una clara violación constitucional. Además, los registros públicos muestran que la designación como SCR tiene por objeto castigar a la empresa tanto por oponerse como por las declaraciones públicas de su director ejecutivo en las que explica que la IA puede potenciar las prácticas de vigilancia que la legislación actual ha demostrado ser incapaz de abordar.

Como también explicamos, las preocupaciones de la empresa sobre cómo utilizará el gobierno su tecnología están bien fundadas. El Gobierno de EE. UU. tiene una larga historia de vigilancia ilegal de sus ciudadanos sin una supervisión judicial adecuada, basada en interpretaciones cuestionables de sus obligaciones constitucionales y legales. El Departamento de Defensa obtiene enormes cantidades de información personal de entidades comerciales, incluyendo la ubicación física de las personas, sus redes sociales y datos de navegación web. Otras agencias gubernamentales siguen recopilando y consultando grandes cantidades de información de los estadounidenses, incluso mediante la adquisición de información de terceros intermediarios de datos.

Cada vez hay más estudios de ciencias sociales que muestran los efectos paralizantes de estas actividades generalizadas. Por miedo a represalias por expresar opiniones impopulares, los disidentes se callan. Y la IA no hace más que agravar el problema. La IA puede analizar rápidamente los enormes conjuntos de datos del gobierno o combinar esa información con datos extraídos de Internet, adquiridos a través del mercado comercial de intermediarios de datos o procedentes de dispositivos de vigilancia de la policía local, y utilizar todos esos datos para construir una imagen completa de la vida de una persona e inferir detalles sensibles como sus creencias religiosas, afecciones médicas, opiniones políticas o incluso sus parejas sexuales. Por ejemplo, una agencia podría usar la IA para deducir la relación de una persona con una mezquita concreta basándose en datos que muestren que visitó su sitio web, siguió sus cuentas en redes sociales y se encontraba cerca de la mezquita durante los servicios religiosos. La IA también puede desanonimizar las publicaciones en línea utilizando información pública para desenmascarar a los usuarios anónimos.

Es fácil imaginar cómo una agencia, un funcionario con malas intenciones o un hacker malintencionado podría aprovechar estas capacidades para vigilar el discurso público, acallar de forma preventiva la disidencia o perseguir a personas de comunidades marginadas. En este contexto, y a falta de cambios significativos en las leyes de seguridad nacional y en la estructura de supervisión judicial, es totalmente razonable que Anthropic —o cualquier otra empresa— insista en establecer sus propias medidas de seguridad.

Sin la intervención del Congreso, la tarea de proteger tu privacidad ha recaído en gran parte en las grandes tecnológicas, algo que nadie quiere, incluidas las propias grandes tecnológicas. Pero si el Congreso no lo hace, se debe permitir que empresas como Anthropic intervengan, sin que se les impongan represalias.

Related Issues