Mientras continúa la sonada batalla entre el Departamento de Defensa y Anthropic sobre si el gobierno puede sancionar a una empresa por negarse a que su tecnología se use para la vigilancia masiva, otra agencia del gobierno estadounidense trabaja en silencio para asegurarse de que esta disputa no vuelva a ocurrir. ¿Cómo? Reescribiendo las normas de contratación pública.

Utilizar las contrataciones públicas —es decir, los procesos mediante los cuales los gobiernos adquieren bienes y servicios— para alcanzar objetivos de políticas públicas es una estrategia tradicional y, a menudo, adecuada. El gobierno expresa literalmente su política y sus prioridades al decidir dónde y cómo gasta su dinero. Con ese fin, los gobiernos pueden y deben destinar el dinero de nuestros impuestos a empresas y proyectos que sirvan al interés público, como el desarrollo de software de código abierto, la interoperabilidad o el derecho a reparar. Y deberían negarle esos fondos a quienes no lo hacen, como a contratistas dudosos con sistemas de seguridad deficientes.

Se supone que las nuevas normas propuestas para la principal agencia encargada de adquirir bienes, propiedades y servicios para el gobierno federal, la Administración de Servicios Generales (GSA, por sus siglas en inglés), son principalmente un esfuerzo por implementar una prioridad política: promover la innovación estadounidense en IA de manera «ideológicamente neutral». Pero las nuevas directrices van mucho más allá.

Tal como se explica en los comentarios presentados hoy junto con nuestros socios del Centro para la Democracia y la Tecnología, el Proyecto Proteger la Democracia y el Centro de Información de Privacidad Electrónica, las directrices de la GSA incluyen disposiciones amplias que harían que las herramientas de IA sean menos seguras y menos útiles. De aprobarse definitivamente, estas disposiciones se convertirían en cláusulas estándar de todo contrato federal. Puedes leer los comentarios completos aquí.

El ejemplo más indignante es el requisito de que los contratistas y proveedores de servicios gubernamentales deban licenciar sus sistemas de IA al gobierno para «todos los fines legales». Dada la laxa interpretación de la ley por parte del gobierno, su capacidad para encontrar vacíos legales para vigilar a la población y su disposición a espiar de manera ilegal, necesitamos restricciones legales serias y proactivas para evitar que devore todos los datos personales que pueda conseguir y que utilice incluso datos burocráticos de rutina con fines punitivos.

En ese mismo sentido, el borrador de las normas exige que «los sistemas de IA no deben negarse a generar resultados de datos o a realizar análisis basándose en las políticas discrecionales del contratista o proveedor de servicios». En otras palabras, si las barreras de seguridad de una empresa pudieran impedir que se responda a una solicitud del gobierno, la empresa deberá desactivarlas. Dadas las amplias preocupaciones ciudadanas sobre la seguridad de la IA, limitar las salvaguardias que una empresa considera necesarias parece, en el mejor de los casos, un despropósito.

Existen un sinfín de otros problemas con este borrador, como los requisitos «anti-woke», que resultan incoherentes a nivel tecnológico. Sin embargo, el problema principal es claro: gran parte de esta propuesta no serviría al interés público general de utilizar el dinero de los contribuyentes para promover la privacidad, la seguridad y la innovación tecnológica responsable. La GSA debería empezar de cero.

Related Issues