OpenAI, el creador de ChatGPT, se enfrenta con razón a críticas generalizadas por su decisión de llenar el vacío que dejó el Departamento de Defensa de EE. UU. (DoD) cuando su rival Anthropic se negó a eliminar sus restricciones al uso de su IA para sistemas de vigilancia y armas autónomas. Tras las protestas tanto de usuarios como de empleados que no estaban de acuerdo con apoyar la vigilancia masiva del gobierno —los primeros informes indican que las desinstalaciones de ChatGPT aumentaron casi un 300 % después de que la empresa anunciara el acuerdo—, Sam Altman, director ejecutivo de OpenAI, admitió que el acuerdo inicial era « ». A continuación, volvió a publicar un memorándum interno en las redes sociales en el que afirmaba que las adiciones al acuerdo dejaban claro que «de conformidad con las leyes aplicables, incluida la Cuarta Enmienda de la Constitución de los Estados Unidos, la Ley de Seguridad Nacional de 1947 [y] la Ley FISA de 1978, el sistema de IA no se utilizará intencionadamente para la vigilancia interna de personas y ciudadanos estadounidenses».

El problema es que el Gobierno de EE. UU. no cree que «de conformidad con las leyes aplicables» signifique «sin vigilancia interna». En cambio, en su mayor parte, el Gobierno ha adoptado una interpretación laxa de la «ley aplicable» que ha bendecido la vigilancia masiva y las violaciones a gran escala de nuestras libertades civiles, y luego ha luchado con uñas y dientes para impedir que los tribunales se pronuncien al respecto.

«Al fin y al cabo, muchas de las atrocidades contra los derechos humanos más notorias del mundo han sido históricamente “legales” según las leyes vigentes en ese momento».

La palabra «intencionadamente» también tiene un gran peso en esa frase. Durante años, el Gobierno ha insistido en que la vigilancia masiva de ciudadanos estadounidenses solo ocurre de forma incidental (léase: no intencionadamente) porque sus comunicaciones con personas tanto dentro de Estados Unidos como en el extranjero quedan atrapadas en programas de vigilancia supuestamente diseñados para recopilar únicamente comunicaciones fuera de Estados Unidos.

La enmienda del contrato de  en la misma línea: «Para evitar cualquier duda, el Departamento entiende que esta limitación prohíbe el seguimiento, la vigilancia o el control deliberados de personas o ciudadanos estadounidenses, incluso mediante la obtención o el uso de información personal o identificable adquirida comercialmente». En este caso, el término «deliberado» es motivo de preocupación, dada la frecuencia con la que los organismos de inteligencia y las fuerzas del orden recurren a datos incidentales o adquiridos comercialmente para eludir las protecciones de privacidad más estrictas.

He aquí otra: «El sistema de IA no se utilizará para el control sin restricciones de la información privada de personas estadounidenses, de conformidad con estas autoridades. El sistema tampoco se utilizará para actividades de aplicación de la ley a nivel nacional, salvo en los casos permitidos por la Ley Posse Comitatus y otras leyes aplicables». Uno se pregunta: ¿qué significa exactamente «sin restricciones» y según quién?

Los abogados a veces llaman a esto «palabras ambiguas» porque crean una ambigüedad que protege a una u otra parte de la responsabilidad real por el incumplimiento de los contratos. Al igual que en las negociaciones entre el Pentágono , donde, según se informa, el Pentágono acordó respetar las líneas rojas de Anthropic solo «cuando fuera apropiado», es probable que el Gobierno esté intentando comprometerse públicamente con unos límites en principio, pero conservando una amplia flexibilidad en la práctica.

OpenAI también señala que el Pentágono prometió que no se permitiría a la NSA utilizar las herramientas de OpenAI sin un nuevo acuerdo, y que su arquitectura de implementación ayudará a verificar que no se traspasen las líneas rojas. Pero los acuerdos secretos y las garantías técnicas nunca han sido suficientes para frenar a las agencias de vigilancia, y no sustituyen a unos límites legales sólidos y exigibles ni a la transparencia.

Es posible que los ejecutivos de OpenAI estén intentando, tal y como afirman, utilizar la relación contractual de la empresa con el Pentágono para ayudar a garantizar que el Gobierno utilice las herramientas de IA únicamente de forma coherente con los procesos democráticos. Pero, basándonos en lo que sabemos hasta ahora, esa esperanza parece muy ingenua.

Además, esa ingenuidad es peligrosa. En una época en la que los gobiernos están dispuestos a adoptar interpretaciones extremas e infundadas de las «leyes aplicables», las empresas deben respaldar con medidas concretas el cumplimiento de sus compromisos. Al fin y al cabo, muchas de las atrocidades contra los derechos humanos más notorias del mundo han sido históricamente «legales» según las leyes vigentes en ese momento. OpenAI promete al público que «evitará permitir usos de la IA o la IGA que perjudiquen a la humanidad o concentren indebidamente el poder», pero sabemos que permitir la vigilancia masiva hace ambas cosas.     

OpenAI no es la única empresa orientada al consumidor que, por un lado, intenta tranquilizar al público asegurándole que no participa en acciones que violen los derechos humanos y, por otro, busca sacar provecho de las iniciativas de vigilancia masiva del gobierno.  A pesar de este doble discurso de marketing, está muy claro que las empresas simplemente no pueden hacer ambas cosas. También está claro que, para empezar, no se debería otorgar a las empresas tanto poder sobre los límites de nuestra privacidad. El público no debería tener que depender de un pequeño grupo de personas  —ya sean directores ejecutivos o funcionarios del Pentágono— para proteger nuestras libertades civiles.

Related Issues