A finales de 2024, instamos a Google y Amazon a honrar sus compromisos con los derechos humanos, a ser más transparentes con el público y a tomar medidas concretas ante los riesgos del Proyecto Nimbus, su contrato de computación en la nube que incluye al Ministerio de Defensa de Israel y a la Agencia de Seguridad Israelí. Desde entonces, una serie de reportajes periodísticos han confirmado que nuestras preocupaciones estaban bien fundadas. Sin embargo, a pesar de la creciente evidencia de riesgos graves, ambas empresas se han negado a actuar.
Amazon ha ignorado por completo nuestra carta original y las de seguimiento. Google, por su parte, prometió en repetidas ocasiones responder a nuestras preguntas. Pero más de un año y medio después, ninguna de las dos compañías ha tomado medidas significativas. Ninguna de estas posturas es aceptable dado los compromisos con los derechos humanos que ambas empresas han asumido públicamente.
Cabe señalar, además, que Microsoft necesitó una filtración pública para sentirse suficientemente presionada a investigar y constatar que su cliente, el gobierno israelí, estaba efectivamente haciendo un uso indebido de sus servicios en formas que violaban sus propios compromisos con los derechos humanos. Eso debería haber sido razón más que suficiente para que Google y Amazon revisaran a fondo sus contratos e informaran al público sobre sus hallazgos. Nada de eso ocurrió.
En ese escenario, esperar pruebas definitivas no es una gestión responsable del riesgo: es ceguera deliberada.
Google: riesgos conocidos, ninguna acción concreta
Las propias evaluaciones internas de Google advirtieron sobre los riesgos del Proyecto Nimbus incluso antes de que se firmara el contrato. Medios de comunicación de referencia han reportado que Google proporciona al gobierno israelí servicios avanzados de nube e inteligencia artificial bajo el Proyecto Nimbus, incluyendo almacenamiento masivo de datos, análisis de imágenes y video, y herramientas para el desarrollo de modelos de IA. Se trata de capacidades excepcionalmente potentes, altamente adaptables y perfectamente adecuadas para aplicaciones de vigilancia y uso militar.
A pesar de esas advertencias internas, y de los múltiples reportajes posteriores sobre abusos a los derechos humanos cometidos precisamente por las áreas del gobierno israelí que utilizan los servicios de Google y Amazon, ambas compañías continúan operando con total normalidad. Al parecer, han adoptado la postura de que no necesitan cambiar de rumbo ni explicarse públicamente a menos que los medios u organizaciones externas presenten pruebas definitivas de que sus herramientas fueron utilizadas en violaciones concretas del derecho internacional. Esa evidencia concluyente no ha emergido aún para todas las empresas involucradas, pero los riesgos son evidentes, y ellas mismas los conocen. En lugar de llevar a cabo una diligencia debida en materia de derechos humanos, seria y transparente, Amazon y Google siguen eligiendo mirar hacia otro lado.
Sus propias evaluaciones internas contradicen su postura pública. Según reportes periodísticos, los abogados y el equipo de políticas de Google advirtieron que los servicios de Google Cloud podrían estar vinculados a la facilitación de abusos a los derechos humanos. En ese mismo reporte, empleados de la empresa expresaron preocupación por la posibilidad de que sus herramientas de nube e IA fueran utilizadas con fines de vigilancia o militares, algo que parece muy probable dado el histórico apoyo del gobierno israelí en sistemas avanzados de procesamiento de datos para controlar y monitorear a los palestinos.
Google ha afirmado públicamente que el Proyecto Nimbus "no está orientado a cargas de trabajo altamente sensibles, clasificadas o militares" y que se rige por sus Políticas de Uso Aceptable estándar. Sin embargo, reportes periodísticos han revelado contradicciones en las representaciones sobre los términos del contrato, incluyendo indicios de que el gobierno israelí podría estar autorizado a utilizar cualquier servicio del catálogo de Google Cloud para cualquier propósito. Google se ha negado a aclarar públicamente estas contradicciones, y su falta de transparencia es profundamente preocupante. La brecha entre lo que Google dice en público y lo que sabe internamente debería alarmar a cualquiera que espere tomar en serio los compromisos de la empresa con los derechos humanos.
Los principios de IA de Google y Amazon exigen acción proactiva
Incluso tras ser revisados el año pasado, los Principios de IA de Google siguen comprometiendo a la empresa con el desarrollo y la implementación responsable de sus tecnologías, incluyendo el establecimiento de mecanismos adecuados de supervisión humana, la realización de la debida diligencia y la aplicación de salvaguardas para mitigar consecuencias dañinas y alinearse con los principios ampliamente reconocidos del derecho internacional y los derechos humanos. Aunque los principios actualizados ya no se comprometen explícitamente a evitar categorías enteras de uso dañino, siguen exigiendo que la empresa evalúe los riesgos previsibles, aplique medidas rigurosas de monitoreo y mitigación, y actúe de manera responsable a lo largo de todo el ciclo de vida del desarrollo y la implementación de IA.
Amazon, por su parte, también se ha comprometido con prácticas responsables de IA a través de su marco de IA Responsable para los servicios de AWS. La empresa declara que busca integrar consideraciones de IA responsable en todo el ciclo de vida del diseño, el desarrollo y la operación de IA, enfatizando salvaguardas como la equidad, la explicabilidad, la privacidad y la seguridad, la transparencia y la gobernanza. Amazon también afirma que sus servicios de IA están diseñados con mecanismos de monitoreo y mitigación de riesgos para prevenir resultados dañinos o usos indebidos y permitir una implementación responsable en una amplia variedad de casos de uso.
Google y Amazon tienen el conocimiento, la influencia y la responsabilidad de actuar ahora. No hacerlo también es una decisión.
En este caso, los riesgos no son especulativos ni remotos. Son previsibles, están bien documentados y se agravan por el contexto en el que opera el Proyecto Nimbus: una campaña militar en curso marcada por daños masivos a la población civil y acusaciones creíbles de graves violaciones a los derechos humanos, incluyendo genocidio. En ese escenario, esperar pruebas definitivas no es una gestión responsable del riesgo: es ceguera deliberada.
Los sistemas modernos de nube e inteligencia artificial están diseñados para ser flexibles, personalizables y desplegables a escala, muchas veces más allá de la visibilidad directa del proveedor. Precisamente por eso, la diligencia debida en materia de derechos humanos debe ser proactiva. Esperar a que aparezca un documento filtrado o una denuncia interna que demuestre el uso indebido directo —como ocurrió en el caso de Microsoft— significa esperar a que el daño ya esté hecho.
La experiencia de Microsoft debería haber sido advertencia suficiente
Las recientes revelaciones sobre el uso indebido de las tecnologías de Microsoft por parte del ejército israelí, en violación de los compromisos públicos de la empresa, ilustran con claridad los peligros de esta postura de esperar y ver. Google y Amazon no deberían necesitar un incidente similar para entender lo que está en juego. El uso indebido demostrado de tecnologías comparables, combinado con el propio conocimiento que ambas empresas tienen sobre los riesgos asociados al Proyecto Nimbus, ya debería ser suficiente para impulsar una acción concreta.
La respuesta correcta es actuar de manera responsable y anticipada.
Google y Amazon deben, de manera inmediata:
- Realizar y publicar una evaluación independiente del impacto en derechos humanos del Proyecto Nimbus.
- Revelar cómo evalúan, monitorean y hacen cumplir sus Principios de IA en contratos gubernamentales de alto riesgo, incluyendo —y especialmente— el Proyecto Nimbus.
- Comprometerse a suspender o restringir sus servicios cuando exista un riesgo creíble de daño grave a los derechos humanos, incluso si aún no han surgido pruebas definitivas de uso indebido.
No actuar también es una decisión, y no una que proteja los derechos humanos
Google y Amazon enfatizan públicamente su compromiso con la IA responsable y el respeto a los derechos humanos. Pero esos compromisos carecen de sentido si solo aplican cuando el daño ya es innegable e irreversible. En contextos de conflicto —donde el secreto y la asimetría de la información son la norma—, las empresas deben actuar ante riesgos creíbles, no ante evidencia perfecta.
Google y Amazon tienen el conocimiento, la influencia y la responsabilidad de actuar ahora. No hacerlo también es una decisión, y una que tiene consecuencias reales para personas cuyas vidas ya están en riesgo.












