Tener una conversación privada es un derecho humano básico. Como el resto de nuestros derechos, no deberíamos perderlo cuando nos conectamos a Internet. Pero una nueva propuesta de la Unión Europea podría tirar por la ventana nuestros derechos de privacidad.
DILE AL PARLAMENTO EUROPEO: DEJA DE ESCANEARME
El órgano ejecutivo de la Unión Europea está impulsando una propuesta que podría llevar al escaneo obligatorio de todos los mensajes privados, fotos y vídeos. La Comisión Europea quiere abrir los datos íntimos de nuestras vidas digitales para que sean revisados por un software de escaneo aprobado por el gobierno, y luego cotejados con las bases de datos que mantienen imágenes de abuso infantil.
La tecnología no funciona bien. Y lanzar un sistema con "espías en los bolsillos" es simplemente un error, incluso cuando se hace en nombre de la protección de los niños.
No necesitamos vigilantes gubernamentales que revisen nuestras conversaciones privadas, ya sea la IA, los bots o la policía en directo. Los adultos no lo necesitan, y los niños tampoco.
Si estás en uno de los 27 miembros de países de la UE, es un buen momento para ponerse en contacto con su diputado al Parlamento Europeo y hacerle saber que se opone a esta peligrosa propuesta. Hoy, nuestros socios de European Digital Rights (EDRi) han lanzado una campaña sitio web llamado "Stop Scanning Me", con más información sobre la propuesta y sus problemas. Presenta un detallado análisis jurídico del reglamento, y una carta firmada por 118 ONG que se oponen a esta propuesta, incluida la EFF. ¡Los germanoparlantes también pueden ver y compartir el sitio web Chatkontrolle Stoppen! Sitio web gestionado por grupos de libertades civiles alemanes.
Aunque no seas residente en la UE, esta normativa debería preocuparte. Las grandes plataformas de mensajería no se retirarán de este mercado masivo, aunque eso signifique abandonar los compromisos de privacidad y seguridad con sus usuarios. Esto afectará a los usuarios de todo el mundo, incluso a los que no se comunican regularmente con personas de la UE.
"Órdenes de detección" para escuchar conversaciones privadas
La propuesta de Reglamento sobre el abuso sexual infantil (CSAR) de la UE es un decepcionante paso atrás. En el pasado, la UE ha tomado la delantera en la legislación sobre privacidad que, aunque no es perfecta, ha ido en la dirección de aumentar, en lugar de disminuir, la privacidad de las personas, como el Reglamento General de Protección de Datos (RGPD) y la Directiva sobre privacidad electrónica. Pero el Reglamento CSA va en la dirección contraria. No respeta la Carta de Derechos Fundamentales de la UE y socava la recién aprobada Ley de Servicios Digitales que ya otorga poderes a las autoridades para eliminar contenidos ilegales.
La propuesta exige a las plataformas en línea y a los proveedores de servicios de mensajería que mitiguen los contenidos abusivos e incentiva la supervisión general de las comunicaciones de los usuarios. Pero si después de estas medidas de mitigación siguen existiendo riesgos "significativos" de abuso sexual infantil en línea -y no está del todo claro lo que esto significa en la práctica- las fuerzas del orden pueden enviar "órdenes de detección" a las plataformas tecnológicas. Una vez que se emita una orden de detección, se podría exigir a la empresa que gestiona la plataforma que escanee los mensajes, fotos, vídeos y otros datos utilizando un software aprobado por las fuerzas del orden.
Con las órdenes de detección en marcha, las plataformas no podrán albergar conversaciones verdaderamente privadas. Ya sea que estén escaneando los mensajes de la gente en un servidor central o en sus propios dispositivos simplemente no serán compatibles con el cifrado de extremo a extremo.
No contentos con revisar nuestros datos y cotejarlos con las bases de datos gubernamentales de abusos infantiles existentes, los autores de la propuesta van mucho más allá. El CSAR sugiere utilizar algoritmos para adivinar qué otras imágenes podrían representar un abuso. Incluso planea buscar el "grooming" utilizando la IA para revisar los mensajes de texto de la gente y tratar de adivinar qué comunicaciones podrían sugerir futuros abusos a menores.
Las grandes empresas de redes sociales a menudo ni siquiera pueden cumplir las promesas de sus propias políticas de moderación de contenidos. Es increíble que los legisladores de la UE puedan ahora obligar a estas empresas a utilizar sus algoritmos de vigilancia rotos para acusar a sus propios usuarios de los peores tipos de delitos.
La Comisión Europea promueve una IA para la detección de delitos que no funciona
Es difícil auditar la exactitud del software más utilizado para detectar material de abuso sexual infantil (CSAM). Pero los datos que han salido a la luz deberían hacer saltar las alarmas, no animar a los legisladores a seguir adelante.
- Un estudio de Facebook descubrió que el 75% de los mensajes marcados por su sistema de escaneo para detectar material de abuso infantil no eran "maliciosos", e incluían mensajes como chistes malos y memes.
- LinkedIn informó de 75 casos de sospecha de CSAM a las autoridades de la UE en 2021. Tras la revisión manual, sólo 31 de esos casos alrededor del 41%- implicaban CSAM confirmado.
- Los datos de Irlanda recientemente publicados en un informe de nuestros socios de EDRi (véase la página 34) muestran más imprecisiones. En 2020, la policía irlandesa recibió 4.192 informes del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). De ellas, 852 remisiones (20,3%) se confirmaron como CSAM reales. De ellas, 409 remisiones (9,7%) se consideraron "procesables" y 265 remisiones (6,3%) fueron "completadas" por la policía irlandesa.
A pesar de la insistencia de los promotores y de los funcionarios encargados de hacer cumplir la ley en que el software de escaneo tiene niveles de precisión mágicamente altos, fuentes independientes lo dejan claro: el escaneo generalizado produce un número significativo de acusaciones falsas. Una vez que la UE vote para empezar a utilizar el software en miles de millones de mensajes más, se producirán millones de acusaciones falsas más. Estas falsas acusaciones se transmiten a las fuerzas del orden. En el mejor de los casos, son un despilfarro; también tienen el potencial de producir sufrimiento en el mundo real.
Los falsos positivos causan un daño real. Una historia reciente del New York Times destacó un escaneo CSAM errado por parte de Google que identificó erróneamente a dos padres estadounidenses de niños pequeños como abusadores de menores. En realidad, ambos hombres habían enviado fotos médicas de infecciones en sus hijos a petición de sus pediatras. Sus datos fueron revisados por la policía local, y los hombres fueron absueltos de cualquier delito. A pesar de su inocencia, Google eliminó permanentemente sus cuentas, defendió el fallido sistema de IA y defendió su opaco proceso de revisión humana.
En cuanto a los datos irlandeses recientemente publicados, la policía nacional irlandesa verificó que actualmente conserva todos los datos personales que les ha remitido el NCMEC, incluidos los nombres de usuario, las direcciones de correo electrónico y otros datos de usuarios inocentes verificados.
Cultivar el pajar
Los abusos a menores son horrendos. Cuando se utiliza la tecnología digital para intercambiar imágenes de abusos sexuales a menores, es un delito grave que merece ser investigado y perseguido.
Por eso no debemos malgastar esfuerzos en acciones que son ineficaces e incluso perjudiciales. La inmensa mayoría de las interacciones en Internet no son actos delictivos. La policía que investiga los delitos en línea ya se encuentra en la situación de buscar la proverbial "aguja en un pajar". Introducir el escaneo obligatorio de nuestras fotos y mensajes no les ayudará a acotar el objetivo, sino que ampliará masivamente el "pajar".
La propuesta de reglamento de la UE también sugiere la verificación obligatoria de la edad como vía para reducir la propagación del CSAM. No hay ninguna forma de verificación de la edad en línea que no tenga efectos negativos sobre los derechos humanos de los hablantes adultos. Las empresas de verificación de la edad tender a recoger (y compartir) datos biométricos. El proceso también interfiere con el derecho de los adultos a hablar de forma anónima, un derecho que es especialmente vital para los disidentes y las minorías que pueden estar oprimidos, o inseguros.
Los Estados de la UE u otras naciones occidentales pueden ser los primeros en prohibir la codificación para escanear todos los mensajes. No serán los últimos. Los gobiernos de todo el mundo han dejado claro que quieren leer los mensajes cifrados de la gente. Estarán encantados de poner de relieve el terrorismo, los crímenes contra los niños u otras atrocidades si con ello consiguen que sus ciudadanos acepten más vigilancia. Si se aprueba esta normativa, los países autoritarios, que a menudo ya cuentan con regímenes de vigilancia, exigirán aplicar el escaneo de mensajes al estilo de la UE para encontrar sus propios "delitos". La lista incluirá probablemente a los gobiernos que atacan a los disidentes y criminalizan abiertamente a las comunidades LBGT+.