English version

San Francisco - The Electronic Frontier Foundation y más de 70 grupos de derechos humanos y digitales pidieron hoy a Mark Zuckerberg que añadiera transparencia y responsabilidad real al proceso de eliminación de contenidos de Facebook. Específicamente, los grupos exigen que Facebook explique – claramente -  cuánto contenido elimina, correcta o incorrectamente, y que proporcione a la totalidad de sus usuarios un método justo y oportuno para apelar estas eliminaciones y ver la restitución de su contenido.

Mientras que Facebook ya está bajo una enorme -y creciente - presión para eliminar material que es verdaderamente amenazante, sin transparencia, imparcialidad y procesos para identificar y corregir errores, las políticas de eliminación de contenidos de Facebook con demasiada frecuencia resultan contraproducentes y silencian a las mismas personas que deberían poder hacer oír sus voces en la plataforma.

Políticos, museos, celebridades y otros grupos e individuos de alto perfil cuyo contenido removido indebidamente puede atraer la atención de los medios de comunicación, pueden tener pocos problemas para llegar a Facebook y recuperar el contenido; a veces incluso reciben una disculpa. ¿Pero el o la usuario/a medio? No tanto. Facebook solo permite a la gente apelar las decisiones sobre contenido en un conjunto limitado de circunstancias, y en muchos casos, los usuarios no tienen absolutamente ninguna opción para apelar. Onlinecensorship.org, un proyecto de EFF en el que cualquier usuario puede denunciar avisos de retirada de contenido, ha recopilado informes de cientos de incidentes de eliminaciones injustificadas en los que no se disponía de recursos. Para la mayoría de usuarios y usuarias, el contenido que Facebook elimina rara vez se restaura, y algunas personas son expulsados de la plataforma sin una buena razón.

EFF, Artículo 19, el Centro para la Democracia y la Tecnología, y Ranking Digital Rights escribieron hoy directamente a Mark Zuckerberg exigiendo que Facebook implemente estándares basados en el sentido común para que los usuarios y usuarias promedio puedan fácilmente apelar las decisiones de moderación de contenido, recibir respuestas rápidas y revisiones oportunas por parte de una persona o personas, y la oportunidad de presentar evidencia durante el proceso de revisión. La carta fue firmada conjuntamente por más de 70 organizaciones de derechos humanos, derechos digitales y libertades civiles de Sudamérica, Europa, Oriente Medio, Asia y África.

"No hace falta ser alguien famoso ni aparecer en los titulares para que Facebook responda a las malas decisiones de moderación de contenido, pero eso es exactamente lo que está ocurriendo", dijo la directora de Libertad de Expresión Internacional de la EFF, Jillian York. "Mark Zuckerberg creó una compañía que es la plataforma de comunicaciones más importante del mundo. Tiene una responsabilidad con todos los usuarios, no solo con aquellos que pueden hacer más ruido y hacer que la compañía – potencialmente –se vea mal".

Además de implementar un proceso de apelación significativo,  EFF y sus socios pidieron al Sr. Zuckerberg la emisión de informes de transparencia sobre la aplicación de las normas comunitarias que incluyeran un desglose del tipo de contenido que ha sido restringido, datos sobre cómo se iniciaron las acciones de moderación de contenido y el número de decisiones que fueron apeladas y  que a raíz de esto,  se demostró que fueron un error.

"Facebook está muy por detrás de sus competidores cuando se trata de transparencia y responsabilidad en las decisiones de censura de contenidos", dijo Nate Cardozo, Asesor Senior de Seguridad de la Información de EFF. "Le pedimos al Sr. Zuckerberg que implemente los Principios de Santa Clara, y que publique números reales detallando la frecuencia con la que Facebook elimina el contenido y la frecuencia con la que lo hace de forma incorrecta".

"Sabemos que las políticas de moderación de contenido se están aplicando de manera desigual y que una enorme cantidad de contenido se está eliminando de forma inadecuada cada semana. Pero no tenemos cifras o datos que puedan decirnos qué tan grande es el problema, qué contenido se ve más afectado y cómo se trataron las apelaciones", dijo Cardozo. "El Sr. Zuckerberg debería hacer transparente estas decisiones, que afectan a millones de personas en todo el mundo, una prioridad en Facebook."

La carta:
https://santaclaraprinciples.org/open-letter-spanish/

Los Principios de Santa Clara:
https://santaclaraprinciples.org/

Para más información sobre la censura privada:
https://www.eff.org/deeplinks/2018/09/platform-censorship-lessons-copyright-wars
https://www.eff.org/deeplinks/2018/04/smarter-privacy-rules-what-look-what-avoid

Contact: