La decisión de hoy, tomada por parte de la Junta de Supervisión de Facebook sobre la suspensión de la cuenta del presidente Trump -de prorrogar la suspensión durante seis meses y exigir a Facebook que la reevalúe a la luz de las políticas declaradas de la plataforma- puede resultar frustrante para quienes esperaban una resolución definitiva. Pero también es un señalamiento, cuidadoso y necesario, de lo opaco e incoherente en el enfoque de moderación de Facebook , ofreciendo varias recomendaciones para ayudar a Facebook a mejorar, centradas especialmente en la coherencia y la transparencia. La coherencia y la transparencia deberían ser las señas de identidad de todas las decisiones sobre contenidos. Con demasiada frecuencia, no se cumple ninguna de las dos características. Tal vez lo más importante es que el Consejo afirma que no puede ni debe permitir que Facebook eluda sus responsabilidades ante sus usuarios. Estamos de acuerdo.

La resolución es larga y detallada, y vale la pena revisarla con detenimiento. Entretanto, aquí está nuestro primer análisis:

La decisión de hoy afirma, una vez más, que ningún tipo de "supervisión" puede solucionar el problema de fondo.

En primer lugar, aunque el Consejo de Supervisión se negó, con razón, a establecer normas especiales para los políticos, normas a las que ya nos habíamos opuesto, sí aprobó normas y procedimientos especiales para los "usuarios influyentes" y las publicaciones de interés periodístico. Estas normas reconocen que algunos usuarios pueden causar más daño que otros. En la práctica, cada decisión de eliminar una publicación o suspender una cuenta es muy contextual y requiere a menudo una competencia cultural muy específica. Pero estamos de acuerdo en que las normas especiales para los usuarios influyentes o los contenidos altamente noticiables requieren una transparencia aún mayor y la inversión de recursos sustanciales.

En concreto, el Consejo de Supervisión explica que Facebook tiene que documentar bien todas estas decisiones especiales, explicar claramente cómo se aplica cualquier concesión de noticiabilidad a las cuentas influyentes, explicar claramente cómo realiza las comprobaciones cruzadas de dichas decisiones, incluyendo su justificación, normas y procesos de revisión, y los criterios para determinar qué páginas se incluyen. Y Facebook debería informar de los índices de error y la coherencia temática de las determinaciones en comparación con sus procedimientos ordinarios de aplicación.

En términos más generales, el Consejo de Supervisión también señala correctamente que el sistema de sanciones de Facebook es poco claro y que debe explicar mejor su proceso de strikes y sanciones, e informar a los usuarios de los strikes y sanciones impuestos contra ellos.

Estamos totalmente de acuerdo, como subrayó el Consejo de Supervisión, en que "las restricciones a la expresión son a menudo impuestas por o a instancias de poderosos actores estatales contra las voces disidentes y los miembros de las oposiciones políticas" y que "Facebook debe resistir la presión de los gobiernos para silenciar a su oposición política". El Consejo de Supervisión instó a Facebook a tratar estas solicitudes con especial cuidado. También habría exigido que se informara públicamente de todas esas solicitudes.

El Consejo de Supervisión también señaló correctamente la necesidad de que Facebook recoja y conserve las publicaciones eliminadas. Estas publicaciones son importantes para preservar el registro histórico, así como para la información sobre derechos humanos, las investigaciones y la rendición de cuentas.

Aunque la decisión de hoy refleja un notable esfuerzo por aplicar un marco internacional de derechos humanos, nos sigue preocupando que un Consejo de Supervisión cuya composición está centrada en EE.UU. no esté en la mejor posición para ayudar a Facebook a mejorar. Pero el Consejo de Supervisión reconoció la dimensión internacional de los problemas a los que se enfrenta y respaldó el Plan de Acción de Rabat, de la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, como marco para evaluar la eliminación de publicaciones que puedan incitar a la hostilidad o la violencia. En concreto, no aplicó la Primera Enmienda, a pesar de que los hechos que condujeron a la decisión se centraron en Estados Unidos.

En general, son buenas recomendaciones y estaremos atentos para ver si Facebook las toma en serio. Y agradecemos que el Consejo de Supervisión se niegue a tomar las decisiones difíciles de Facebook por él. Sin embargo, la decisión de hoy confirma, una vez más, que ningún tipo de "supervisión" puede solucionar el problema subyacente: la moderación de contenidos es extremadamente difícil de hacer bien, especialmente cuando hablamos de la escala de Facebook.