Las plataformas de medios sociales toman decisiones arbitrarias y contradictorias sobre qué discurso bloquear o penalizar de forma rutinaria. Nadie está contento con el status quo: ni la gente que quiere más censura, ni la gente que quiere menos censura, ni, mucho menos, la gente que simplemente quiere que las plataformas tomen decisiones diferentes para que los grupos ya marginados no carguen con el peso de sus políticas de censura. Muchos están buscando una mejor manera de avanzar. EFF ofreció algunas reflexiones sobre esta última semana, pero también hemos estado viendo otra idea persistente e intrigante encabezada en gran parte por nuestros amigos en Article 19: la creación de un consejo de medios sociales (Social Media Council, SMC) para revisar las decisiones sobre la moderación de contenidos. Desde que Facebook anunció  un plan para crear su propia versión, ha habido un aumento del interés en este enfoque. ¿Puede funcionar?

En el fondo, el concepto es relativamente simple: no podemos confiar en que estas plataformas realicen una buena moderación, así que tal vez necesitemos un consejo independiente que les aconseje sobre las formas de hacerlo mejor, y que les llame cuando lo hagan mal. Un consejo también podría proporcionar un mecanismo de apelación independiente para las decisiones de eliminación de contenido.

Hay muchos modelos diferentes para estos consejos. Una corte de apelaciones es una o podríamos buscar en la estructura de arbitraje internacional que maneja las disputas de nombres de dominio, o el de los consejos de prensa europeos que administran los códigos de práctica para periodistas, investigan las quejas sobre el contenido editorial y defienden la libertad de prensa y son financiados por los propios medios de comunicación, pero su objetivo es ser independientes.

Todos estamos a favor de encontrar formas de incorporar más presencia del debido proceso a la censura en la plataforma. Dicho esto, tenemos muchas preguntas. ¿Quién determinaría los miembros del consejo y en qué condiciones? ¿Qué sucede cuando los miembros no están de acuerdo? ¿Cómo podemos asegurar la independencia del consejo de las empresas que se pretende controlar? ¿Quién pagará las cuentas, teniendo en cuenta que se necesitarán fondos importantes para asegurar que no sean atendidos sólo por las pocas organizaciones que pueden permitirse participar? ¿Qué estándares seguirán los consejos para determinar si una determinada decisión es apropiada? ¿Cómo deciden cuáles de los millones de decisiones que se toman son revisadas? ¿Cómo pueden obtener la fluidez cultural para entender las prácticas y el vocabulario de cada comunidad en línea? ¿Sus decisiones serán vinculantes para las empresas que participen y, en caso afirmativo, cómo se aplicarán? En documento reciente se plantean una serie de preguntas adicionales de la Red de Internet y Políticas de Jurisdicción.

Pero nuestra mayor preocupación es que los Consejos de Medios Sociales terminen legitimando un sistema profundamente roto (mientras que hacen muy poco para arreglarlo) o se conviertan en una especie de policía global del habla, estableciendo estándares para lo que está permitido y lo que no está permitido en línea, sea o no legal ese contenido. Nos cuesta decidir qué es peor.

Para ayudar a evitar cualquiera de los dos resultados, aquí hay algunas guías, tomadas en parte de nuestro trabajo sobre Shadow Regulation y los Principios de Santa Clara:

  • Independencia: Los CMS no deben estar sujetos o influenciados por las plataformas que deben asesorar. En la práctica, esto significa que no deben depender directamente de dichas plataformas para su financiación (aunque las plataformas pueden contribuir a un fideicomiso administrado de forma independiente), y las plataformas no deben seleccionar a los miembros del consejo. Además, los consejos deben estar protegidos de las presiones del gobierno.

  • Roles: Los CMS no deben ser reguladores, sino asesores. Por ejemplo, un CMS podría estar encargado de interpretar si las decisiones de una plataforma reflejan con precisión las propias políticas de la plataforma y si esas políticas se ajustan a las normas internacionales de derechos humanos. Los CMS no deben tratar de desempeñar un papel legal, como la interpretación de las leyes locales. Cualquiera de estas funciones podría llevar a los CMS a convertirse en una policía del habla en la práctica, lo que exacerbaría una tendencia existente en la que los responsables de la toma de decisiones extrajudiciales controlan de forma efectiva enormes franjas de expresión en línea. Además, es posible que los miembros del CMS no tengan la capacitación necesaria para interpretar las leyes locales (es de esperar que no todos sean abogados), o que las interpreten de manera sesgada. Para evitar estas trampas, los CMS deberían centrarse en interpretar los estándares específicos de la comunidad y determinar si la empresa se adhiere a sus propias reglas.

  • Tema de la materia: Diferentes plataformas deben ser capaces de tomar diferentes decisiones de moderación, y los usuarios también deben ser capaces de hacerlo. Por lo tanto, en lugar de ser árbitros del discurso "legítimo", determinando una política global a la que deben adherirse todas las plataformas, los CMS deberían centrarse en si una plataforma individual está siendo fiel a sus propias políticas. Los CMS también pueden revisar las políticas para asesorar sobre si las políticas son suficientemente claras, transparentes y están sujetas a una aplicación no discriminatoria, e identificar las áreas en las que son menos protectoras de la palabra que las leyes aplicables o violan las normas internacionales de derechos humanos.

  • Jurisdicción: Algunos han sugerido que los CMS deberían ser internacionales, reflejando el alcance real de muchas plataformas de medios sociales, y deberían tratar de desarrollar e implementar un estándar internacional coherente. Estamos de acuerdo con Article 19 en que un enfoque nacional sería mejor porque un consejo nacional estaría mejor situado para revisar las prácticas de las empresas a la luz de las diferentes normas y expectativas locales. Un enfoque regional también podría funcionar si la legislación y las costumbres de la región son suficientemente coherentes.

  • Personal: Los CMS deben contar con una combinación de expertos en leyes y normas locales, nacionales e internacionales. Para promover la legitimidad, los miembros también deben representar a diversas opiniones y comunidades e idealmente deben ser seleccionados por las personas que se verán afectadas por sus decisiones. Y debe haber fondos suficientes para asegurar que los miembros que no pueden permitirse el lujo de viajar a las reuniones o donar su tiempo sean compensados adecuadamente.

  • Transparencia: El proceso de revisión debe ser transparente y las opiniones finales del Consejo de Medios Sociales deben ser públicas, con la anonimización adecuada para proteger la privacidad del usuario. Además, los CMS deben elaborar informes anuales sobre su trabajo, incluyendo puntos de datos como el número de casos que revisaron, el tipo de contenido al que se dirigen y la forma en que respondieron. New America tiene un buen conjunto de sugerencias específicas sobre transparencia (centradas en Facebook).

Facebook dice que está planeando lanzar su "Oversight Board" para finales de año. Instamos a Facebook y a otros que están jugando con la idea de los Consejos de Medios Sociales a que sigan estas directrices. E instamos a todos los demás, tanto plataformas como sociedad civil, gobiernos y usuarios, a que luchen para asegurar que los esfuerzos para promover el debido proceso en la moderación del contenido no sean pervertidos para apoyar la creación de un sistema internacional, no responsable y extrajudicial.

Tags