Estimado Mark Zuckerberg:
¿Qué tienen en común el Museo de Arte de Filadelfia, una parlamentaria danesa, y un presentador de noticias de Filipinas? Todos ellos han sido objeto de una aplicación incorrecta de los estándares de la comunidad de Facebook. Pero a diferencia del usuario medio, cada una de estas personas y entidades que recibieron la atención de los medios de comunicación, pudieron ponerse en contacto con el personal de Facebook y, en algunos casos, recibieron una disculpa y la restauración de su contenido. Para la mayor parte de las personas, el contenido que Facebook elimina rara vez se restaura y algunos usuarios pueden ser expulsados de la plataforma incluso en caso de error.
Cuando Facebook apareció por primera vez en nuestras pantallas, los usuarios que infringían sus reglas y a los cuales se les removía el contenido o se les desactivaba su cuenta, recibían un mensaje que les informaba que la decisión era definitiva y sin lugar a apelación. Fue recién en 2011, después de años de esfuerzos por parte de organismos de derechos humanos, que su empresa añadió un mecanismo para apelar las desactivaciones de cuentas, y sólo en 2018 Facebook inició un proceso para remediar la apropiación ilícita de ciertos tipos de contenido. Esas apelaciones están disponibles para artículos retirados por desnudez, actividad sexual, incitación al odio o violencia gráfica.
Este es un avance positivo, pero no es suficiente.
Hoy, desde las organizaciones de la sociedad civil abajo firmantes, hacemos un llamamiento a Facebook para que proporcione un mecanismo para que todos sus usuarios puedan apelar las restricciones de contenido y, en todos los casos, para que la decisión apelada sea revisada de nuevo por un moderador humano.
La misión declarada de Facebook es dar a la gente el poder de construir comunidad y hacer que el mundo se acerque más. Con más de dos mil millones de usuarios y una amplia variedad de funciones, Facebook es la principal plataforma de comunicación mundial. Sabemos que reconoce la responsabilidad que tiene para prevenir el abuso y mantener a los usuarios seguros. Como sabe, las empresas de redes sociales, entre ellas Facebook, tienen la responsabilidad de respetar los derechos humanos, y los organismos internacionales y regionales de derechos humanos tienen una serie de recomendaciones específicas para mejorar, en particular en lo que se refiere al derecho al recurso.
Facebook está muy por detrás respecto a sus competidores en cuanto a permitir a sus usuarios el debido proceso1 Sabemos, por años de investigación y documentación, que los moderadores de contenido humano, así como los algoritmos de aprendizaje automatizado, son propensos a cometer errores, y que incluso las tasas de error más bajas pueden resultar en millones de usuarios silenciados al operar a una escala masiva. Sin embargo, los usuarios de Facebook solo pueden apelar las decisiones sobre el contenido en un conjunto limitado de circunstancias, y es imposible que los usuarios sepan cuán extendidos son los retiros de contenido erróneo sin una mayor transparencia por parte de Facebook. 2
Aunque reconocemos que Facebook puede y de hecho da forma a sus Estándares Comunitarios de acuerdo con sus valores, la compañía, sin embargo, tiene la responsabilidad de respetar la expresión de sus usuarios y usuarias de la mejor manera posible. Además, grupos de la sociedad civil de todo el mundo han criticado la forma en que las normas comunitarias de Facebook muestran sesgos y se aplican de manera desigual en diferentes idiomas y contextos culturales. Ofrecer un mecanismo de remedio efectivo, así como una mayor transparencia, contribuirá en gran medida a apoyar la expresión del usuario.
A principios de este año, un grupo de defensores y académicos presentó los Principios de Santa Claraobre Transparencia y Rendición de Cuentas en la Moderación de Contenidos, que recomiendan un conjunto de estándares mínimos para la transparencia y apelaciones significativas. Este conjunto de recomendaciones es coherente con el trabajo del Relator Especial de la ONU sobre la promoción del derecho a la libertad de expresión y de opinión, David Kaye, quien recientemente pidió un "marco para la moderación de los contenidos en línea generados por usuarios que sitúe los derechos humanos en su centro". También es coherente con los Principios Rectores de las Empresas y los Derechos Humanos de las Naciones Unidas, que articulan las responsabilidades de las empresas en materia de derechos humanos.
En concreto, pedimos a Facebook que incorpore los Principios de Santa Clara en sus políticas y prácticas de moderación de contenidos y que proporcione:
Aviso: Explicar claramente a los usuarios por qué su contenido ha sido restringido.
-
Las notificaciones deben incluir, al menos, la cláusula específica de las normas comunitarias que se supone ha violado el contenido borrado.
-
La notificación debe ser lo suficientemente detallada para permitir al usuario identificar específicamente el contenido restringido y debe incluir información sobre cómo se detectó, evaluó y eliminó el contenido.
-
Las personas deben tener información clara sobre cómo apelar la decisión.
Apelaciones: Proporcionar a los usuarios la oportunidad de apelar las decisiones de moderación de contenido
-
Los mecanismos de apelación deben ser muy accesibles y fáciles de utilizar
-
Las apelaciones deben estar sujetas a revisión por una persona o panel de personas que no estuvieron involucradas en la decisión inicial.
-
Los usuarios deben tener el derecho de proponer nuevas pruebas o material para ser consideradas en su opinión.
-
Las apelaciones deben resultar en una pronta determinación y respuesta al usuario.
-
Toda excepción al principio de las apelaciones universales debe ser claramente divulgada y compatible con los principios internacionales de derechos humanos. and compatible with international human rights principles.
-
Facebook debería colaborar con otras partes interesadas para desarrollar nuevos mecanismos independientes de autorregulación para los medios sociales que permitan una mayor rendición de cuentas3
Números: Emitir informes periódicos de transparencia sobre la aplicación de las normas comunitarias.
-
Presentar datos completos describiendo las categorías de contenido del usuario que están restringidas (texto, foto o video; violencia, desnudos, violaciones de derechos de autor, etc.), así como el número de piezas de contenido que fueron restringidas o eliminadas en cada categoría.
-
Incorporar datos sobre cuántas acciones de moderación de contenido fueron iniciadas por un reporte (flag) de un usuario, un programa de reportes por usuarios de confianza (trusted flagger program) o por la aplicación proactiva de los Estándares Comunitarios (por ejemplo, mediante el uso de un algoritmo de aprendizaje automático).
-
Incluya datos sobre el número de decisiones que fueron apeladas efectivamente o que se determinó que se habían tomado por error.
-
Incluya datos que reflejen si la empresa realiza alguna auditoría proactiva de sus decisiones de moderación no apeladas, así como los índices de error que la empresa encontró.
ARTICLE 19, Electronic Frontier Foundation, Center for Democracy and Technology, and Ranking Digital Rights
Fundación Ciudadano Inteligente
7amleh - Arab Center for Social Media Advancement
Access Now
ACLU Foundation of Northern California
Adil Soz - International Foundation for Protection of Freedom of Speech
Africa Freedom of Information Centre (AFIC)
Albanian Media Institute
American Civil Liberties Union
Americans for Democracy & Human Rights in Bahrain (ADHRB)
Arab Digital Expression Foundation
Artículo 12
Asociación Mundial de Radios Comunitarias América Latina y el Caribe (AMARC ALC)
Association for Progressive Communications
Brennan Center for Justice at NYU School of Law
Bytes for All (B4A)
CAIR San Francisco Bay Area
CALAM
Cartoonists Rights Network International (CRNI)
Cedar Rapids, Iowa Collaborators
Center for Independent Journalism - Romania
Center for Media Studies & Peace Building (CEMESP)
Child Rights International Network (CRIN)
Committee to Protect Journalists (CPJ)
Digital Rights Foundation
EFF Austin
El Instituto Panameño de Derecho y Nuevas Tecnologías (IPANDETEC)
Electronic Frontier Finland
Elektronisk Forpost Norge
Foro de Periodismo Argentino
Foundation for Press Freedom - FLIP
Freedom Forum
Fundación Acceso
Fundación Ciudadano Inteligente
Fundación Datos Protegidos
Fundación Internet Bolivia.org
Fundación Vía Libre
Fundamedios - Andean Foundation for Media Observation and Study
Garoa Hacker Club
Gulf Center for Human Rights
HERMES Center for Transparency and Digital Human Rights
Hiperderecho
Homo Digitalis
Human Rights Watch
Idec - Brazilian Institute of Consumer Defense
Independent Journalism Center (IJC)
Index on Censorship
Initiative for Freedom of Expression - Turkey
Instituto Nupef
International Press Centre (IPC)
Internet without borders
La Asociación para una Ciudadanía Participativa ACI Participa
MARCH
May First/People Link
Media Institute of Southern Africa (MISA)
Media Rights Agenda (MRA)
Mediacentar Sarajevo
New America's Open Technology Institute
NYC Privacy
Open MIC (Open Media and Information Companies Initiative)
OpenMedia
Pacific Islands News Association (PINA)
Panoptykon Foundation
PEN America
PEN Canada
Peninsula Peace and Justice Center
Portland TA3M
Privacy Watch
Raging Grannies
ReThink LinkNYC
Rhode Island Rights
SFLC.in
SHARE Foundation
SMEX
South East Europe Media Organisation
Southeast Asian Press Alliance (SEAPA)
SumOfUs
Syrian Archive
Syrian Center for Media and Freedom of Expression (SCM)
t4tech
Techactivist.org
The Association for Freedom of Thought and Expression
Viet Tan
Vigilance for Democracy and the Civic State
Visualizing Impact
Witness
1 Véase el informe de EFF Who Has Your Back? del año 2018 y el Ranking Digital Rights Indicator G6.
2 Vea los indicadores de las secciones F4 y F8 en Ranking Digital Rights y el reporte “Transparency Reporting Toolkit: Content Takedown Reporting” de New America’s Open Technology Institute.
3 Por ejemplo, véase el informe de política del ARTICLE 19, "Autorregulación y discurso de odio en las plataformas de redes sociales".