El pasado miércoles, ProPublica publicó un informe que describe un razonamiento bastante extraño detrás del enfoque de Facebook para los comentarios y discursos de odio y la censura. La evidencia muestra que Facebook tiene una política de moderación que podría favorecer a los “hombres blancos” sobre los “niños negros”, basados ​​en una guía que protege a amplias categorías de personas, pero no a subconjuntos.

Obviamente, puede ser muy difícil para Facebook supervisar el contenido de más de 2 mil millones de usuarios, y es lógico que cometa errores al hacerlo. Pero con tanto alcance e influencia, es inquietante que se produzcan este tipo de incongruencias en los algoritmos que controlan las políticas de censura de la red social. Y lo que es aún más inquietante es que la política es completamente secreta.

De acuerdo con los documentos de capacitación interna que ProPublica obtuvo, Facebook define el discurso de odio como un ataque contra una categoría protegida. Ejemplos de categorías protegidas incluyen raza, sexo, identidad de género, afiliación religiosa, origen nacional, origen étnico, orientación sexual y discapacidad o enfermedad grave.

Todo esto suena muy bien y parece coherente, excepto que los “subconjuntos” de estas categorías se consideran juego limpio y no censurable. Así que cuando el representante Clay Higgins de Estados Unidos pidió el asesinato de “musulmanes radicalizados”, todo estaba bien (ya que “radicalizado” es un modificador), pero cuando el activista Didi Delgado dijo “todos los blancos son racistas”, eso no estaba bien, ya que la declaración se refería a una raza entera.

Esto ignora el hecho de que llamar a la muerte de personas es bastante más violento que declarar que un grupo de personas es racista. Sin embargo, está en línea con un informe anterior de The Guardian que afirma que las políticas de Facebook permiten cierto discurso violento si no plantea una “amenaza creíble”.

Y si todo esto te parece una aberración, o que al menos no tiene la lógica que debería tener, ProPublica descubrió una diapositiva de presentación interna que hizo la distinción aún más inquietante. En dicha diapositiva se encontraba un cuestionario con una pregunta: “¿Cuál de los subconjuntos a continuación protegemos?” Las opciones proporcionadas eran “mujeres conductoras”, “niños negros” y “hombres blancos”. La respuesta correcta, según Facebook, es “hombres blancos” porque la raza y el género son categorías protegidas, pero los “conductores” y los “niños” no lo son.

Es una respuesta extraña, no sólo porque no tiene sentido, sino porque además es culturalmente incoherente. Como ProPublica señala, esta lógica supone que todas las razas y géneros son iguales e ignora la razón por la cual existen leyes sobre el discurso del odio: proteger a los marginados de la sociedad.

Obviamente, Facebook no es un país, es una empresa privada. No puede crear leyes, y no puede encarcelar a la gente por proferir insultos y/o discursos de odio. Es una corporación con una plataforma global, y necesita aplicar sus reglas universalmente, lo cual es terriblemente difícil cuando los diferentes países tienen diferentes costumbres. Alemania, por ejemplo, ha instituido recientemente una ley por la que se puede demandar a Facebook por hasta 57 millones de dólares por discurso del odio, mientras que países como Estados Unidos no tienen esa ley.

No se puede negar que la moderación de las políticas de censura para tanta gente es una tarea increíblemente difícil y complicada, por lo que Facebook ha contratado a más de 3.000 moderadores adicionales para ayudar a la policía de su plataforma. Sin embargo, Richard Allan, vicepresidente de políticas públicas de Facebook en Europa, Oriente Medio y Asia, reconoce que todavía puede cometer errores: “No somos perfectos en lo que respecta a la aplicación de nuestra política… y con demasiada frecuencia nos equivocamos”.

Es por eso que el reciente informe de ProPublica es tan preocupante. Si bien es alentador escuchar que Facebook se está tomando las políticas de censura o control sobre el discurso del odio en serio, la forma en que todo se está produciendo es bastante preocupante. No basta con saber que va a prohibir y censurar completamente el discurso del odio, también es importante conocer cuáles van a ser las pautas exactas que van a gestionarlo, controlarlo y censurarlo.

Al final, nos encontramos con un algoritmo global que debe disponer de diferentes criterios y protocolos de control territorial, y que además tendrá que contar con moderadores locales que deberán adaptar la “censura del odio” para asegurar que se imparte de forma coherente, equitativa y teniendo en cuenta las diferentes idiosincrasias culturales de cada país. Nos parece una tarea ardua, cara y complicada, pero claramente necesaria, mejor dicho, obligatoriamente necesaria.