Las reglas secretas de censura de Facebook protegen a los hombres blancos del discurso de odio pero no a los niños negros

Una primera traducción, si quiren mejorarla, revisarla, etc.:
Eduardo_g(arroba)riseup.net

Me faltan los slides!


ProPublica

Documentos internos  auténticos arrojan luz sobre los algoritmos que utilizan los censores de Facebook para diferenciar entre discurso de odio y expresión política legítima.

Por Julia Angwin, ProPublica, y Hannes Grassegger, especial para ProPublica, 28 de junio de 2017

A raíz de un ataque terrorista en Londres a principios de este mes, una diputada estadounidense escribió un post en Facebook en el que pidió la masacre de los musulmanes “radicalizados”.“Cazarlos, identifiarlos y matarlos”, declaró la Dip. Clay Higgins, republicana de Louisiana. “Matarlos a todos. Por el bien de todo lo que es bueno y justo. Matarlos a todos .

La súplica de Higgins por una venganza violenta fue intocada por los trabajadores de Facebook que exploran la red social borrando discursos ofensivos.

Pero una publicación de mayo en Facebook de la poeta de Boston y la activista Didi Delgado de Black Lives Matter obtuvo una respuesta diferente.

“Todos los blancos son racistas.

Comienza desde este punto de referencia, o ya fracasaste “, escribió Delgado. La publicación se eliminó y su cuenta de Facebook fue inhabilitada durante siete días.

Documentos internos revisados por ProPublica arrojan nueva luz sobre las directrices secretas que los censores de Facebook usan para distinguir entre discurso de odio y expresión política legítima. Los documentos revelan el fundamento de decisiones aparentemente inconsistentes. Por ejemplo, la incitación a la violencia de Higgins pasó debido a que se dirigía a un subgrupo específico de musulmanes -los que eran “radicalizados” – mientras que la publicación de Delgado fue eliminada por atacar a los blancos en general.

Durante la última década, la compañía ha desarrollado cientos de reglas, realizando distinciones elaboradas entre lo que se debe y no se debe permitir, en un esfuerzo por hacer que el site sea un lugar seguro para sus casi 2 mil millones de usuarios. El tema de cómo monitorea Facebook este contenido se ha vuelto cada vez más prominente en los últimos meses, con el surgimiento de las “noticias falsas” [fake news] – historias fabricadas que circulaban en Facebook como “El Papa Francisco Asusta al Mundo Apoyando a Donald Trump Para Presidente en una Declaración Pública”- y la creciente preocupación de que los terroristas están utilizando los medios de comunicación social para su reclutamiento.

Aunque Facebook recibió méritos durante la “Primavera Árabe” 2010-2011 al facilitar los levantamientos contra regímenes autoritarios, los documentos sugieren que, al menos en algunos casos, las reglas contra el discurso de odio de la empresa tienden a favorecer a las élites y a los gobiernos sobre los activistas y las minorías raciales. Al hacerlo, sirven a los intereses empresariales de la compañía global, que depende de los gobiernos nacionales para que no le bloqueen su servicio a los ciudadanos.

Facebook entrena a sus censores para que eliminen el discurso de odio contra las “categorías protegidas”, incluyendo a los hombres blancos, pero permite ataques contra “subconjuntos” como mujeres y niños negros.

Una regla de Facebook, que se cita en los documentos, pero que la compañía dijo que ya no está en vigor, prohibió las publicaciones que elogian el uso de la “violencia para resistir la ocupación de un estado reconocido internacionalmente”. Los censores humanos de la compañía eliminaron mensajes de activistas y periodistas en territorios en disputa como Palestina, Cachemira, Crimea y el Sáhara Occidental.

Un documento capacita a los revisores de contenidos sobre cómo aplicar el algoritmo global de discurso de odio de la compañía. La diapositiva identifica tres grupos: mujeres conductoras, niños negros y hombres blancos. Pregunta: ¿Qué grupo está protegido del discurso de odio? La respuesta correcta: los hombres blancos.

La razón es que Facebook elimina maldiciones, insultos, llamadas a la violencia y varios otros tipos de ataques sólo cuando se dirigen a “categorías protegidas” basadas en raza, sexo, identidad de género, afiliación religiosa, origen nacional, origen étnico, orientación sexual y Enfermedad / discapacidad grave. Da mayor flexibilidad a los usuarios cuando escriben sobre “subconjuntos” de categorías protegidas. Los hombres blancos son considerados un grupo porque ambos rasgos están protegidos, mientras que las mujeres y los niños negros, como los musulmanes radicalizados, son subconjuntos, porque una de sus características no está protegida. (Las reglas exactas están en los slides siguientes.)

Las Reglas de Facebook

Facebook ha utilizado estas reglas para capacitar a sus “revisores de contenidos” para que decidan cuando eliminar o permitir publicaciones. Facebook dice que el texto exacto de sus reglas puede haber cambiado ligeramente en las versiones más recientes. ProPublica recreó los slides.

Detrás de esta distinción aparentemente misteriosa se encuentra una filosofía más amplia. A diferencia de la ley estadounidense, que permite la acción afirmativa para las minorías raciales y las mujeres en aras de la diversidad o la disminución de la discriminación, el algoritmo de Facebook está diseñado para defender todas las razas y géneros por igual.

“Tristemente,” las reglas están “incorporando esta idea de ceguera por el color que no está en el espíritu de por qué tenemos igual protección”, dijo Danielle Citron, profesora de derecho y experta en privacidad de la información en la Universidad de Maryland. Este enfoque, añadió, “protegerá a las personas que menos lo necesitan y se lo quitará a quienes realmente lo necesitan”.

Pero Facebook dice que su objetivo es diferente: aplicar estándares consistentes en todo el mundo. “Las políticas no siempre conducen a resultados perfectos”, dijo Monika Bickert, directora de gestión de políticas globales de Facebook. “Esa es la realidad de tener políticas que se aplican a una comunidad global donde la gente de todo el mundo va a tener ideas muy diferentes sobre lo que está bien compartir”.

Las reglas de Facebook constituyen un mundo legal propio. Están en un gran contraste con las protecciones a la libertad de expresión de los Estados Unidos protegidas por la Primera Enmienda, que los tribunales han interpretado para permitir exactamente el tipo de discurso y escritos censurados por el algoritmo de discurso de odio de la compañía. Pero también difieren – por ejemplo, al permitir publicaciones que niegan al Holocausto – de las normas europeas más restrictivas.

La compañía ha tenido durante mucho tiempo programas para eliminar material obviamente ofensivo como la pornografía infantil de su flujo de imágenes y comentarios.

Artículos recientes en The Guardian y Süddeutsche Zeitung han detallado las difíciles opciones a las que Facebook se enfrenta en relación con la eliminación de mensajes que contengan violencia gráfica, abuso infantil, pornografía por venganza y auto-mutilación. El reto de controlar la expresión política es aún más complejo. Los documentos revisados por ProPublica indican, por ejemplo, que los mensajes de Donald Trump sobre su propuesta en la campaña para prohibir la inmigración musulmana a Estados Unidos violaron las políticas escritas de la compañía contra las “llamadas a la exclusión” de un grupo protegido. Como The Wall Street Journal informó el año pasado, Facebook hizo una excepción con las declaraciones de Trump en sus políticas por orden de Mark Zuckerberg, fundador de la compañía y director ejecutivo.

La compañía prometió recientemente duplicar su ejército de censores a 7.500, ante los 4.500 de ahora, en respuesta a las críticas por la publicación de un video de un asesinato.

Esto equivale a lo que puede ser la operación de censura global más extensa de la historia. También es la menos responsable: Facebook no publica las reglas que utiliza para determinar qué contenido permitir y cuál borrar.

A los usuarios a los que se les borran posts normalmente no se les dice qué regla han roto, y generalmente no pueden apelar a la decisión de Facebook. Actualmente, las apelaciones sólo están disponibles para las personas cuyo perfil, grupo o página ha sido eliminado.

La compañía ha comenzado a explorar la agregar un proceso de apelación para las personas que tienen publicaciones individuales de contenidos eliminados, de acuerdo con Bickert. “Seré la primera en decir que no somos perfectos todas las veces”, dijo.

Facebook no está obligada por la ley de EE.UU. a censurar contenidos. Una ley federal de 1996 le dió a la mayoría de las compañías de tecnología, incluyendo Facebook, inmunidad legal por el contenido que sus usuarios publicaran en sus servicios. La ley, sección 230 de la Ley de Telecomunicaciones, fue aprobada después de que Prodigy fuera demandada y responsabilizada por difamación por un mensaje escrito por un usuario en un tablón de mensajes.

La ley liberó a los editores online que albergan foros que no tengan que examinar legalmente cada contenido antes de publicarlo, de la misma manera que un portal de noticias evaluaría un artículo antes de publicarlo. Pero las primeras compañías de tecnología pronto se dieron cuenta de que todavía necesitaban supervisar sus salas de chat para evitar acosos y abusos que pudieran hacer que sus usuarios se fueran.

America Online convenció a miles de voluntarios para que vigilaran sus salas de chat a cambio de acceso gratuito a su servicio. Pero a medida que el mundo se conectaba más a Internet, el trabajo de vigilancia se hizo más difícil y las empresas comenzaron a contratar a trabajadores para centrarse exclusivamente a esto. Entonces nació el trabajo de moderadores de contenidos – ahora a menudo llamados de revisores de contenidos.

En 2004, la abogada Nicole Wong se unió a Google y persuadió a la compañía para que contraten a su primer equipo de revisores, para que respondieran a las quejas e informaran al departamento jurídico. Google necesitaba “un conjunto racional de políticas y personas capacitadas para manejar las solicitudes”, para sus foros online llamados Groups, declaró.

La compra de YouTube por parte de Google en 2006 hizo aún más urgente decidir qué contenido era apropiado. “Porque era visual, era universal”, dijo Wong.

Aunque Google quería ser lo más permisiva posible pronto tuvo que lidiar con controversias como un video burlándose del rey de Tailandia, que violaba las leyes de Tailandia al insultar al rey. Wong visitó Tailandia y quedó impresionada por la reverencia de la nación había su monarca, así que aceptó a regañadientes bloquear el video, pero sólo para computadoras ubicadas en Tailandia.

Desde entonces, bloquear selectivamente a contenidos por su geografía – llamado “geo-bloqueo” – se ha convertido en una solicitud más común de los gobiernos. “No me encanta viajar por este camino de geobloqueo”, dijo Wong, pero “terminó siendo una decisión que permite a compañías como Google operar en muchos lugares diferentes”.

Para las redes sociales como Facebook, sin embargo, el geo-bloqueo es difícil debido a la forma en que los mensajes se comparten con amigos a través de las fronteras nacionales. Si Facebook bloquea la publicación de un usuario, solo aparecerá en las noticias de amigos que viven en países donde la prohibición del bloqueo geográfico no se aplica. Eso puede hacer que las conversaciones internacionales se frustren, con partes del intercambio ocultas para algunos participantes.

Como resultado, Facebook ha intentado evitar usar reglas geográricas específicas cuando sea posible, según personas familiarizadas con el pensamiento de la compañía.

Sin embargo, se geo-bloquea en algunos casos, como cuando se cumplió con una solicitud de Francia para que se restringiera el acceso dentro de sus fronteras a una foto tomada después del 13 de noviembre de 2015, del ataque terrorista en la sala de conciertos Bataclan en París.

Bickert dijo que Facebook toma en consideración las leyes de los países donde opera, pero no siempre elimina el contenido a petición del gobierno. “Si hay algo que viola la ley de un país pero no viola nuestros estándares”, dijo Bickert, “miramos quién está haciendo esa petición: ¿Es la autoridad apropiada? Luego comprobamos si realmente viola la ley. A veces haremos que ese contenido no esté disponible solamente en ese país “.

El objetivo de Facebook es crear reglas globales. “Queremos asegurarnos de que la gente pueda comunicarse sin fronteras”, dijo Bickert.

Fundada en 2004, Facebook comenzó como una red social para estudiantes universitarios. A medida que se extendió más allá del campus, Facebook comenzó a usar la moderación de contenidos como una forma de competir con la otra red social líder de esa era, MySpace.

MySpace se había posicionado como el club nocturno del mundo de las redes sociales, ofreciendo páginas de perfil que los usuarios podían decorarla online con diseños coloridos y música en streaming. No requería que los miembros proporcionaran sus verdaderos nombres y era el hogar de muchas fotografías de mujeres desnudas y escasamente vestidas. Y estaba siendo investigado por los agentes de la ley en todo el país que se preocupaban de que estuviera siendo utilizado por depredadores sexuales para atrapar a niños. (En un acuerdo con 49 procuradores generales del estado, MySpace hizo un acuerdo más tarde para fortalecer las protecciones para los usuarios más jóvenes.)

En comparación, Facebook era la red social de las elites elegantes todo grises y azules. Se requerían los nombres reales y afiliaciones universitarias. Chris Kelly, quien se unió a Facebook en 2005 y fue su primer consejero general, dijo que quería asegurarse de que Facebook no terminara en la mira de la policía, como MySpace.

“Fuimos realmente muy agresivos diciendo que somos una plataforma sin desnudos”, declaró.

La compañía también comenzó a abordar el discurso de odio. “Esribimos algunas líneas difíciles mientras estuve allí – la negación del Holocausto es la más prominente”, dijo Kelly. Después de un debate interno, la compañía decidió permitir las negaciones del Holocausto, pero reafirmó su prohibición del sesgo basado en grupos, que incluían al antisemitismo. Dado que la negación del Holocausto y el antisemitismo con frecuencia iban juntos, dijo, los perpetradores a menudo fueron suspendidos por la segunda causa.

“Siempre he sido un pragmático en estas cosas”, dijo Kelly, que dejó Facebook en 2010. “Incluso si tomas las posiciones más extremas de la Primera Enmienda, todavía hay límites para la libertad de expresión.

En 2008, la compañía había empezado a expandirse internacionalmente, pero su reglamento de censura era todavía una sola página con una lista de material que debía ser eliminado, como imágenes de desnudos y Hitler. “En la parte inferior de la página decía:” Borra cualquier cosa que te haga sentir incómodo “, dijo Dave Willner, quien se unió al equipo de contenidos de Facebook ese año.

Willner, que revisaba unas 15.000 fotos por día, pronto descubrió que las reglas no eran lo suficientemente rigurosas. Él y algunos colegas trabajaron para desarrollar una filosofía coherente que sustentara las reglas, mientras refinaban a las reglas mismas. Pronto fue ascendido a la jefatura del equipo de políticas de contenidos.

En el momento en que dejó Facebook en 2013, Willner había dirigido la confección de un reglamento de 15.000 palabras que sigue siendo la base de muchos de los estándares de contenidos de Facebook hoy.

“No hay caminos que hagan felices a la gente”, dijo Willner. “Debido al volumen de decisiones – muchos millones por día – el enfoque es” más utilitario de lo que estamos acostumbrados en nuestro sistema de justicia “, dijo. “Fundamentalmente no está orientado hacía los derechos” .

20170628-fb-slide-zuckerberg-swastika-630

Ejemplos de imágenes que no son censuradas por Facebook

Se agregó una esvástica a esta imagen del fundador Mark Zuckerberg para demostrar que las reglas de Facebook permiten “exhibir símbolos de odio para la mensajería política”.

El entonces jefe de Willner, Jud Hoffman, que ha dejado Facebook, dijo que las reglas estaban basadas en la misión de Facebook de “hacer el mundo más abierto y conectado.” La apertura implica un sesgo para permitir a la gente escribir o publicar lo que quieren, él dijo.

Pero Hoffman dijo que el equipo también se basó en el principio del daño articulado por John Stuart Mill, un político filósofo inglés del siglo XIX. Que afirma que “el único propósito por el cual el poder puede ejercerse legítimamente , contra su voluntad, sobre cualquier miembro de una comunidad civilizada es prevenir el daño a otros “. Esto llevó al desarrollo de la norma de “amenaza creíble” de Facebook, que prohíbe las publicaciones que describen acciones específicas que podrían amenazar a otros, pero que permiten amenazas que no son probables que se lleven a cabo.

Eventualmente, sin embargo, Hoffman dijo que “encontramos que limitarlo al daño físico no era suficiente, así que comenzamos a explorar cómo las sociedades de expresión libre se ocupan de esto”.

Las reglas desarrollaron un matiz considerable. Hay una prohibición contra las imágenes de Pepe the Frog, un personaje de dibujos animados utilizado con frecuencia por los supremacistas blancos “alt-right” para perpetrar memes racistas, pero las esvásticas son permitidas bajo una regla que permite “exhibir símbolos de odio para la mensajería política. “En los documentos examinados por ProPublica, que se utilizan para entrenar a los revisores de contenido, esta regla se ilustra con una imagen del fundador de Facebook, Mark Zuckerberg, que ha sid manipulada colocándole una esvástica en su manga.

Los documentos indican que Facebook se basa, en parte, en la lista del Departamento de Estado para designar a las organizaciones terroristas, que incluye grupos como Al Qaeda, los talibanes y Boko Haram. Pero no todos los grupos considerados terroristas por un país u otro se incluyen: Una investigación reciente por el periódico Pakistán Dawn encontró que 41 de los 64 grupos terroristas prohíbidos en Pakistan estaban operativos en Facebook.

También hay una lista secreta, usada como referencia pero no incluida en los documentos, de grupos designados como organizaciones de odio que están prohibidos en Facebook. Esa lista aparentemente no incluye muchos sitios de negación del Holocausto y de supremacía blanca que están en Facebook hasta el día de hoy, como un grupo llamado “Nación Alt-Reich”. Un miembro de ese grupo fue acusado recientemente de asesinar a un estudiante negro en Maryland.

Como las reglas se han multiplicado, también hay excepciones a ellas. La decisión de Facebook de no proteger a subgrupos de grupos protegidos surgió porque algunos subgrupos tales como “mujeres conductoras” no parecían especialmente sensibles. La posición por defecto era permitir la libertad de expresión, de acuerdo con una persona familiarizada con la toma de decisiones.

Después de que la ola de inmigrantes sirios comenzara a llegar a Europa, Facebook agregó una categoría especial, según los documentos, “casi protegida” para los migrantes. Sólo están protegidos contra las llamadas a la violencia y generalizaciones deshumanizantes, pero no contra los llamados a la exclusión y las generalizaciones degradantes que no son deshumanizantes. Por lo tanto, según un documento, los migrantes pueden ser referidos como “sucios” pero no llamados “suciedad”. No pueden ser comparados a inmundicia o enfermedad “cuando la comparación está en el sustantivo”, explica el documento.

Facebook también añadió una excepción a su prohibición de defender que alguien sea enviado a un campo de concentración. “Los nazis deben ser enviados a un campo de concentración”, se permite, según los documentos, porque los nazis mismos son un grupo de odio.

La regla contra las publicaciones que apoyan la resistencia violenta contra un ocupante extranjero se desarrolló porque “no queríamos estar en una posición de decidir quién es un luchador por la libertad”, dijo Willner. Facebook ha descartado desde entonces a esta disposición y ha revisado su definición de terrorismo para incluir organizaciones no gubernamentales que llevan a cabo violencia premeditada “para lograr un objetivo político, religioso o ideológico”, según una persona familiarizada con las reglas.

La política de Facebook parece haber tenido repercusiones en muchas de las por lo menos dos docenas de territorios disputados alrededor del mundo. Cuando Rusia ocupó Crimea en marzo de 2014, muchos ucranianos experimentaron un aumento de la prohibición de publicaciones en Facebook y la suspensión de sus perfiles . El director de política de Facebook para la región, Thomas Myrup

Kristensen, reconoció en ese momento que “encontró un pequeño número de cuentas en las que eliminamos contenido incorrectamente. En cada caso, esto se debía a un lenguaje que parecía ser discurso de odio, pero estaba siendo utilizado de una manera irónica. En estos casos, restauramos el contenido “.

Katerina Zolotareva, de 34 años, ucraniana que vive en Kiev que trabaja en comunicaciones, ha sido bloqueada tan a menudo que tiene cuatro cuentas bajo su nombre.

Aunque apoyó las protestas “Euromaidan” en febrero de 2014 que antagonizaron a Rusia, estimulando su intervención militar en Crimea, ella no cree que Facebook tomó partido en el conflicto. “Hay guerra en casi todos los campos de la vida ucraniana”, dice, “y cuando comienza la guerra, también comienza en Facebook”.

En el Sahara Occidental, un territorio disputado ocupado por Marruecos, un grupo de periodistas llamado Equipe Media dice que su cuenta fue desactivada por Facebook, su principal forma de llegar al mundo exterior. Tuvieron que abrir una nueva cuenta, que permanece activa.

“Sentimos que nunca hemos publicado nada en contra de ninguna ley”, dijo Mohammed Mayarah, coordinador general del grupo. “Somos un grupo de activistas de los medios de comunicación. Tenemos el objetivo de romper el bloqueo impuesto por el gobierno marroquí a los medios de comunicación desde que invadió y ocupó al Sáhara Occidental “.

En Israel, que capturó territorios de sus vecinos en una guerra en 1967 y lo ocupa desde entonces, los grupos palestinos son bloqueados tan a menudo que tienen su propio hashtag, #FbCensorsPalestine, por ello. El año pasado, por ejemplo, Facebook

bloqueó las cuentas de varios editores de dos importantes medios de comunicación palestinos de la Cisjordania – Quds News Network y Sheebab News Agency. .

Después de un par de días, Facebook se disculpó y desbloqueó las cuentas de los periodistas. A principios de este año, Facebook bloqueó la cuenta de Fatah, el partido gobernante de la Autoridad Palestina – luego lo desbloqueó y se disculpó.

El año pasado, la India rechazó a los manifestantes en Cachemira, disparando armas de pellets contra ellos y cerrando el servicio de teléfonía celular. Los insurgentes locales están buscando la autonomía para Cachemira, que también está atrapada en un enfrentamiento territorial entre la India y Pakistán. Las publicaciones de activistas de Cachemira estaban siendo borradas, y los miembros de un grupo llamado la Red de Solidaridad de Cachemira encontró que todas sus cuentas de Facebook habían sido bloqueadas en el mismo día.

Ather Zia, miembro de la red y profesora de antropología en la Universidad del Norte de Colorado, dijo que Facebook restauró su cuenta sin ninguna explicación después de dos semanas. “No confiamos más en Facebook”, dijo. “Yo uso Facebook, pero es casi esta idea que vamos a ser capaces de crear conciencia, pero entonces es posible que no estemos ahí por mucho tiempo.”

Las reglas son una cosa. La forma en que se aplican es otra. Bickert dijo que Facebook lleva a cabo auditorías semanales del trabajo de cada revisor de contenidos para asegurar que sus reglas se sigan de manera consistente. Pero los críticos dicen que los revisores, que tienen que decidir sobre cada post en cuestión de segundos, pueden variar tanto en la interpretación como en la vigilancia.

Los usuarios de Facebook que no critican el racismo y los homicidios policiales de minorías raciales dicen que sus publicaciones suelen ser borradas. Hace dos años, Stacey Patton, profesora de periodismo en la histórica Morgan State University de Baltimore, planteó una pregunta provocativa en su página de Facebook. Ella preguntó por qué “no es un crimen cuando los vigilantes y agentes blancos del” estado “son asesinos en serie de negros desarmados, pero cuando los negros se matan, entonces somos” animales “o” criminales “.

Aunque no parece violar las políticas de Facebook contra el discurso de odio, su publicación fue inmediatamente eliminada, y su cuenta fue inhabilitada durante tres días. Facebook no le dijo por qué. “Mis mensajes se eliminan aproximadamente una vez al mes”, dijo Patton, quien a menudo escribe sobre temas raciales. Ella dijo que también es frecuentemente puesta en la “cárcel” de Facebook – bloqueada de su cuenta por un período de tiempo después que una publicación rompe las reglas.

“Es una violencia emocional”, dijo Patton. “Particularmente como una persona negra, siempre estamos teniendo estas discusiones sobre encarcelamiento masivo, y luego aquí está este espacio de fibra óptica donde puedes expresarte. Entonces dices algo que a una persona anónima no le gusta y luego estás en la cárcel “.

Didi Delgado, cuyo post afirmando que “las personas blancas son racistas” fue eliminado, ha sido prohibida en Facebook tan a menudo que ha creado una cuenta en otro

servicio llamado Patreon,p donde publica el contenido que Facebook suprimió. En mayo, deploró la cada vez más común censura de Facebook hacía los activistas negros en un artículo para Medium titulado “” Mark Zuckerberg Odia al Pueblo Negro “.

Facebook también bloqueó a Leslie Mac, una residente de Michigan que dirige un servicio llamado SafetyPinBox, donde, según su site, los suscriptores contribuyen financieramente a “la lucha por la liberación de los negros”. Su ofensa fue escribir un post declarando “Gente blanca. Cuando el racismo sucede en público – TU SILENCIO ES VIOLENCIA “.

El post no parece violar las políticas de Facebook. Facebook se disculpó y restauró su cuenta después que TechCrunch escribió un artículo sobre el castigo hacía Mac. Desde entonces, Mac ha escrito muchos otros posts abiertos. Pero, “no he tenido un solo pío de Facebook”, dijo, mientras que “ni una sola de mis amigas negras que escriben sobre raza o justicia social han sido prohibidas”.

“Mi reflexión sobre todo el asunto es: si obtienes publicidad, lo limpian todo”, dijo Mac. Aun así, al igual que la mayoría de sus amigos, mantiene una cuenta separada de Facebook en caso de que su cuenta principal sea bloqueada de nuevo.

La publicidad negativa ha estimulado también a otros cambios en Facebook. Considere el ejemplo de la fotografía icónica de una muchacha desnuda joven corriendo de una bomba del napalm durante la guerra de Vietnam. Kate Klonick, Ph.D. Candidato en la Facultad de Derecho de Yale, que ha pasado dos años estudiando operaciones de censura en empresas de tecnología, dijo que la foto probablemente había sido eliminada por Facebook miles de veces por violar su prohibición hacía la desnudez.

Pero el año pasado, Facebook lo revirtió después que el principal periódico de Noruega publicara una carta abierta a Zuckerberg acusándolo de “abusar de su poder ” eliminando la foto de la cuenta de Facebook del periódico.

Klonick dijo que aunque admira la dedicación de Facebook hacía la vigilancia de contenidos en su sitio web, teme que se esté convirtiendo en un lugar donde celebridades, líderes mundiales y otras personas importantes “son desproporcionadamente las personas que tienen el poder de actualizar las reglas”.

En diciembre de 2015, un mes después de los atentados terroristas en París que mataron a 130 personas, la Unión Europea comenzó a presionar a las compañías de tecnología para que trabajaran más para prevenir la propagación del extremismo violento online.

Después de un año de negociaciones, Facebook, Microsoft, Twitter y YouTube acordaron el código de conducta del discurso de odio de la Unión Europea, que les obliga a

revisar y eliminar la mayoría de los reclamos válidos sobre contenido ilegal dentro de las 24 horas y a ser auditados por los reguladores europeos. La primera auditoría , en diciembre, encontró que las compañías sólo estaban revisando el 40 por ciento del discurso de odio en 24 horas, y que sólo la eliminaban al 28 por ciento de ellos. Desde entonces, las empresas de tecnología han acortado sus tiempos de respuesta a los informes de discurso de odio y aumentado la cantidad de contenido que están eliminando, lo que provoca las críticas de los defensores de la libertad de expresión sobre la gran cantidas que se está censurando.

Ahora el gobierno alemán está considerando una legislación que permitiría que las redes sociales como Facebook sean multadas en hasta 50 millones de euros si no eliminan el discurso de odio y las noticias falsas lo suficientemente rápido. Facebook publicó recientemente un artículo asegurándole a los legisladores alemanes que está eliminando cerca de 15.000 mensajes de discurso de odio por mes. En todo el mundo, en los últimos dos meses, Facebook eliminó cerca de 66.000 mensajes de discurso de odio por semana, dijo el vicepresidente Richard Allan en un comunicado en el site de la compañía.

Entre los mensajes que Facebook no eliminó estaban los comentarios de Donald Trump sobre los musulmanes. Días después de los ataques de París, Trump, luego de postularse a la presidencia, publicó en Facebook “pidiendo un cierre total y completo de los musulmanes que ingresan a Estados Unidos hasta que los representantes de nuestro país puedan averiguar lo que está pasando”.

El post del Candidato Trump -que ha vuelto a perseguirlo en las decisiones judiciales que anulan su propuesta sobre la prohibición de viajar- parecía violar las reglas

de Facebook contra los “llamados a la exclusión” de un grupo religioso protegido. Zuckerberg decidió permitirlo porque formaba parte del discurso político, según personas familiarizadas con la situación.

Sin embargo, una persona cercana a la toma de decisiones de Facebook dijo que Trump también podría haberse beneficiado de la excepción para los subgrupos. Una prohibición musulmana podría ser interpretada como dirigida contra un subgrupo, los inmigrantes musulmanes, y por lo tanto no podría calificarse como discurso de odio contra una categoría protegida.

Hannes Grassegger es periodista de Das Magazin y Reportagen Magazine con sede en Zurich.


Comentario: Tal vez lo mejor sea dejar una página en Facebook para colgar lo que querramos pero interactuar fuera de Facebook (en realidad preferiría que no se use Facebook para nada)

Anuncios

2 comentarios en “Las reglas secretas de censura de Facebook protegen a los hombres blancos del discurso de odio pero no a los niños negros

  1. Hola Amigos/ compañeros

    Excelentes contenidos ¿puedo hacer una sugerencia para la suscripción?

    Desearía recibir solo uno o 2 correos-e por semana con los link de todas las entrada y no uno por cada entrada nueva ¿será eso posible? No hay problema si no. De todas maneras puedo ir al blog y ver todo.

    Felicitaciones por el gran nivel de los contenidos que ponen a nuestra disposición en la red, ojalá reciban muchas visitas

    ________________________________

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s