Sexo, violencia y terrorismo: las normas secretas de Facebook, al descubierto

247 views

*** Facebook se ha hecho demasiado grande, ha crecido demasiado rápido.

Tegucigalpa, Honduras.

Los usuarios pueden transmitir “en vivo” los intentos de autolesionarse porque Facebook no quiere censurar o castigar a las personas en situaciones difíciles. Los vídeos de muertes violentas, aunque marcados como “imágenes que pueden herir la sensibilidad”, no siempre deben ser eliminados porque pueden ayudar a crear cocienca antes asuntos como las enfermedades mentales. Algunas fotos de abuso físico no sexual o de acoso a niños no deben ser borrados a menos que exista un elemento sádico o de celebración…

Hasta aquí algunas de las reglas “secretas” de Facebook, reveladas por una investigación de The Guardian, que ha examinado un largo centenar de manuales internos sobre los criterios que la red social usa para regular las imágenes y los contenidos de sexo, violencia o terrorismos entre sus 1.940 millones de ususarios en todo el mundo.

Los Facebook Files (“Papeles de Facebook”) sacan a la luz las dificultades crecientes que el gigante de la redes sociales -con 18.700 empleados en todo el mundo- está teniendo para controlar los contenidos y para hacer frente a las crecientes presiones políticas en Europa y en Estados Unidos, donde se le acusa de haber contribuido a la elección de Donald Trump con la difusión de noticias falsas.

Según ‘The Guardian’, Facebook reconoce en un documento interno que recibe hasta 6,5 millones de quejas todas las semanas relacionadas con potenciales cuentas falsas -conocidas en erga como FNRP (fake, not real person)- usadas principalmente para la propagación de “fake news”.

Pese a los esfuerzos de la compañía para detectar la difusión de “fake news” y supervisar los contenidos de la red (con la contratación de más de 3.000 nuevos moderadores), los empleados de la compañía reconocen que están desbordados por la avalancha de información y que disponen muchas veces “solamente diez segundos” para tomar una decisión.

“Facebook no puede controlar sus contenidos porque se ha hecho demasiado grande y demasiado rápido”, reconoce a The Guardian un empleado de la compañía, que tiene que bregar a diario con más de 300 millones de descargas de imágenes alrededor del mundo.

Facebook ha sido acusado de ser excesivamente tolerante con los contenidos que intercambian sus usuarios y de haber convertido la red en un refugio para misóginoss y racistas. En un documento “secreto”, revelado por el diario británico, la compañía reconoce que “la gente usa lenguaje violento para expresar su frustración online” y garantizar a sus usuarios que “se sientan seguros de poder hacerlo”.

Los manuales internos autorizan a los moderadores a “ignorar” imágenes sexualmente explícitas (salvo que incluyan violencia sexual) o imágenes de abusos de animales (solamente las fotos o vídeos más extremos deben llevan la advertencia de “imágenes que pueden herir la sensibilidad).

Los mensajes o vídeos que ensalzar a organizaciones terroristas deben ser eliminados, aunque los mensajes en los que se critica el terrorismo pueden ser ignorados. Asuntos como el “revenge porno” o incluso el canibalismo merecen también mención aparte en los manuales internos de la red social que están causando una creciente inquietud en el Reino Unido.ELMUNDO/Hondudiario

URL Corta: http://bit.ly/2qcqOhN

Compartir esta noticia...

Compartir esta noticia...