iProfesionaliProfesional

Los moderadores de la red social muchas veces tienen solo 10 segundos para tomar una decisión respecto de permitir o eliminar una publicación
23/05/2017 - 13:28hs

Documentos filtrados de Facebook muestran que la firma de redes sociales modera dentro de su plataforma temas como el discurso de odio, el terrorismo, la pornografía y la automutilación

Nuevos fenómenos como la "porno venganza" abruman a los moderadores de Facebook que a menudo tienen sólo 10 segundos para tomar una decisión, según reveló el diario The Guardian.

La red social revisa más de 6,5 millones de reportes de cuentas potencialmente falsas a la semana.

Muchos de los moderadores de contenido de la compañía tienen preocupaciones sobre la inconsistencia y naturaleza peculiar de algunas de las políticas. Aquellas sobre el contenido sexual, por ejemplo, serían las más complejas y confusas.

Por caso, Facebook permite a sus usuarios publicar imágenes de una persona autolesionándose porque la red "no quiere censurar o castigar a quienes están sufriendo", y solo elimina fotografías de actos de crueldad contra animales si son "extremadamente perturbadoras" o celebratorias de ese tipo de actos.

Las guías de la compañía ofrecen recomendaciones a los moderadores para varios tipos de contenido, desde imágenes de abuso no sexual a menores de edad, amenazas de violencia, hasta imágenes con violencia explícita. En todos ellos, los documentos detallan lo que se puede publicar y lo que no.

Facebook también considera que los vídeos de muertes violentas pueden llevar un aviso para los espectadores pero no siempre se deben eliminar porque sirven para "concienciar sobre problemas mentales".

En muchos de los casos, las indicaciones pueden dejar espacio para la interpretación de cada uno de los moderadores, que deben identificar si el usuario está haciendo una amenaza real a otra persona, según informó el diario El País.

Uno de los manuales considera que se debe eliminar el mensaje "apuñala y conviértete en el terror del Sionista" pero se puede publicar "vamos a dar palizas a niños gordos" porque "el lenguaje violento casi nunca es creíble a menos que sea específico como para que nos de pie a pensar que no es una expresión sin más sino que la persona puede actuar".

Facebook también establece que "no tomamos medidas en el caso de fotografías de abusos a niños. Marcamos como perturbadores los vídeos de ese tipo y eliminamos las imágenes de abusos a niños si se comparten con sadismo y celebración".

La red añade, según The Guardian, que algunas de esas imágenes deben permanecer publicadas "para que el menor pueda ser identificado y rescatado, pero añadimos protecciones para salvaguardar a la audiencia".

Facebook no hizo comentarios específicos sobre el reporte, pero dijo que la seguridad es su preocupación primordial.

"Mantener a la gente segura en Facebook es lo más importante que hacemos. Trabajamos duro para hacer que Facebook sea lo más seguro posible al tiempo que permite la libertad de expresión. Esto requiere mucha reflexión sobre interrogantes detalladas y, a menudo, difíciles, y hacerlo bien es algo que tomamos muy en serio", dijo en un comunicado la jefa de política de productos de Facebook, Monica Bickert.

Facebook confirmó que está utilizando software para interceptar contenido gráfico antes de que se publique en el sitio de Internet, pero todavía está en sus primeras etapas.