iProfesionaliProfesional

Facebook ahora admite que es muy complejo controlar el contenido violento que circula por la red social

La compañía reconoció el crecimiento exponencial de contenido discriminatorio, sexual, terrorista y de otro tipo entre finales de 2017 y principios de 2018
16/05/2018 - 10:20hs
Facebook ahora admite que es muy complejo controlar el contenido violento que circula por la red social

Violencia gráfica, desnudez de adultos y contenido sexual, spam, incitación al odio, cuentas falsas. Estos son los principales abusos que se detectan en Facebook que, por primera vez, y en el marco de la fuerte crisis que atraviesa por la manipulación de la información, reveló datos internos sobre lo que ocurren ese espacio.

De acuerdo a la información dada a conocer por la misma empresa, el contenido violento viene creciendo de manera dramática, lo mismo que los discursos del odio, más allá de que el objetivo es controlar mejor a la propaganda terrorista.

Lo que aún se desconoce es con qué frecuencia Facebook elimina contenidos por error o deja algo que debería ser borrado. Y la razón es que la compañía no sabe ni esto ni la cantidad de abusos que se publican en esa red.

Sin embargo, aseguró haber retirado 583 millones de cuentas falsas entre enero y marzo.

Al medir lo sucedido en el último trimestre de 2017 y el primero de 2018 se detectó, por ejemplo, que la violencia gráfica aumentó un 183% de un período a otro, además de haber eliminado 3,4 millones de piezas, de las cuales un 86% fue detectada por su sistema automatizado de contenidos.

Esto le permitió, a su vez, eliminado contenido sexual, spam y, principalmente, terrorismo.

Respecto del 1,9 millón de contenido extremista eliminado entre enero y marzo pasados, la empresa aseveró que detectó un 99,5% de esas publicaciones antes de que hubieran comenzado a circular.

"Están dando los pasos adecuados para definir claramente qué es y qué no es un discurso protegido en su plataforma", dijo Brandie Nonnecke, del Centro para la Investigación de la Tecnología de la Información en el Interés de la Sociedad de la Universidad de California, en Estados Unidos, a la BBC.

No obstante, la especialista consideró que lo más complejo del trabajo es que los sistemas de automatización no siempre tienen capacidad de controlar los discursos de odio.

Sucede que, en ese sentido, los sistemas apenas detectaron el 38% de los contenidos de ese tenor. El resto fue identificado por usuarios que realizaron la denuncia a partir de la herramienta que brinda la misma red social.

La compañía admite que hay contextos que la tecnología aún no puede resolver, razón por la que se apoyan en el equipo de revisión que toma la decisión final sobre lo que hay que hacer.

El director de análisis de datos de la empresa, Alex Schultz, explicó que hay palabras que se consideran insultantes cuando se emiten en el marco de un ataque homofóbico pero que cambian de significado cuando son usadas por homosexuales.

Por esa razón, borrar todas las publicaciones que incluyen un término determinado podría ser una decisión equivocada. Y la cuestión se torna más compleja aún cuando no todo el mundo declara abiertamente su homosexualidad, y los sistemas de la red social tampoco deberían estar presumiendo esa situación. De ahí la complejidad.

La situación es aún más difícil de controlar y de encauzar si se advierte que, sobre 10.000 publicaciones tomadas por Facebook de manera aleatoria, la compañía detectó que hasta 27 publicaciones de cada 10.000 contenían algún tipo de violencia gráfica. Sólo hay que trasladar esa proporción a los 1.500 millones de personas que usan el servicio para dar cuenta de la dimensión de la situación.

Lo mismo ocurría con el contenido sexual o desnudos de adultos: de siete a nueve posts de cada 10.000 lo incluían.

El material encontrado respecto del terrorismo fue pequeño usando ese mismo sistema, y sobre los discursos del odio la compañía no fue capaz de obtener "datos confiables".

Los críticos de Facebook sostienen que si la compañía es ágil para lanzar nuevas aplicaciones, cruzar datos de los usuarios y venderlos, también podrían saber quiénes son los usuarios.

Facebook posee una red de más de 17.000 moderadores que deben entender cabalmente la cultura de determinados países para poder hacer bien su trabajo.