NUEVO DISEÑO
NUEVO DISEÑO

Tecnología

Facebook admite que es muy complejo controlar el contenido violento que circula por la red social

Facebook ahora admite que es muy complejo controlar el contenido violento que circula por la red social

La compañía reconoció el crecimiento exponencial de contenido discriminatorio, sexual, terrorista y de otro tipo entre finales de 2017 y principios de 2018

16.05.2018 10.20hs Tecnología

Violencia gráfica, desnudez de adultos y contenido sexual, spam, incitación al odio, cuentas falsas. Estos son los principales abusos que se detectan en Facebook que, por primera vez, y en el marco de la fuerte crisis que atraviesa por la manipulación de la información, reveló datos internos sobre lo que ocurren ese espacio.

De acuerdo a la información dada a conocer por la misma empresa, el contenido violento viene creciendo de manera dramática, lo mismo que los discursos del odio, más allá de que el objetivo es controlar mejor a la propaganda terrorista.

Lo que aún se desconoce es con qué frecuencia Facebook elimina contenidos por error o deja algo que deberí­a ser borrado. Y la razón es que la compañí­a no sabe ni esto ni la cantidad de abusos que se publican en esa red.

Sin embargo, aseguró haber retirado 583 millones de cuentas falsas entre enero y marzo.

Al medir lo sucedido en el último trimestre de 2017 y el primero de 2018 se detectó, por ejemplo, que la violencia gráfica aumentó un 183% de un perí­odo a otro, además de haber eliminado 3,4 millones de piezas, de las cuales un 86% fue detectada por su sistema automatizado de contenidos.

Esto le permitió, a su vez, eliminado contenido sexual, spam y, principalmente, terrorismo.

Respecto del 1,9 millón de contenido extremista eliminado entre enero y marzo pasados, la empresa aseveró que detectó un 99,5% de esas publicaciones antes de que hubieran comenzado a circular.

"Están dando los pasos adecuados para definir claramente qué es y qué no es un discurso protegido en su plataforma", dijo Brandie Nonnecke, del Centro para la Investigación de la Tecnologí­a de la Información en el Interés de la Sociedad de la Universidad de California, en Estados Unidos, a la BBC.

No obstante, la especialista consideró que lo más complejo del trabajo es que los sistemas de automatización no siempre tienen capacidad de controlar los discursos de odio.

Sucede que, en ese sentido, los sistemas apenas detectaron el 38% de los contenidos de ese tenor. El resto fue identificado por usuarios que realizaron la denuncia a partir de la herramienta que brinda la misma red social.

La compañí­a admite que hay contextos que la tecnologí­a aún no puede resolver, razón por la que se apoyan en el equipo de revisión que toma la decisión final sobre lo que hay que hacer.

El director de análisis de datos de la empresa, Alex Schultz, explicó que hay palabras que se consideran insultantes cuando se emiten en el marco de un ataque homofóbico pero que cambian de significado cuando son usadas por homosexuales.

Por esa razón, borrar todas las publicaciones que incluyen un término determinado podrí­a ser una decisión equivocada. Y la cuestión se torna más compleja aún cuando no todo el mundo declara abiertamente su homosexualidad, y los sistemas de la red social tampoco deberí­an estar presumiendo esa situación. De ahí­ la complejidad.

La situación es aún más difí­cil de controlar y de encauzar si se advierte que, sobre 10.000 publicaciones tomadas por Facebook de manera aleatoria, la compañí­a detectó que hasta 27 publicaciones de cada 10.000 contení­an algún tipo de violencia gráfica. Sólo hay que trasladar esa proporción a los 1.500 millones de personas que usan el servicio para dar cuenta de la dimensión de la situación.

Lo mismo ocurrí­a con el contenido sexual o desnudos de adultos: de siete a nueve posts de cada 10.000 lo incluí­an.

El material encontrado respecto del terrorismo fue pequeño usando ese mismo sistema, y sobre los discursos del odio la compañí­a no fue capaz de obtener "datos confiables".

Los crí­ticos de Facebook sostienen que si la compañí­a es ágil para lanzar nuevas aplicaciones, cruzar datos de los usuarios y venderlos, también podrí­an saber quiénes son los usuarios.

Facebook posee una red de más de 17.000 moderadores que deben entender cabalmente la cultura de determinados paí­ses para poder hacer bien su trabajo.

Enterate lo último sobre economía digital, startups, fintech, innovación corporativa y blockchain. CLICK AQUÍ
Más sobre Tecnología
Te puede interesar
Zoom Recomendadas