REDES SOCIALES

Facebook removió 119 millones de cuentas falsas

La compañía ha preferido no dar datos absolutos sobre publicaciones con desnudos, actividad sexual, violencia y contenido gráfico
TECNOLOGÍA - 24 de Mayo, 2019

Facebook ha publicado su informe de transparencia correspondiente a la segunda mitad de 2018. En ese período, la compañía recibió 110.634 peticiones de datos sobre sus usuarios, de las cuales 41.336 corresponden a los Estados Unidos.

"Escudriñamos cuidadosamente cada petición gubernamental que recibimos para proteger la información de la gente que usa nuestros servicios", explicó Chris Sonderby, vicepresidente de Integridad y miembro de Consejo General de Facebook.

Así, toda petición debe ser "legalmente adecuada" y la compañía asegura que se niega a entregar información -hasta el punto de acudir a los tribunales- si parece no ser correcta o si es "excesivamente amplia".

En lo que respecta al contenido eliminado por derechos de autor, se eliminaron entradas en 2.595.410 ocasiones en este período entre Facebook e Instagram. También hubo 781.875 publicaciones que desaparecieron por informes sobre falsificaciones y 215.877 por casos relacionados con marcas registradas.

¿Qué hay del contenido que la propia red social no quiere que aparezca? En su resumen, la compañía ha preferido no dar datos absolutos sobre publicaciones con desnudos, actividad sexual, violencia, contenido gráfico o cuentas falsas, pues asegura que prefiere centrarse en la prevalencia; es decir, en aquello que llega a ser visto por los usuarios. En cualquier caso, esta información sí está disponible en el informe de transparencia.

Así, de cada 10.000 veces que alguna persona veía contenido en la red social, entre 11 y 14 se exponía a contenido que incumplía las reglas sobre desnudos y sexo y en 25 ocasiones a algo que iba en contra de sus directivas sobre contenido violento.

Guy Rosen, vicepresidente de integridad de Facebook, presume de detectar de forma proactiva "el 95% del contenido sobre el que actuamos antes de necesitar que alguien lo denuncie" en seis de las categorías que incluyen en su informe. Si bien es cierto que el dato es positivo, Rosen olvida señalar que en el caso del acoso y el bullying únicamente se adelantaron en un 14,1% de las ocasiones.

En lo que respecta al discurso de odio el porcentaje sube hasta el 65,4%; todavía por debajo del notable y muy lejos del sobresaliente que consiguen, por ejemplo, los pezones. En el primer trimestre del año ya se han eliminado 4 millones de entradas que se enmarcarían en esta categoría. "Continuamos invirtiendo en tecnología para expandir nuestra capacidad para detectar este contenido en distintos idiomas y regiones", asegura el directivo.

La red social también ha explicado con más detalle cómo hace cumplir sus normas respecto al contenido que se puede publicar. En este apartado ha reconocido que estima que un 5% de sus usuarios mensuales activos son cuentas falsas. Si bien la cifra puede parecer baja, hay que tener en cuenta que, según sus propios datos, estos son 2.380 millones, así que habría aproximadamente 119 millones de cuentas falsas.

Hay tres procesos para identificar y eliminar una cuenta falsa, según recoge Alex Schultz, vicepresidente de análisis de datos de Facebook, en una entrada en el blog de la compañía.

El primero de ellos es sencillamente evitar su creación y para ello buscan una serie de señales que indican si se están registrando muchas cuentas desde un mismo sitio, algo que resuelven bloqueando las IP sospechosas. Eso sí, estos casos no entran dentro de su registro, ya que no pueden saber cuántas cuentas habrían aparecido; únicamente admiten que cada día se previene la creación de "millones de cuentas falsas".

En segundo lugar pueden eliminar los perfiles al poco tiempo de nacer mediante la detección de patrones de comportamiento (cuentas de correo sospechosas, por ejemplo). Si bien estas cuentas sí entran dentro de sus números, no formarían parte de los 119 millones mencionados anteriormente, ya que no llegan a ser usuarios mensuales activos y tampoco suponen un gran riesgo de desinformación.

Por lo tanto, el tercer proceso es el más importante, ya que corresponde a las cuentas que han sido capaces de sortear el radar de Facebook (o, al menos, de conseguir que éste les dé el beneficio de la duda). En este caso ya entran en juego las denuncias de los usuarios, aunque Schultz presume de detectar el 99% de ellas antes de que sean señaladas.

Te puede interesar

Secciones