iProfesional

Desarrolló sistemas automatizados que ayudan a detectar contenido que puede violar políticas internas, como explotación infantil y extremismo violento
25/04/2018 - 08:06hs

La empresa dueña de YouTube, Google, sufrió en los últimos meses varios inconvenientes en su plataforma, relacionados con videos inapropiados, algunos en la plataforma dedicada al público infantil.

La parte de los adultos cuenta con videos de diferentes tipos de conspiraciones, un tema que YouTube decidió enfrentar agregando información relacionada a la web de Wikipedia, para que los usuarios puedan chequear si lo que se cuenta es cierto o no. Este trabajo se ha visto apoyado, además, por una renovación en las políticas de la web.

Las medidas, según explican en Google, están comenzando a funcionar: un informe trimestral mostrará si se están cumplimiendo las políticas de la comunidad.

El informe ha sacado a la luz un dato interesante respecto a las batallas de Google con YouTube: se han eliminado más de 8 millones de vídeos inapropiados de la plataforma, un trabajo que han llevado a cabo un grupo de máquinas y humanos que cada vez mejora su potencial.

Este informe proporciona datos sobre los indicadores que YouTube recibe y cómo se aplican las políticas. Los indicadores pueden provenir de los sistemas de marcado automático, de miembros de confianza (ONG, agencias gubernamentales e individuos) o de usuarios de la comunidad más amplia de YouTube.

El comunicado relata: “Contamos con equipos de todo el mundo para revisar videos marcados y eliminar contenido que infringe nuestros términos; restringir videos (por ejemplo, contenido restringido por edad que puede no ser apropiado para todos los públicos)”.

Entre los aspectos que llevan a los usuarios interno de la comunidad a marcar un vídeo como inapropiado están sobre todo los que tienen contenido sexual explícito (30%), son engañosos o son spam (27%), tratan de abusos u odio (16%) o son violentos o repulsivos (14%).

YouTube, además, ha estado desarrollando sistemas automatizados que ayudan a detectar contenido que puede violar las políticas internas. Estos sistemas automatizados se centran en las formas más atroces de abuso, como la explotación infantil y el extremismo violento.

Una vez que los sistemas automatizados marcan el contenido potencialmente problemático, la revisión humana de ese contenido verifica que, efectivamente, infringe las políticas y permite que el contenido se use para capacitar a las máquinas para una mejor cobertura en el futuro.