Polémica por la privacidad de WhatsApp: ¿la empresa revisa los mensajes de los usuarios?

Polémica por la privacidad de WhatsApp: ¿la empresa revisa los mensajes de los usuarios?
La compañía propiedad de Facebook cuenta con un equipo de trabajadores que revisa mensajes de los usuarios bajo ciertas condiciones
Por iProfesional
10.09.2021 09.03hs Tecnología

Un equipo de un millar de moderadores de WhatsApp revisa a diario cientos de mensajes privados, videos e imágenes, cuando hay una denuncia de abuso por parte de los usuarios, según un informe periodístico.

La asociación de periodistas ProPublica emitió una aclaración sobre la nota que daba a entender que WhatsApp rompe el cifrado de extremo a extremo con el fin de monitorear los mensajes de los usuarios.

ProPublica modificó el contenido de la historia para detallar los aspectos que sí se derivan de su investigación, que ponen el énfasis en el hecho de que WhatsApp cuenta con un equipo de trabajadores que revisa sólo los mensajes que son denunciados como abusivos por los propios usuarios. El mensaje de ProPublica dice así:

"Aclaración, 8 de septiembre de 2021: una versión anterior de esta historia provocó una confusión involuntaria sobre hasta qué punto WhatsApp examina los mensajes de sus usuarios y si rompe el cifrado que mantiene los intercambios en secreto. Hemos alterado el lenguaje en la historia para dejar en claro que la empresa solo examina los mensajes de los hilos que los usuarios han informado como posiblemente abusivos. No rompe el cifrado de extremo a extremo".

Respecto al cifrado de extremo a extremo, ProPublica también agregó el siguiente párrafo:

"WhatsApp enfatiza este punto de manera tan consistente que un aviso, con una garantía similar, aparece automáticamente en la pantalla antes de que los usuarios envíen mensajes: "Nadie fuera de este chat, ni siquiera WhatsApp, puede leerlos ni escucharlos."

ProPublica apuntó el contraste entre lo expuesto y las palabras de Mark Zuckerberg, el director general ejecutivo de Facebook, cuando decidió adquirir WhatsApp, cuando aseguró: "Los mensajes de WhatsApp son tan seguros que nadie más, ni siquiera la empresa, puede leer una palabra".

La investigación de ProPublica asegura, en el artículo original, que WhatsApp tiene más de 1.000 empleados en edificios en las ciudades de Austin (Texas), Dublín (Irlanda) y Singapur, dedicados a examinar los mensajes, fotografías y videos de los usuarios de la aplicación que podrían estar incumpliendo con las políticas, siempre y cuando hayan sido denunciados por otros usuarios.

De acuerdo con el trabajo de la asociación, los empleados dedicados a la revisión de información utilizarían un software especial de Facebook para examinar flujos de mensajes privados de WhatsApp que han sido denunciados como inapropiados. Sin que esto signifique que WhatsApp está rompiendo unilateralmente o de forma sistemática el cifrado de extremo a extremo.

Entonces, estos moderadores revisarían los mensajes denunciados cuando cabe la posibilidad de que exista algún tipo de abuso. De ser cierto, esto estaría muy alejado de lo que durante mucho tiempo ha afirmado la empresa de Marck Zuckerberg acerca de sus sistemas de moderación.

La empresa aseguró que el monitoreo de los mensajes se daba a través de un software que examinaba los metadatos de los mensajes, imágenes y videos, evitando así que los monitores accedieran éstos directamente. Y, en relación a este aspecto de la historia, ProPublica aclaró:

"Los trabajadores tienen acceso solo a un subconjunto de mensajes de WhatsApp, los que los usuarios señalan y reenvían automáticamente a la empresa como posiblemente abusivos. La revisión es un elemento en una operación de monitoreo más amplia en la que la empresa también revisa material que no está encriptado, incluyendo datos sobre el remitente y su cuenta".

Consultado por ProPublica, Carl Woog, director de comunicaciones de WhatsApp, reconoció que los equipos de monitoreo en Austin y otros lugares revisan los mensajes de WhatsApp para identificar y eliminar a los "peores" abusadores.

Uno de los moderadores de contenido que trabajan para WhatsApp reveló, en una denuncia confidencial ante la Comisión de Bolsa y de Valores de Estados Unidos, que existe un uso extensivo por parte de WhatsApp de moderadores, software de IA, etc., para acceder y examinar los mensajes de los 2 mil millones de usuarios de la aplicación de mensajería.

WhatsApp salió al ctruce de un informe que cuestionaba su privacidad.
WhatsApp salió al ctruce de un informe que cuestionaba su privacidad.

WhatsApp compartiría mensajes en tiempo real con la policía

Además, WhatsApp también compartiría registros sin cifrar de la actividad de los usuarios con las autoridades judiciales. Pero la empresa dice que solamente lo hace cuando hay solicitudes legales válidas, "incluyendo órdenes que requieren que proporcionemos en tiempo real a quién está enviando mensajes una persona en específico".

Una de estas colaboraciones entre WhatsApp y la policía llevó a los fiscales a dar seguimiento a un caso, donde se acusó a un empleado del Departamento del Tesoro por filtrar documentos confidenciales a BuzzFeed News, mismos que exponían el flujo de dinero ilegal o sucio a través de bancos de Estados Unidos.

ProPublica tuvo entrevistas con 29 moderadores de contenido de WhatsApp, quienes afirmaron que el trabajo que hacen en el caso de los mensajes de esta aplicación es muy semejante al que realizan para Facebook e Instagram, donde los mensajes no están cifrados de extremo a extremo.

Los moderadores tienen entre 20 y 30 años y están contratados por Accenture, uno de los contratistas más grandes de Facebook y otras grandes empresas, como "revisores de contenido", sin revelar que se trata de un trabajo hecho para Facebook o WhatsApp, y con un sueldo de 16.50 dólares por hora.

Estos trabajadores firman un acuerdo de confidencialidad para no revelar que trabajan para las empresas de Zuckerberg. Sin embargo, revisan a diario alrededor de 600 "tickets" o serie de mensajes multimedia enviados por los usuarios de WhatsApp.

Los moderadores sólo deben dar clic en un botón para acceder a los mensajes denunciados por los usuarios e identificar si, efectivamente, viola con algún término de servicio de la plataforma.

De este modo pueden revisar cinco mensajes, el que originó el caso por ser supuestamente ofensivo y los cuatro mensajes anteriores en la conversación, incluyendo fotografías y videos.

Del mismo modo, la inteligencia artificial puede analizar datos sin cifrar de cuentas y recopilar información que incluye nombres, imágenes de perfil de los grupos de WhatsApp de un usuario caracterizado como sospechoso de violar las reglas.

Pero también recopila número telefónico, nivel de batería, idioma, zona horaria, dirección de IP, intensidad de la señal WiFi, sistema operativo del teléfono, una lista de sus dispositivos electrónicos cuenta de Facebook e Instagram relacionadas, la última vez que usaron la app y un historial previo de violaciones.

WhatsApp es la aplicación de mensajería instantánea más usada en Occidente.
WhatsApp es la aplicación de mensajería instantánea más usada en Occidente.

Un sistema de moderación con errores

La moderación de WhatsApp tiene varias categorías para clasificar los contenidos, entre pornografía infantil, terrorismo, spam, discurso de odio, desinformación e incluso vigila la conducta de las empresas, pequeñas o grandes, y los productos que ofrecen, por probables violaciones a la política comercial.

Sin embargo, lo vago que pueden ser los criterios y los errores en las traducciones automáticas de Facebook han llevado a los moderadores a revisar algunas veces el contenido equivocado.

Por ejemplo, según explicaron los trabajadores a ProPublica, hubo ocasiones en las que el software identificó un posible tráfico de niños y su eventual sacrificio, por un error de traducción. Pero, tras un examen más minucioso, se descubrió que se trataba de cabras en venta para ser cocinadas y consumidas.

Además, la inteligencia artificial hace que los moderadores vean fotografías privadas, de niños bañándose inocentemente, que no son precisamente un caso de tráfico o abuso infantil.

La respuesta de WhatsApp sobre la privacidad de los usuarios

Tras ser consultados, el portavoz de WhatsApp respondió a ProPublica:

"Creamos WhatsApp de una manera que limita los datos que recopilamos y al mismo tiempo nos brinda herramientas para prevenir el spam, investigar amenazas y prohibir a las personas involucradas en abusos, incluso con base en base los informes de usuarios que recibimos. Este trabajo requiere un esfuerzo extraordinario por parte de los expertos en seguridad y un valioso equipo de confianza y seguridad que trabaja incansablemente para ayudar a proporcionar al mundo una comunicación privada. Según los comentarios que hemos recibido de los usuarios, estamos seguros de que las personas comprenden que cuando envían informes a WhatsApp, recibimos el contenido que nos envían".