iProfesional

Facebook vs. las "deepfakes": la "guerra" virtual que puede conmover la política y la economía global

Es la primera vez que varios gigantes de las redes sociales toman una línea dura específicamente para prohibir el contenido falso
13/01/2020 - 07:12hs
Facebook vs. las "deepfakes": la "guerra" virtual que puede conmover la política y la economía global

El 3 de noviembre será el día clave del año 2020 a nivel mundial: el primer martes del penúltimo mes del año la ciudadanía de los Estados Unidos votará al Colegio Electoral que elegirá al 59° presidente de la mayor potencia política, económica y militar del mundo.

La anterior elección, en 2016, cuando el republicano Donald Trump venció a la demócrata Hillary Clinton, quedó bajo un momento de sospecha por la manipulación y las noticias falsas en redes sociales que perjudicaron a la entonces senadora oficialista.

Tras tener un papel destacado en la victoria de Donald Trump en las elecciones estadounidenses de 2016, Facebook anunció el 6 de enero, el primer lunes de este trascendental 2020, un movimiento con el que espera salvaguardar, al menos, en parte, la integridad de los comicios estadounidenses de este año: prohibirá los videos manipulados (en inglés conocidos como "deepfakes") que puedan engañar a los usuarios.

Monika Bickert, vicepresidenta de gestión de política global de la compañía, explicó la medida en un comunicado en el que aseguró que se eliminarán todos los videos que hayan sido editados "de formas que no sean evidentes para la persona media" y que "probablemente vayan a confundir a alguien para hacerle pensar que el protagonista de un vídeo dijo palabras que en realidad no pronunció".

Serán borrados los videos que sean "producto de la inteligencia artificial o machine learning que fusione, reemplace o superponga contenido en un vídeo para hacer que parezca auténtico".

En ambos casos, la política excluirá el contenido que sea considerado parodia o sátira, así como los videos que hayan sido editados para omitir o cambiar el orden de las palabras.

En cualquier caso, los videos que no sean eliminados podrán ser revisados por los verificadores de contenido de la red social.

Cuando uno de ellos -o una foto- sea considerado falso o parcialmente falso, se reducirá el alcance de su distribución en los tablones de los usuarios y aparecerán alertas que informará de su falsedad a quienes lo vean, lo compartan o ya lo hayan compartido.

"Esta aproximación es crítica para nuestra estrategia", aseguró Bickert. Además, explicó que tras consultar con expertos decidieron que es mejor una aproximación pedagógica en la que se informa y se enseña a los usuarios en lugar de simplemente eliminar el contenido que no cumple con su normativa. "Al mantener (el contenido) y marcarlo como falso proporcionamos a la gente información y contexto importantes".

En el caso de que se trate de un anuncio, será rechazado. Esto supone un pequeño cambio respecto a la política de la compañía, que anteriormente se negó a verificar los anuncios electorales, lo que causó una pequeña guerra interna dentro de Facebook.

Alianza

"Deepfake", que puede ser traducido como ultrafalso", está formada por las palabras "fake", falsificación, y "deep learning", aprendizaje profundo. Es una técnica de inteligencia artificial que permite editar videos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de aprendizaje no supervisados, conocidos en español como RGA (red generativa antagónica), y videos o imágenes ya existentes.

El resultado final de esta técnica es un video muy realista, aunque ficticio. Entre los ejemplos destacados de uso del uso de la técnica del deepfake se encuentran dos escenas de la película "Rogue One", una historia de Star Wars (2016) en las que la Princesa Leia aparece con la cara de Carrie Fisher cuando era joven, cuando en realidad fue interpretada por la actriz noruega Ingvild Deila.

A continuación, un video con casos de manipulación en videos de políticos:

En diciembre, Facebook había anunciado que invertirá 10 millones de dólares en un desafío de detección de deepfakes (Deepfake Detection Challenge, en inglés) en el que también colaborará con gigantes del sector como Amazon y Microsoft.

"Las técnicas deepfake, que presentan videos realistas generados por inteligencia artificial de personas reales que hacen y dicen cosas ficticias, tienen implicaciones significativas para determinar la legitimidad de la información presentada en la web", explicó en esa ocasión el director de tecnología de Facebook, Mike Schroepfer, en el blog del grupo.

Pero "la industria no tiene un conjunto de datos o puntos de referencia para detectarlos", y "queremos catalizar más investigación y desarrollo en esta área y asegurarnos de que haya mejores herramientas de código abierto para detectar deepfakes".

Por ello, Facebook, Amazon y Microsoft se han unido a Partnership of AI y a académicos de Cornell Tech, MIT, Universidad de Oxford, Berkeley y otros centros de investigación para lanzar una competición que consiga mejores formas de detectar deepfakes para eliminarlos de la web y que no influyan en el debate público de la forma malintencionada que suelen buscar sus creadores. Amazon ofrecerá a los ganadores hasta un millón de dólares en servicios web mientras que Google

hospedará el desafío y sus resultados en sus servidores.

Es como una hackathon pero para combatir deepfakes. La competición tendrá "subvenciones y premios" con el fin de "estimular a la industria para crear nuevas formas de detectar y evitar que los medios manipulados a través de la inteligencia artificial se utilicen para engañar a otros", dijo Schroepfer.

"Facebook está encargando un conjunto de datos realistas que utilizará actores pagados, con el consentimiento requerido obtenido, para contribuir al desafío. No se utilizarán datos de usuario de Facebook en este conjunto de datos", aseguró el ejecutivo.

Además de Facebook, en la primera semana de 2020 TikTok y Reddit actualizaron sus políticas sobre desinformación, lo que sugiere que las plataformas tecnológicas sienten una mayor presión para detener los intentos de manipulación antes de las elecciones de 2020.

¿Por qué es importante? Esta es la primera vez que varios gigantes de las redes sociales toman una línea dura específicamente para prohibir el contenido falso, generalmente video o audio que se manipula utilizando inteligencia artificial (IA) o aprendizaje automático para engañar intencionalmente a los usuarios.

TikTok dijo el 8 de enero que prohibirá la información errónea creada para causar daño a los usuarios o al público en general, incluida la información errónea sobre las elecciones u otros procesos cívicos, y el contenido manipulado destinado a causar daño.

Las políticas de TikTok no abordan ni definen explícitamente las falsificaciones profundas, pero abordan el contenido manipulado con mucha más profundidad que sus estándares anteriores.

Reddit dijo el 9 de enero que prohibiría las cuentas que se hacen pasar por personas o entidades de una manera engañosa o engañosa. También prohibirá las falsificaciones profundas u otro contenido manipulado que "se presente para engañar o se atribuya falsamente a una persona o entidad".

Hasta ahora, hubo pocos casos de falsificaciones profundas verdaderas que se vuelvan virales para engañar a los usuarios. Más bien, la mayoría de los medios engañosos que se vuelven virales en línea toman la forma de imágenes manipuladas de aficionados que no usan tecnología sofisticada, sino que engañan al ofrecer un contexto engañoso.

Las nuevas políticas de "fake" profundo de Facebook no necesariamente prohibirían esos videos, porque no fueron creados usando inteligencia artificial o aprendizaje automático.

Las nuevas políticas de Reddit lo harían, si el clip fue publicado con la intención de engañar a los usuarios sobre la verdad.

Uno de los pasos más importantes que las compañías de redes sociales han tomado para tomar medidas sobre las falsificaciones profundas es definir objetivamente lo que son. Pero decidir cuándo eliminarlos sigue siendo difícil.

Por ahora, las compañías están tratando de usar la intención como su barómetro. Pero la intención es muy subjetiva, y hacer esas llamadas a escala de plataforma tecnológica será un desafío.

Transformación digital

Internet vive una crisis de la verdad. Al fenómeno de las "fake news" esparcidas en las redes sociales y sitios web sospechosos desde hace un par de años, se le han sumado estas mentiras profundas.

"Para entender el surgimiento de las deepfakes podemos observar dos fuerzas del momento actual: por un lado, las herramientas de video de calidad están al alcance de todos, mientras que como usuarios nos hemos enganchado a narrativas cortas e inmediatas. Esto permite que sea más fácil esparcir este tipo de contenidos, que se pueden desarrollar con tan solo un fragmento de video o un par de segundos de audio", aseguró Bill Bronske, Senior Solution Architect del Studio de Inteligencia Artificial de Globant.

Para Bronske, este fenómeno será cada vez más difícil de detectar y con el tiempo, se requerirán procesos, así como herramientas específicas para descubrirlos.

De acuerdo con el experto, en este momento una de las mejores protecciones para las organizaciones contra las "deepfakes" es dirigir sus esfuerzos de transformación digital en torno a los principios de equidad, responsabilidad, transparencia y bien social.

La clave está en implementar un cambio cultural desde adentro hacia afuera, centrado en el talento humano. Partir del integrante junior hasta llegar a los más altos cargos ejecutivos, permitiendo a las personas desempeñarse en su nivel más óptimo.

"Existe una lógica en el mundo: sin verdad no hay confianza y sin confianza, no hay ventas. En cuanto a las organizaciones, hemos comprobado que impulsar una transformación profunda preserva la confianza, lo cual representa una herramienta muy poderosa para contrarrestar los efectos de las deepfakes en el mundo digital y la crisis de la verdad en Internet", concluyó Bronske.