Twitter prohíbe los videos porno falsos con famosas
Twitter se suma a las plataformas que prohíben los videos "deepfake", videos creados con un software que utiliza inteligencia artificial para superponer la cara de famosas sobre el cuerpo de actrices en videos porno.
Según publicó el diario digital Motherboard, Twitter suspenderá las cuentas que publiquen videos porno producidos o distribuidos sin el consentimiento de las personas que aparecen en él, también si han sido creados por los algoritmos "deepfake".
Además, la red también suspenderá las cuentas que compartan este contenido, aunque no sean responsables de su producción o publicación.
La normativa de Twitter no permite los videos porno generados por inteligencia artificial porque se publican sin el consentimiento de las personas involucradas.
A diferencia de otras redes sociales, Twitter suele ser "porno-friendly": bajo la etiqueta "contenido sensible" está permitido publicar fotografías, GIF y videos con contenido sexual.
Los usuarios pueden configurar en ajustes si por defecto prefieren que Twitter muestre o bloquee los mensajes marcados con esta etiqueta.
Según responsables de Twitter, esta norma no engloba los contenidos "deepfake" ya que estos se distribuyen sin el consentimiento de las personas involucradas: ni la actriz del video original ni la persona famosa cuya cara se utiliza han autorizado la publicación de las imágenes.
A pesar del anuncio de Twitter y de las primeras cuentas suspendidas, muchos usuarios sospechan que la red no adoptará una actitud activa para buscar y suspender las cuentas que infrinjan la normativa.
También está prohibido según las reglas de Twitter publicar mensajes insultantes o amenazadores, que inciten a comportamientos abusivos o que promuevan la violencia.
En cambio, personalidades como Donald Trump, quien a menudo incluye amenazas en sus mensajes, no han sido expulsados de la red. Personas que utilizan Twitter para suplantar identidades y así estafar a otros usuarios también siguen visibles en la red.
A nivel legal, los expertos no creen que el "face-swapping" en videos porno sea un delito: por un lado no se puede considerar difamación si se determina que el video es falso y por otro tampoco puede juzgarse como pornovenganza ya que el video original se tomó con la autorización de las personas que aparecen en él.
Otras redes que ya han prohibido el "deepfake" son PornHub y Gfycat, aunque muchos de los videos eliminados siguen disponibles en páginas como Reddit.
Aunque no sea una solución definitiva, la prohibición de Twitter y las demás plataformas contribuye a que el contenido "deepfake" no se extienda todavía más por las redes.