iProfesional

Apple escaneará las fotos de tu iPhone en busca de imágenes de abuso sexual infantil

Enorme preocupación en torno a la privacidad de los usuarios, ya que esta misma tecnología podría usarse para buscar cualquier tipo de información.
06/08/2021 - 08:01hs
Apple escaneará las fotos de tu iPhone en busca de imágenes de abuso sexual infantil

Apple ha creado un nuevo sistema que analizará las imágenes que se hagan con todos los dispositivos iPhone y iPad en busca de material que podría identificar prácticas de abuso sexual a menores.

Según ha anunciado la compañía, esta nueva tecnología escaneará las imágenes antes de que se almacenen en iCloud, buscando coincidencias con imágenes de abuso de referencia.

El sistema será automático y, en caso de que se encuentre alguna coincidencia o una imagen sea sospechosa, la alerta saltará y una persona se encargará de evaluar la fotografía. De ser necesario, después pondrá el caso en conocimiento de las fuerzas de seguridad.

La noticia ha generado una enorme preocupación en torno a la privacidad de los usuarios, ya que esta misma tecnología podría usarse para buscar cualquier tipo de información en los teléfonos. De hecho, podría ser usada por gobiernos autoritarios para espiar a sus ciudadanos o buscar personas que piensan de manera diferente.

El sistema afectará también a las tabletas iPad.
El sistema afectará también a las tabletas iPad.

Disponible muy pronto

La intención de la compañía californiana es que ese nuevo sistema vaya incorporado en las nuevas versiones de iOS, watchOS, macOS y iPadOS, que se lanzarán a finales de 2021.

En un comunicado, Apple explica que los dispositivos tendrán "nuevas aplicaciones de criptografía para ayudar a limitar la propagación de abuso sexual a menores 'online', mientras se diseña para la privacidad del usuario".

Las nuevas medidas de Apple están destinadas a proteger a los niños. El sistema se llama NeuralHash y compara las fotografías con una base de datos de imágenes de abuso sexual infantil que están en poder del NCMEC, el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos. Esas imágenes se traducen en códigos numéricos que, en caso de coincidir con las muestras, provocarán la alerta.

Pero no es la única medida que implementará Apple encaminada a la seguridad de los niños. La aplicación Mensajes será capaz de detectar imágenes sexualmente explícitas y las difuminará, en el caso de los niños. Además, aparecerá un mensaje que alertará al niño del contenido de esa fotografía y, además, avisará a los padres para que puedan ver también la imagen.

La vigilancia llegará a las fotos de los iPhone.
La vigilancia llegará a las fotos de los iPhone.

Incluso Siri ha sido programado para ayudar a los usuarios que busquen denunciar abusos sexuales a menores. En caso de que una persona busque cómo denunciar determinados contenidos susceptibles de ser catalogados como de abuso sexual, el asistente virtual de Apple conducirá al usuario a las herramientas que necesita para hacerlo.

Temas relacionados