Según algunos rumores e informes, Apple anunciará un nuevo sistema que escaneará el contenido de su Galería para prevenir, descubrir y detener el abuso infantil como la pornografía infantil, reporta 9to5Mac . La función estará impulsada por un algoritmo hash que, según los informes, hará coincidir el contenido de la foto con materiales conocidos de abuso infantil.

Apple podría introducir un sistema de escaneo hash para contenido ilegal en iPhone

Se informa que el nuevo sistema sucederá en el dispositivo y el iPhone descargará un conjunto de huellas digitales, por así decirlo, que representarán los datos ilegales que se verificarán. Luego, como se podría suponer, cualquier coincidencia de contenido ilegal en el iPhone será reportada para una revisión humana.

Sin embargo, Apple aún no ha anunciado tal iniciativa.

El experto en criptografía y seguridad Matthew Green arroja algo de luz sobre por qué tal movimiento podría ser problemático. Por lo general, el algoritmo hash puede cometer errores y generar falsos positivos. Entonces, si Apple permite que los gobiernos controlen la base de datos de contenido de huellas dactilares, es posible que esto pueda usarse indebidamente para otras cosas además del contenido infantil ilegal.

Tenga en cuenta que las fotos cargadas en iCloud Photos para la copia de seguridad no están encriptadas de un extremo a otro, a pesar de estar encriptadas en los servidores de Apple, la compañía debe las claves para el desencriptado. Lo mismo ocurre con cualquier otro servicio de copia de seguridad de fotos.

Categories: IT Info