Un experto en seguridad afirma que Apple está a punto de anunciar herramientas de identificación con foto que identificarían imágenes de abuso infantil en las bibliotecas de fotos de iOS .

Apple tiene aplicaciones individuales previamente eliminadas de la App Store por cuestiones de pornografía infantil, pero ahora se dice que es a punto de introducir este sistema de detección en todo el mundo. Usando hash de fotos, los iPhones podrían identificar el material de abuso sexual infantil (CSAM) en el dispositivo.

Apple no ha confirmado esto y hasta ahora la única fuente es Matthew Green, un criptógrafo y profesor asociado en el Instituto de Seguridad de la Información Johns Hopkins.

Varias personas me han confirmado de forma independiente que Apple lanzará mañana una herramienta del lado del cliente para el escaneo CSAM. Esta es una muy mala idea.

-Matthew Green (@matthew_d_green) 4 de agosto de 2021

Según Green, el plan inicialmente será del lado del cliente, es decir, hacer que toda la detección se realice en el iPhone . Sin embargo, argumenta que es posible que sea el comienzo de un proceso que conduce a la vigilancia del tráfico de datos enviados y recibidos desde el teléfono.

“Eventualmente, podría ser un ingrediente clave para agregar vigilancia a los sistemas de mensajería cifrada”, continúa Green.”La capacidad de agregar sistemas de escaneo como este a los sistemas de mensajería E2E [cifrado de extremo a extremo] ha sido una importante’pregunta’por parte de las fuerzas del orden en todo el mundo”.

“Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas”, dijo.”¿Pero imagina lo que podría hacer en manos de un gobierno autoritario?”

Green que, con sus estudiantes de criptografía, tiene se informó anteriormente sobre cómo las fuerzas del orden pueden acceder a los iPhones. Él y la Universidad Johns Hopkins también han trabajó con Apple para corregir un error de seguridad en Mensajes.

Categories: IT Info