El buscador de macOS no analiza tus imágenes en busca de material ilegal.

Apple no está comprobando las imágenes visualizadas en macOS Finder en busca de contenido CSAM, según ha determinado una investigación de macOS Ventura, y el análisis indica que Apple no está utilizando Visual Lookup para ese propósito en particular.

En diciembre, Apple anunció que había renunciado a sus planes para escanear fotos de iPhone cargadas en iCloud en busca de material de abuso sexual infantil (CSAM), luego de una considerable reacción de los críticos. Sin embargo, aparentemente persistieron los rumores que alegaban que Apple todavía estaba realizando comprobaciones en macOS Ventura 13.1, lo que provocó una investigación por parte de un desarrollador.

Según Howard Oakley de Eclectic Light Co. en un publicación de blog del 18 de enero, comenzó a circular un reclamo de que Apple estaba enviando automáticamente”identificadores de imágenes”que un usuario había explorado en Finder,”sin el consentimiento o conocimiento de ese usuario”.”

El plan para el análisis de MASI habría implicado una verificación local en el dispositivo de las imágenes en busca de contenido potencial de MANI, mediante un sistema hash. Luego, el hash de la imagen se enviaría y se compararía con una lista de archivos CSAM conocidos.

Si bien la idea de escanear imágenes y crear un hash neuronal para enviarlo a Apple para describir las características de la imagen podría usarse para el escaneo CSAM, las pruebas de Oakley indican que no se está usando activamente de esa manera. En cambio, parece que el sistema Visual Lookup de Apple, que permite que macOS e iOS identifiquen personas y objetos en una imagen, así como texto, podría confundirse con este tipo de comportamiento.

No hay pruebas en las pruebas

Como parte de las pruebas, se ejecutó macOS 13.1 dentro de una máquina virtual y se usó la aplicación Mints para escanear un registro unificado de actividades en la instancia de VM. En la VM, se vio una colección de imágenes durante un período de un minuto en la vista de galería de Finder, con más de 40 000 entradas de registro capturadas y guardadas.

Si el sistema se usara para el análisis de CSAM, habría conexiones salientes repetidas desde”mediaanalysisd”a un servidor de Apple para cada imagen. Mediaanalysisisd se refiere a un elemento utilizado en Visual Lookup donde Fotos y otras herramientas pueden mostrar información sobre los elementos detectados en una imagen, como”gato”o los nombres de los objetos.

En cambio, los registros mostraron que no había ninguna entrada asociada con mediaanalysisd. Luego se descubrió que un extracto de registro adicional era muy similar a Visual Lookup tal como aparecía en macOS 12.3, en el sentido de que el sistema no ha cambiado materialmente desde esa versión.

Normalmente, mediaanalysisd no se pone en contacto con los servidores de Apple hasta muy avanzado el proceso, ya que requiere hashes neuronales generados por el análisis de imágenes de antemano. Una vez que se envía y se recibe una respuesta de los servidores de Apple, los datos recibidos se utilizan para identificar los elementos del usuario dentro de la imagen.

En ensayos posteriores se determinó que hubo otros intentos de enviar datos para su análisis, pero para habilitar el funcionamiento de Live Text.

En su conclusión, Oakley escribe que”no hay evidencia de que las imágenes locales en una Mac tengan identificadores calculados y cargados en los servidores de Apple cuando se ven en las ventanas del Finder”.

Mientras que las imágenes que se ven en las aplicaciones compatibles con Visual Lookup tienen hashes neuronales producidos, que pueden enviarse a los servidores de Apple para su análisis. Excepto que tratar de recolectar los hashes neuronales para detectar CSAM”estaría condenado al fracaso por muchas razones”.

Las imágenes locales en QuickLook Preview también pasan por el análisis normal de Live Text, pero”eso no genera identificadores que puedan cargarse en los servidores de Apple”.

Además, Visual Lookup podría desactivarse desactivando las Sugerencias de Siri. Las búsquedas de análisis de medios externos también podrían bloquearse mediante un firewall de software configurado para bloquear el puerto 443, aunque”eso podría deshabilitar otras funciones de macOS”.

Oakley concluye el artículo con una advertencia de que”alegar que las acciones de un usuario tienen efectos controvertidos requiere una demostración completa de toda la cadena de causalidad. Basar las afirmaciones en la inferencia de que dos eventos pueden estar conectados, sin comprender el naturaleza de cualquiera, es imprudente, si no malicioso”.

CSAM sigue siendo un problema

Aunque Apple se ha desviado de la idea de realizar un procesamiento local de detección de CSAM, los legisladores todavía creen que Apple no está haciendo lo suficiente problema.

En diciembre, el comisionado de seguridad electrónica de Australia atacó a Apple y Google por un”uso claramente inadecuado e inconsistente de la tecnología ampliamente disponible para detectar material de abuso infantil y manipulación”.

En lugar de escanear directamente el contenido existente, lo que sería en gran medida ineficaz debido a que Apple utiliza copias de seguridad y almacenamiento de fotos cifrados de extremo a extremo, Apple parece querer adoptar un enfoque diferente. Es decir, uno que puede detectar desnudos incluidos en fotos enviadas a través de iMessage.

Categories: IT Info