O macOS Finder não está verificando suas imagens em busca de material ilegal.

A Apple não está verificando as imagens visualizadas no macOS Finder para conteúdo CSAM, uma investigação sobre o macOS Ventura determinou, com análises indicando que o Visual Lookup não está sendo usado pela Apple para essa finalidade específica.

Em dezembro, a Apple anunciou que havia desistido dos planos para digitalizar fotos do iPhone carregadas no iCloud em busca de material de abuso sexual infantil (CSAM), após considerável reação dos críticos. No entanto, aparentemente persistiam rumores alegando que a Apple ainda estava realizando verificações no macOS Ventura 13.1, levando a uma investigação de um desenvolvedor.

De acordo com Howard Oakley da Eclectic Light Co. em um postagem de blog de 18 de janeiro, começou a circular uma alegação de que a Apple estava enviando automaticamente”identificadores de imagens”que um usuário havia navegado no Finder, fazendo isso”sem o consentimento ou conhecimento do usuário.”

O plano para a varredura CSAM envolveria uma verificação local no dispositivo de imagens para conteúdo CSAM potencial, usando um sistema de hash. O hash da imagem seria então enviado e verificado em uma lista de arquivos CSAM conhecidos.

Embora a ideia de escanear imagens e criar um hash neural para ser enviado à Apple para descrever as características da imagem possa ser usada para escaneamento CSAM, os testes da Oakley indicam que não está sendo usado ativamente dessa forma. Em vez disso, parece que o sistema Visual Lookup da Apple, que permite que macOS e iOS identifiquem pessoas e objetos em uma imagem, bem como em texto, pode ser confundido com esse tipo de comportamento.

Nenhuma evidência nos testes

Como parte do teste, o macOS 13.1 foi executado em uma máquina virtual e o aplicativo Mints foi usado para verificar um log unificado de atividades na instância de VM. Na VM, uma coleção de imagens foi visualizada por um período de um minuto na visualização da galeria do Finder, com mais de 40.000 entradas de log capturadas e salvas.

Se o sistema fosse usado para análise CSAM, haveria conexões de saída repetidas do”mediaanalysisd”para um servidor Apple para cada imagem. O mediaanalysisisd refere-se a um elemento usado em Visual Lookup onde Fotos e outras ferramentas podem exibir informações sobre itens detectados em uma imagem, como”gato”ou nomes de objetos.

Em vez disso, os logs mostraram que não havia nenhuma entrada associada à análise de mídia. Uma outra extração de log foi considerada muito semelhante ao Visual Lookup, conforme aparecia no macOS 12.3, pois o sistema não mudou materialmente desde esse lançamento.

Normalmente, o mediaanalysisd não entra em contato com os servidores da Apple até muito tarde no próprio processo, já que requer hashes neurais gerados pela análise de imagem de antemão. Uma vez enviado e uma resposta é recebida de volta dos servidores da Apple, os dados recebidos são usados ​​para identificar os elementos do usuário dentro da imagem.

Mais testes determinaram que houve algumas outras tentativas de enviar dados para análise, mas para permitir que o Live Text funcionasse.

Em sua conclusão, Oakley escreve que”não há evidências de que as imagens locais em um Mac tenham identificadores computados e carregados nos servidores da Apple quando visualizadas nas janelas do Finder”.

Enquanto as imagens visualizadas em aplicativos com suporte ao Visual Lookup têm hashes neurais produzidos, que podem ser enviados aos servidores da Apple para análise. Exceto que tentar colher os hashes neurais para detectar o CSAM”estaria fadado ao fracasso por vários motivos”.

As imagens locais no QuickLook Preview também passam pela análise normal do Live Text, mas”isso não gera identificadores que possam ser carregados nos servidores da Apple”.

Além disso, a pesquisa visual pode ser desativada desativando as sugestões da Siri. As pesquisas de análise de mídia externa também podem ser bloqueadas usando um firewall de software configurado para bloquear a porta 443, embora”isso possa desabilitar outros recursos do macOS”.

Oakley conclui o artigo com um aviso de que”alegar que as ações de um usuário resultam em efeitos controversos requer demonstração completa de toda a cadeia de causalidade. Basear afirmações na inferência de que dois eventos podem estar conectados, sem entender o natureza de ambos, é imprudente, se não malicioso.”

CSAM ainda é um problema

Embora a Apple tenha desistido da ideia de realizar o processamento local de detecção de CSAM, os legisladores ainda acreditam que a Apple não está fazendo o suficiente sobre o problema.

Em dezembro, o Australian e-Safety Commissioner atacou a Apple e o Google por causa de um”uso claramente inadequado e inconsistente de tecnologia amplamente disponível para detectar material de abuso infantil e aliciamento”.

Em vez de escanear diretamente o conteúdo existente, o que seria bastante ineficaz devido ao fato de a Apple usar armazenamento e backups de fotos totalmente criptografados de ponta a ponta, a Apple parece querer seguir uma abordagem diferente. Ou seja, aquele que pode detectar nudez incluída em fotos enviadas pelo iMessage.

Categories: IT Info