Um relatório de Ben Lovejoy da 9to5Mac afirma que a Apple confirmou que verifica o iCloud Mail dos usuários em busca de CSAM, mas não do iCloud Photos e backup do iCloud. Depois que o chefe antifraude da empresa, Eric Friedman, disse que a Apple era “a grande plataforma para distribuição de pornografia infantil”, Lovejoy iniciou uma investigação querendo saber em que dados se baseava a alegação.

Como os e-mails não são criptografados, a Apple os verifica CSAM

Desde 2019, o gigante da tecnologia de Cupertino escaneia o iCloud Mail em busca de CSAM, pois ele não é criptografado. A empresa também confirmou que examina outros dados não divulgados em busca de pornografia infantil, que não inclui backups do iCloud. Sem comentar a declaração de Friedman, a Apple garantiu a Lovejoy que nunca digitalizou fotos do iCloud. Isso levou o escritor a concluir que a declaração de Friedman, mas não apoiada por dados.

Embora a declaração de Friedman pareça definitiva-como se fosse baseada em dados concretos-agora parece provável que não fosse. Em nosso entendimento, o número total de relatórios que a Apple faz para o CSAM a cada ano é medido na casa das centenas, o que significa que a verificação de e-mail não forneceria nenhum tipo de evidência de um problema em grande escala nos servidores da Apple.

Como o chefe de software da empresa Craig Federighi disse que outros serviços em nuvem já fazem a varredura das fotos dos usuários e a Apple não, Lovejoy tentou racionalizar a declaração de Friedman.

A explicação provavelmente está no fato de que outros serviços em nuvem estavam digitalizando fotos em busca de CSAM e a Apple não. Se outros serviços estivessem desativando contas para enviar CSAM, e o iCloud Photos não (porque a empresa não estava digitalizando lá), a inferência lógica seria que existe mais CSAM na plataforma da Apple do que em qualquer outro lugar. Friedman provavelmente não estava fazendo nada além de chegar a essa conclusão.

A digitalização de material de abuso sexual infantil (também conhecido como CSAM) é um dos próximos recursos de segurança infantil da Apple. Chamado de detecção de CSAM, o próximo recurso é alimentado por um sistema NeuralHash para escanear as fotos dos usuários à medida que são carregadas na nuvem para CSAM. Quando uma conta exceder o limite de 30 imagens de CSAM, ela será sinalizada para revisão humana para julgar as imagens correspondentes para CSAM. Se o limite foi acionado por falsos positivos, o revisor não faria nada. Mas, se o material sinalizado for pornografia infantil, a conta será suspensa e o usuário será denunciado às autoridades competentes.

Embora o recurso seja projetado para evitar a disseminação de CSAM, o novo sistema de hashing levantou várias preocupações de possível exploração. Os críticos afirmam que isso transformaria os iPhones em dispositivos de vigilância para os governos. Recentemente, com base em sua experiência pessoal de trabalho, dois pesquisadores da Universidade de Princeton se opuseram, dizendo que o novo sistema de detecção de CSAM é falho. Por enquanto, as novas proteções expandidas para crianças estão programadas para lançamento no final deste ano no iOS 15, iPadOS 15 e outras atualizações em todos os dispositivos.

Leia mais:

Categories: Wordpress