Algumas semanas atrás, a Apple anunciou que iria implementar uma nova medida em todos os iPhones habilitados para iCloud para ajudar a pegar predadores de posse de fotos contendo abuso sexual infantil. Este tem sido um problema predominante em nossa sociedade, infelizmente, e há muito que podemos fazer para lutar contra ele. A ideia da Apple para ajudar foi com a implementação iminente da digitalização automática de imagens de todas as fotos pessoais carregado para contas iCloud nos Estados Unidos (por enquanto). Isso significa que praticamente todas as fotos passarão por essa varredura, já que a maioria das pessoas tende a ter o Fotos do iCloud ligado devido ao espaço de armazenamento essencialmente ilimitado que ele oferece.

Depois que uma foto é digitalizada, seu valor de hash será verificado em relação às imagens em um banco de dados de CSAM existente (ou material de abuso sexual infantil). Se forem encontradas correspondências idênticas ou até próximas, a foto será sinalizada instantaneamente. Para que uma conta seja sinalizada e denunciada ao Centro Nacional para Crianças Desaparecidas e Exploradas, no entanto, seria necessário que cerca de 30 correspondências de CSAM fossem encontradas nessa conta.

Isso fornece”menos de uma chance em 1 trilhão por ano de sinalizar incorretamente uma determinada conta”, ou assim diz a Apple.

Uma reação generalizada veio imediatamente

A decisão da Apple de implementar este tipo de vigilância no dispositivo recebeu uma enorme reação imediatamente, visto que ameaça comprometer seriamente o direito fundamental das pessoas à privacidade e é inerentemente vulnerável à exploração grosseira e ao uso indevido. Milhares de pessoas já assinaram uma carta de oposição à política iminente, e até mesmo o Parlamento alemão contatou Tim Cook pedindo que ele reconsiderasse.

Toda a integridade e reputação de privacidade da empresa na qual a Apple é fundada podem ser comprometidas, se ela decidir para substituir sua política de criptografia ponta a ponta padrão da indústria para dar continuidade a este plano. Pessoas e governos em todo o mundo naturalmente têm o direito de se preocupar com a perspectiva de uma porta dos fundos tão grande se abrir para a vigilância ilícita e uma caixa de Pandora inteira de possíveis males.

Princeton entra na briga, evocando os perigos do sistema da Apple

Recentemente, alguns pesquisadores da Universidade de Princeton contribuiu para a discussão com algum conhecimento profundo e experiência de primeira mão com esses sistemas. Anunay Kulshrestha e Jonathan Mayer desenvolveram um protótipo de sistema de vigilância muito semelhante ao da Apple em função e propósito-projetado para identificar material de abuso infantil por meio de correspondência perceptual de hash (PHM). No entanto, eles rapidamente encontraram um problema ético. Nenhum sistema de PHM projetado”para combater mídias prejudiciais, como CSAM e conteúdo extremista”vem sem o perigo de ser também utilizado para fins imorais, caso caia em mãos erradas.

As plataformas podem, por exemplo, usar o construções que descrevemos para implementar a censura ou vigilância ilegítima-e podem ser obrigadas por um governo que não está comprometido com a liberdade de expressão e o estado de direito.

Em outras palavras, um sistema em vigor que permite a comunicação privada ser monitorado e entregue às autoridades a qualquer momento pode ser uma ferramenta fácil para a ditadura. No final, a maneira como um sistema PHM é implementado e aproveitado fica inteiramente a critério de seu controlador humano, que”terá que curar e validar [esse conjunto de hash B contém exclusivamente mídia prejudicial].”

O que constitui mídia prejudicial também carece de uma definição objetiva e poderia ser potencialmente expandido e distorcido para incluir qualquer coisa que os poderes escolhidos para considerar”mídia prejudicial”-comprometer o direito das pessoas à liberdade de expressão ou suprimir os cidadãos ainda mais em países onde essa liberdade não é considerada um direito humano.

A taxa de detecção falsa”um em um trilhão”da Apple também é considerada questão, enquanto o gigante da tecnologia faz parecer impossível, os pesquisadores de Princeton acreditam que esses falsos positivos são uma possibilidade legítima (embora com baixa probabilidade) que pode comprometer a segurança de indivíduos inocentes.”A mídia de um cliente [pode] corresponder a um valor no conjunto de hash, mesmo que não haja similaridade perceptual”, escrevem eles.

“Nesses casos, um cliente E2EE inocente pode, dependendo da resposta de moderação de conteúdo —Perder a confidencialidade das comunicações, ter sua conta encerrada ou tornar-se

objeto de uma investigação policial.”Escusado será dizer que este é um cenário ridiculamente indesejável, o risco de que nunca deveria existir.

Até mesmo os funcionários que trabalham para a Apple têm expressado sua preocupação com os perigos inerentes a tal sistema também. A Apple já respondeu às críticas uma vez, prometendo que nunca permitirá que tal sistema de vigilância por foto caia sob o controle de qualquer entidade governamental ou externa, e que só será usado para prevenir abuso de posse de material infantil.

Naturalmente, essa promessa por si só está longe de ser satisfatória, e não parece que a reação vá diminuir até que a Apple concorde em manter a criptografia de ponta a ponta, com ninguém além do proprietário tendo acesso a quaisquer fotos e dados armazenados em seu iPhone ou iCloud, que neste ponto se tornou uma extensão de quase todos os iPhone em circulação.

Categories: Wordpress