Em uma confirmação de prestes a levantar algumas sobrancelhas, a Apple confirmou ao 9to5Mac que verifica o iCloud Mail em busca de conteúdo CSAM. A Apple começará a verificação de conteúdo CSAM nas fotos do iCloud com o lançamento de iOS 15 ainda este ano.
Esse anúncio da empresa já gerou muitas polêmicas. A Apple agora reconhecer que já verifica o iCloud Mail em busca de conteúdo CSAM só vai piorar as coisas e fazer muitas pessoas sentirem que sua privacidade foi violada. A Apple, por sua vez, publicou um FAQ para esclarecer todas as dúvidas em torno de sua iniciativa CSAM.
Assim como batterygate saga , a Apple nunca escondeu dos usuários que estava escaneando o iCloud Mail em busca de conteúdo CSAM, mas também nunca o destacou explicitamente. 9to5Mac descobriu que a Apple mencionou sua digitalização CSAM em uma versão arquivada de sua página de segurança infantil:
A Apple se dedica a proteger as crianças em todo o nosso ecossistema, onde quer que nossos produtos sejam usados, e continuamos a apoiar a inovação neste espaço. Desenvolvemos proteções robustas em todos os níveis de nossa plataforma de software e em toda a nossa cadeia de suprimentos. Como parte desse compromisso, a Apple usa a tecnologia de correspondência de imagens para ajudar a encontrar e denunciar a exploração infantil. Assim como os filtros de spam em e-mail, nossos sistemas usam assinaturas eletrônicas para localizar suspeitas de exploração infantil.
Jane Horvath, diretora de privacidade da Apple, confirmou em uma conferência de tecnologia em 2020 que a empresa verifica o iCloud Mail em busca de conteúdo CSAM. Se a Apple descobrir o conteúdo CSAM no iCloud Mail, ela desativa essa conta após atingir um determinado limite. Conforme confirmado pela Apple, ele verifica o iCloud Mail em busca de anexos CSAM desde 2019.
Poucos usuários de iPhone ou iPad estão provavelmente usando o iCloud Mail como seu provedor de e-mail padrão. No entanto, essa revelação definitivamente abalará sua confiança nos produtos e serviços da Apple. Embora a Apple queira reduzir o compartilhamento de conteúdo CSAM por meio de seus produtos, este algoritmo NeuralHash para detectar conteúdo CSAM pode ser usado por agências de aplicação da lei e governos em todo o mundo para seu próprio benefício.
[Via 9to5Mac ].adslot_1 {width: 300px; altura: 250px; } @media (largura mínima: 340px) {.adslot_1 {largura: 336px; altura: 280px; }}