Mais de uma dúzia de proeminentes especialistas em segurança cibernética atacaram a Apple na quinta-feira por confiar em”tecnologia perigosa”em seu polêmico plano para detectar imagens de abuso sexual infantil em iPhones (via The New York Times ).


A crítica contundente veio em um novo estudo de 46 páginas feito por pesquisadores que analisaram os planos da Apple e da União Europeia de monitorar os telefones das pessoas em busca de material ilícito , e chamou os esforços de estratégias ineficazes e perigosas que encorajariam a vigilância do governo.

Anunciado em agosto , os recursos planejados incluem do lado do cliente (ou seja, digitalização no dispositivo das bibliotecas de Fotos do iCloud dos usuários para material de abuso sexual infantil (CSAM), comunicação Segurança para alertar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas e orientação expandida de CSAM em Siri e Pesquisa.

De acordo com os pesquisadores, documentos divulgado pela União Europeia sugere que o corpo de governo do bloco está buscando um programa semelhante que faria a varredura de telefones criptografados para abuso sexual infantil, bem como sinais de crime organizado e imagens relacionadas ao terrorismo.

“É deve ser uma prioridade de segurança nacional para resistir às tentativas de espionar e influenciar cidadãos cumpridores da lei”, disseram os pesquisadores, que acrescentaram que estão publicando suas descobertas agora para informar a União Europeia sobre os perigos de seu plano.

“A expansão dos poderes de vigilância do estado realmente está passando por uma linha vermelha”, disse Ross Anderson, professor de engenharia de segurança da Universidade de Cambridge e membro do grupo.

À parte por questões de vigilância, disseram os pesquisadores, suas descobertas indicaram que a tecnologia não era eficaz na identificação de imagens de abuso sexual infantil. Poucos dias após o anúncio da Apple, eles disseram, as pessoas apontaram maneiras de evitar a detecção editando ligeiramente as imagens.

“Está permitindo a digitalização de um dispositivo pessoal privado sem qualquer causa provável para que algo ilegítimo tenha sido feito”, acrescentou outro membro do grupo, Susan Landau, professora de segurança cibernética e políticas da Tufts University.”É extraordinariamente perigoso. É perigoso para os negócios, a segurança nacional, a segurança pública e a privacidade.”

Os pesquisadores de segurança cibernética disseram que haviam começado seu estudo antes do anúncio da Apple e estavam publicando suas descobertas agora para informar a União Europeia dos perigos de seu plano.

A Apple enfrentou críticas significativas de defensores da privacidade , pesquisadores de segurança , especialistas em criptografia , acadêmicos , politicians e até mesmo funcionários da empresa por sua decisão de implantar a tecnologia em uma atualização futura para iOS 15 e iPadOS 15 .

A Apple inicialmente se esforçou para dissipar mal-entendidos e tranquilizar os usuários liberando informações detalhadas, compartilhando perguntas frequentes, vários novos documentos , entrevistas com executivos da empresa , e mais para dissipar as preocupações.

No entanto, quando ficou claro que isso não estava surtindo o efeito pretendido, a Apple subsequentemente reconheceu o feedback negativo e anunciou em setembro um atraso na implementação dos recursos para dar à empresa tempo para fazer”melhorias”no sistema CSAM, embora não esteja claro o que envolveriam e como abordariam as preocupações.

A Apple também disse que recusaria exige que governos autoritários expandam o sistema de detecção de imagens para além de fotos de crianças sinalizadas por bancos de dados reconhecidos de material de abuso sexual infantil, embora não tenha dito que sairia do mercado em vez de obedecer a uma ordem judicial.

Categories: IT Info