AppleInsider é apoiado por seu público e pode ganhar comissão como associado da Amazon e parceiro afiliado em compras qualificadas. Essas parcerias de afiliados não influenciam nosso conteúdo editorial.

O iOS 15.2 beta mais recente da Apple introduziu um recurso de segurança de comunicação opcional, anunciado anteriormente, projetado para avisar as crianças-e não os pais-quando enviam ou recebem fotos que contêm nudez.

O recurso Mensagens fazia parte de um conjunto de iniciativas de segurança infantil anunciadas em agosto. É importante ressaltar que o recurso iMessage não é o sistema controverso projetado para detectar material de abuso sexual infantil (CSAM) no iCloud.

Embora não habilitado por padrão, os pais ou responsáveis ​​podem ativar o recurso Mensagens para contas de crianças em um plano de Compartilhamento Familiar. O recurso detectará nudez em Mensagens, desfocará a imagem e alertará a criança.

A Apple diz que as crianças receberão recursos úteis e terão a certeza de que não há problema se não quiserem ver a imagem. Se uma criança tentar enviar fotos que contenham nudez, proteções semelhantes serão aplicadas. Em ambos os casos, a criança terá a opção de enviar uma mensagem a alguém de sua confiança pedindo ajuda.

Ao contrário da versão planejada anteriormente do recurso, os pais não serão notificados se o sistema detectar que uma mensagem contém nudez. A Apple afirma que isso se deve ao receio de que uma notificação dos pais possa representar um risco para uma criança, incluindo a ameaça de violência física ou abuso.

A Apple diz que a detecção do sinalizador de nudez nunca sai de um dispositivo e o sistema não invade a criptografia de ponta a ponta do iMessages.

É importante observar que o recurso é opcional e só está sendo incluído na versão beta do iOS, o que significa que atualmente não é voltado ao público. Não há um cronograma em quando pode chegar a uma atualização final do iOS, e há uma chance de que o recurso possa ser retirado da versão final antes que isso aconteça.

Novamente, esse recurso não é o polêmico sistema de detecção de CSAM que a Apple anunciou e adiou. Em setembro, a Apple anunciou que estrearia o recurso de detecção CSAM no final de 2021. Agora, a empresa diz que está levando mais tempo para coletar dados e fazer as melhorias necessárias.

Não há indicação de quando o sistema CSAM será lançado. No entanto, a Apple disse que fornecerá orientação adicional para crianças e pais no Siri e no Search. Em uma atualização para o iOS 15 e outros sistemas operacionais posteriormente em 2021, a empresa intervirá quando os usuários realizarem pesquisas por consultas relacionadas à exploração infantil e explicar que o tópico é prejudicial.

Categories: IT Info