Após sua introdução nos Estados Unidos no ano passado, a Apple está disponibilizando seu novo recurso Communication Safety in Messages em mais quatro países de língua inglesa.

A nova expansão foi relatada pela primeira vez por The Guardian, que observou que estava chegando aos usuários no Reino Unido; no entanto, a Apple confirmou que também está sendo lançada no Canadá, Austrália e Nova Zelândia.

Embora o The Guardian não tenha oferecido uma linha do tempo, o recurso parece já estar disponível no Canadá, pelo menos nas últimas versões beta do iOS 15.5. Não está claro se o lançamento exigirá a versão mais recente do iOS 15; A Apple ainda precisa atualizar seu documento de suporte para refletir o lançamento mais amplo, mas nos EUA, o recurso requer apenas iOS 15.2 ou posterior.

O recurso permanece praticamente inalterado nesses outros países desde o lançamento original nos EUA do ano passado. A única diferença significativa é que os links para “Recursos de segurança infantil” apontam para sites específicos de cada país. Por exemplo, no Canadá, ele levará pais e filhos às páginas apropriadas em ProtectKidsOnline.ca e NeedHelpNow.ca, ambos administrados pelo Canadian Centre for Child Proteção.

O que é segurança de comunicação em mensagens?

No verão passado, a Apple anunciou três novas iniciativas relacionadas à segurança infantil online. O mais controverso deles teria envolvido a digitalização de todas as fotos carregadas no iCloud por qualquer usuário para possível material de abuso sexual infantil, ou CSAM.

No entanto, não é isso que é Segurança de Comunicação em Mensagens. Esse recurso opcional foi projetado especificamente para proteger as crianças de serem assediadas por imagens indesejadas e inadequadas no aplicativo Mensagens.

Infelizmente, a Apple admitiu que estragou tudo ao lançar muitas coisas ao mesmo tempo, levando muitos usuários à confusão sobre os recursos. A Apple rapidamente atrasou seus planos, anunciando que levaria tempo para obter mais feedback dos defensores da privacidade e da segurança infantil antes de lançar qualquer um dos novos recursos.

Quando o Communication Safety in Messages finalmente chegou ao iOS 15.2, ficou claro que a Apple ouviu esse feedback, pois fez uma mudança fundamental em relação ao que foi proposto inicialmente.

Em sua essência, o novo recurso de segurança de comunicação usará o aprendizado de máquina no dispositivo para detectar e desfocar quaisquer imagens enviadas ou recebidas por crianças identificadas como contendo material sexualmente explícito ou nudez. As crianças verão um aviso informando eles devem pensar duas vezes antes de visualizar ou enviar a imagem em questão. Eles podem optar por ignorar esse aviso e visualizar a imagem de qualquer maneira, mas como parte desse processo, eles receberão orientações adicionais e links para recursos on-line onde podem obter ajuda. No entanto, sob nenhuma circunstância os pais serão notificados, a menos que a criança opte por fazê-lo.

Este último ponto é o que mudou no design original da Apple, que enviaria notificações automaticamente aos pais de crianças menores de 13 anos. Essas crianças mais novas ainda teriam sido avisadas de que a escolha de ver a imagem notificaria seus pais, mas se decidissem vê-la de qualquer maneira, a notificação seria enviada e não havia nada que eles pudessem fazer para impedi-la.

No entanto, os defensores da segurança infantil afirmaram muito válido que isso poderia colocar as crianças em risco. Por exemplo, crianças pequenas que são queer ou questionadoras ou mesmo apenas aliadas podem ser expostas e abusadas por pais intolerantes.

Como resultado, a Apple escolheu sabiamente eliminar essa parte do recurso Segurança de comunicação nas mensagens. Como está agora, o sistema funciona da mesma forma se uma criança tem 5 ou 15 anos: imagens inadequadas serão bloqueadas, conselhos serão dados, mas a criança ainda poderá substituir o sistema e visualizar (ou enviar) a imagem de qualquer maneira.

Mesmo além das ramificações de abuso, essa mudança é uma boa ideia. A tecnologia nunca deve ser um substituto para uma boa parentalidade.

Também vale a pena mencionar que este sistema não é ativado automaticamente. Os pais devem aceitar em nome dos filhos, e você nem verá o recurso, a menos que faça parte de um Apple Family Sharing Group que inclua crianças menores de 18 anos.

Se você é um pai que se enquadra nessa categoria, pode ativar o recurso nas configurações normais de Tempo de uso, onde verá uma nova opção de Segurança de comunicação para cada tela de seus filhos perfis de tempo.

A Apple está escaneando todas as minhas fotos?

Ao contrário de grande parte do hype negativo do ano passado, a Apple nunca teve a intenção de digitalizar todas as fotos no seu iPhone. Mesmo o recurso de detecção de CSAM muito mais potencialmente invasivo teria apenas fotos digitalizadas que estavam sendo carregadas no iCloud. Isso teria sido feito no seu iPhone antes que o upload ocorresse, mas ainda seria exclusivo das imagens que estavam prestes a ser armazenadas nos servidores da Apple.

Na verdade, a Apple tem estado estranhamente quieta sobre o recurso CSAM – a ponto de muitos suspeitarem que ele pode simplesmente deixá-lo morrer de causas naturais. Uma opinião mais cínica é que a Apple poderia optar por lançá-lo nos bastidores de forma mais silenciosa; no entanto, também é justo dizer que a Apple não é tão estúpida – a empresa seria pega e, quando o fizesse, a publicidade negativa sem dúvida causaria repercussões tangíveis, entre as quais seria seu estoque despencar.

No entanto, não é isso que o recurso de segurança de comunicação é. É extremamente limitado em escopo.

Ele não faz nada, a menos que você o ative.Mesmo se estiver ativado, ele não verifica ou analisa fotos para usuários adultos.Quando ativado para uma criança que faz parte de um grupo de Compartilhamento Familiar, apenas as fotos enviadas e recebidas em o aplicativo Mensagens são verificados. Nada é digitalizado no aplicativo Fotos, na Biblioteca de Fotos do iCloud ou em qualquer outro aplicativo no dispositivo da criança. Toda a análise ocorre inteiramente no dispositivo da criança; nenhuma informação é enviada aos servidores da Apple. Ninguém além da criança é notificado quando uma imagem suspeita é detectada. Os pais podem desativar o recurso a qualquer momento. Ele é desativado automaticamente para uma criança em seu aniversário de 18 anos.

Claro, como isso só funciona no aplicativo de mensagens da Apple, também é ridiculamente fácil para uma criança ignorar, a menos que seus pais a bloqueiem de outras plataformas de mensagens. A Apple não analisará fotos ou vídeos no Snapchat, Instagram, Facebook Messenger, TikTok, Discord ou qualquer outro aplicativo de terceiros que uma criança use.

Categories: IT Info