Apple Inc lanzó su nueva característica de seguridad infantil la semana pasada, y ha sido la comidilla de la ciudad, pero no todo por buenas razones. Dichas características surgieron con la nueva actualización de software e instantáneamente generaron críticas de expertos de todo el mundo. Apple organizó recientemente una sesión de QnA con reporteros de tecnología para informarles sobre la nueva política. Durante la sesión informativa, Apple confirmó que podría extender las funciones a aplicaciones de terceros en el futuro.

Apple lanza tres funciones de seguridad para niños desarrolladas recientemente para futuras versiones de iOS 15, iPadOS 15, macOS Monterey, y watchOS 8. Echemos un vistazo a las actualizaciones que han causado tanto escepticismo. Primero, una función opcional de Seguridad de la comunicación en la aplicación Mensajes puede potencialmente advertir a los niños y a sus padres cuando intercambian fotos sexualmente explícitas a través de las facultades habilitadas por Machine Learning. En segundo lugar, la identificación de imágenes conocidas de material de abuso sexual infantil almacenadas en iCloud Photos permite a Apple informar estos casos. La tercera característica se centra en crear y mantener un espacio web seguro para los niños. Apple planea expandir la guía en Siri y Spotlight Search en todos los dispositivos y permitir que los niños obtengan ayuda en situaciones inseguras.

El director ejecutivo de WhatsApp, Will Cathcart, ha criticado la nueva política al plantear el argumento de que podría “funcionar como un sistema de vigilancia que podría usarse muy fácilmente para escanear contenido privado en busca de cualquier cosa que ellos o un gobierno decidan que debe controlar ”. Expertos en seguridad y privacidad han firmado una carta abierta instando a Apple a no implementar una función que suscita preocupaciones sobre acusaciones falsas y le permite a la empresa eludir cualquier cifrado de extremo a extremo que de otro modo salvaguardaría la privacidad del usuario.