Apple Inc wprowadziła nową funkcję bezpieczeństwa dzieci w zeszłym tygodniu i była to rozmowa w mieście, ale nie wszystko z dobrych powodów. Wspomniane funkcje pojawiły się wraz z nową aktualizacją oprogramowania i natychmiast wzbudziły krytykę ze strony ekspertów na całym świecie. Apple zorganizowało niedawno sesję QnA z dziennikarzami technicznymi, aby poinformować ich o nowej polityce. Podczas odprawy Apple potwierdził, że może w przyszłości rozszerzyć te funkcje na aplikacje innych firm.

Apple udostępnia trzy niedawno opracowane funkcje bezpieczeństwa dzieci, które pojawią się w przyszłych wersjach iOS 15, iPadOS 15, macOS Monterey, i watchOS 8. Rzućmy okiem na aktualizacje, które wywołały taki sceptycyzm. Po pierwsze, opcjonalna funkcja bezpieczeństwa komunikacji w aplikacji Wiadomości może potencjalnie ostrzegać dzieci i ich rodziców podczas wymiany zdjęć o charakterze erotycznym za pośrednictwem funkcji obsługiwanych przez uczenie maszynowe. Po drugie, identyfikacja znanych obrazów materiałów związanych z wykorzystywaniem seksualnym dzieci przechowywanych w Zdjęciach iCloud umożliwia Apple zgłaszanie takich przypadków. Trzecia funkcja skupia się na tworzeniu i utrzymywaniu bezpiecznej przestrzeni internetowej dla dzieci. Apple planuje rozszerzyć wytyczne dotyczące Siri i Spotlight Search na różne urządzenia i umożliwić dzieciom uzyskanie pomocy w niebezpiecznych sytuacjach.

Prezes WhatsApp Will Cathcart skrytykował nową politykę, podnosząc argument, że może być „operowana jako system nadzoru, który można bardzo łatwo wykorzystać do skanowania prywatnych treści w poszukiwaniu czegokolwiek, co oni lub rząd uznają za kontrolowanie”. Eksperci ds. bezpieczeństwa i prywatności podpisali list otwarty wzywający Apple do niewdrażania funkcji, która budzi obawy dotyczące fałszywych oskarżeń i pozwala firmie ominąć wszelkie szyfrowanie typu end-to-end, które w przeciwnym razie chroniłoby prywatność użytkownika.