Ayon sa ilang mga alingawngaw at ulat, magpapahayag ang Apple ng isang bagong system na mag-scan ng nilalaman ng iyong Gallery upang maiwasan, matuklasan, at itigil ang pang-aabuso sa bata tulad ng pornograpiya ng bata, ulat ng 9to5Mac . Ang tampok na ito ay tatakbo ng isang hashed algorithm na maiuulat na tutugma sa nilalaman ng larawan sa mga kilalang materyales sa pang-aabuso sa bata.
Maaaring ipakilala ng Apple ang isang hashed na pag-scan ng system para sa iligal na nilalaman sa iPhone
Magaganap ang bagong system sa aparato mismo at magda-download ang iPhone ng isang hanay ng mga fingerprint, upang masabi, na kumakatawan sa iligal na data na susuriin. Pagkatapos, tulad ng pag-aakala ng isa, ang anumang mga tugma ng iligal na nilalaman sa iPhone ay maiuulat para sa isang pagsusuri ng tao.
Gayunpaman, hindi pa inihayag ng Apple ang gayong pagkusa.
Ang dalubhasa sa Cryptography at security na si Matthew Green ay nagbigay ng ilaw sa kung bakit maaaring maging problema ang gayong paglipat. Karaniwan, ang hashing algorithm ay maaaring gumawa ng mga pagkakamali at magdagdag ng mga maling positibo. Pagkatapos, kung pinapayagan ng Apple ang mga pamahalaan na kontrolin ang database ng nilalaman ng fingerprint, posible itong ma-misuse para sa iba pang mga bagay bukod sa iligal na nilalaman ng bata.
Tandaan na ang mga larawang na-upload sa Mga Larawan sa iCloud para sa pag-backup ay hindi naka-encrypt na end-to-end, sa kabila ng naka-encrypt sa mga server ng Apple, may utang ang kumpanya ng mga susi para sa decryption. Ang pareho ay sa anumang iba pang serbisyo sa pag-backup ng larawan.