Inaangkin ng isang dalubhasa sa seguridad malapit nang ipahayag ng Apple ang mga tool sa pagkakakilanlan ng larawan na makikilala ang mga imahe ng pang-aabuso sa bata sa mga library ng larawan sa iOS.
Hindi pa ito nakumpirma ng Apple at sa ngayon ang nag-iisang mapagkukunan ay si Matthew Green, isang cryptographer at associate professor sa Johns Hopkins Information Security Institute.
Nagkaroon ako ng independiyenteng kumpirmasyon mula sa maraming tao na naglalabas ang Apple ng tool sa panig ng client para sa pag-scan ng CSAM bukas. Ito ay isang talagang masamang ideya.
-Matthew Green (@matthew_d_green) August 4, 2021
Ayon kay Green, ang plano ay sa una ay magiging panig ng kliyente-ibig sabihin, gawin ang lahat ng pagtuklas sa isang gumagamit iPhone . Nagtalo siya, gayunpaman, posible na ito ay ang simula ng isang proseso na humahantong sa pagsubaybay sa data traffic na naipadala at natanggap mula sa telepono.
“Sa paglaon maaari itong maging isang pangunahing sangkap sa pagdaragdag ng pagsubaybay sa mga naka-encrypt na mga system ng pagmemensahe,”patuloy ni Green.”Ang kakayahang magdagdag ng mga system ng pag-scan tulad nito sa E2E [end to end encryption] na mga sistema ng pagmemensahe ay naging isang pangunahing’tanungin’ng nagpapatupad ng batas sa buong mundo.”
“Ang ganitong uri ng tool ay maaaring maging isang malaking halaga para sa paghahanap ng pornograpiya ng bata sa mga telepono ng mga tao,”aniya.”Ngunit isipin kung ano ang magagawa nito sa mga kamay ng isang awtoridad na may awtoridad?”
href=”https://appleinsider.com/inside/iOS”> Mga aklatan ng larawan sa iOS. Ang AppleApp iPhone ay mayroong dating tinanggal indibidwal na mga app mula sa App Store tungkol sa mga alalahanin sa bata na pornograpiya, ngunit ngayon ito ay sinabi tungkol sa upang ipakilala tulad detection system malawak. Gamit ang pag-hash ng larawan, maaaring makilala ng mga iPhone ang Materyal na Sekswal na Abuso (CSAM) sa aparato.