Ang Apple ay naglalabas ng isang hanay ng mga tampok sa mga platform nito na naglalayong protektahan ang mga bata sa online, kasama ang isang system na makakakita ng materyal ng pang-aabuso sa bata sa iCloud habang pinapanatili ang privacy ng gumagamit.
Ang Cupertino tech higante noong Huwebes ay nag-anunsyo ng mga bagong tampok sa kaligtasan ng bata sa tatlong mga lugar na sinabi nito na makakatulong protektahan ang mga bata mula sa mga maninila at limitahan ang pagkalat ng Child Sexual Abuse Material (CSAM). Ang opisyal na anunsyo ay malapit na sumusunod sa mga ulat na ang debut ng Apple ay ilang uri ng system upang mapigilan ang CSAM sa mga platform nito .
“Sa Apple, ang aming layunin ay lumikha ng teknolohiyang nagpapalakas sa mga tao at nagpapayaman sa kanilang buhay-habang tinutulungan silang manatiling ligtas,”sumulat ang kumpanya sa isang press release.
Halimbawa, magpapatupad ang Apple ng mga bagong tool sa Mga Mensahe na magpapahintulot sa mga magulang na mas magkaroon ng kaalaman tungkol sa kung paano nakikipag-usap sa online ang kanilang mga anak. Gumagamit din ang kumpanya ng isang bagong system na gumagamit ng mga diskarte sa cryptographic upang makita ang mga koleksyon ng CSAM na nakaimbak sa Mga Larawan sa iCloud upang magbigay ng impormasyon sa pagpapatupad ng batas. Gumagawa din ang Apple sa mga bagong tool sa kaligtasan sa Siri at Paghahanap.
“Ang pinalawak na proteksyon ng Apple para sa mga bata ay isang changer ng laro,”sabi ni John Clark, CEO at Presidente ng National Center for Missing & Exploited Children.
Sa maraming tao na gumagamit ng mga produkto ng Apple, ang mga bagong hakbang sa kaligtasan ay may potensyal na nakakatipid para sa mga bata na naaakit sa online at na ang kakila-kilabot na mga imahe ay ipinakalat sa materyal na pang-aabuso sa sekswal na bata. Sa National Center for Missing & Exploited Children alam natin na ang krimen na ito ay maaari lamang labanan kung matatag tayo sa ating pagtatalaga sa pagprotekta sa mga bata. Magagawa lamang natin ito dahil ang mga kasosyo sa teknolohiya, tulad ng Apple, ay lumalakas at nais ipakilala ang kanilang dedikasyon. Ang katotohanan ay ang privacy at proteksyon ng bata ay maaaring maging magkasama. Pinapalakpakan namin ang Apple at inaasahan namin ang pagtutulungan upang gawing mas ligtas na lugar ang mundong ito para sa mga bata. pagbabanta sa pribadong impormasyon ng mga gumagamit na sumusunod sa batas.
Pagtuklas ng CSAM sa Mga Larawan sa iCloud
Isang diagram ng CSAM scanning system. Kredito: Apple
Ang pinakamahalagang bagong tampok sa kaligtasan ng bata na pinaplano ng Apple sa debuting ay nakatuon sa pagtuklas ng CSAM sa loob ng mga account sa iCloud Photos.
Kung nakita ng Apple ang mga koleksyon ng CSAM na nakaimbak sa iCloud, i-flag ang account na iyon at magbibigay ng impormasyon sa NCMEC, na gumagana bilang isang sentro ng pag-uulat para sa materyal na pang-aabuso sa bata at gumagana sa mga ahensya ng nagpapatupad ng batas sa buong US
Ang Apple ay hindi talaga nag-scan ng mga imahe dito. Sa halip, gumagamit ito ng on-device intelligence upang itugma ang CSAM sa isang kilalang database ng mga hash na ibinigay ng NCMEC at iba pang mga organisasyong pangkaligtasan sa bata. Ang database na ito ay na-convert sa isang hindi nababasa na hanay ng mga hash na ligtas na nakaimbak sa aparato ng isang gumagamit.
Ang aktwal na pamamaraan ng pagtuklas ng CSAM sa iCloud Photos ay kumplikado, at gumagamit ng mga diskarte sa cryptographic sa bawat hakbang upang matiyak ang kawastuhan habang pinapanatili ang privacy para sa average na gumagamit.
Sinabi ng Apple na ang isang naka-flag na account ay hindi paganahin pagkatapos ng isang manu-manong proseso ng pagsusuri upang matiyak na ito ay tunay na positibo. Matapos hindi paganahin ang isang account, ang kumpanya ng Cupertino ay magpapadala ng mensahe sa NCMEC. Ang mga gumagamit ay magkakaroon ng pagkakataon na mag-apela ng isang pagwawakas ng account kung sa palagay nila ay mali silang nai-target.
Muling inulit ng kumpanya na ang tampok ay nakakakita lamang ng CSAM na nakaimbak sa Mga Larawan sa iCloud-hindi ito nalalapat sa mga larawang mahigpit na nakaimbak sa aparato. Bilang karagdagan, inaangkin ng Apple na ang system ay mayroong rate ng error na mas mababa sa isa sa isang trilyong account bawat taon.
Sa halip na cloud-based na pag-scan, iniuulat din ng tampok ang mga gumagamit na mayroong isang koleksyon ng kilalang CSAM na nakaimbak sa iCloud. Ang isang solong piraso ng mapang-abusong materyal ay hindi sapat upang ma-trigger ito, na makakatulong upang mabawasan ang rate ng maling mga positibo.
Muli, sinabi ng Apple na matututunan lamang niya ang tungkol sa mga imaheng tumutugma sa kilalang CSAM. Hindi nito ini-scan ang bawat imaheng nakaimbak sa iCloud at hindi makakakuha o makakatingin ng anumang mga imaheng hindi tugma sa kilalang CSAM.
Ang system ng pagtuklas ng CSAM ay mailalapat lamang sa mga iCloud account na nakabatay sa Estados Unidos upang magsimula. Sinabi ng Apple na malamang na lulunsad nito ang system sa isang mas malawak na sukat sa hinaharap.
Isa sa mga bagong pag-update ay nakatuon sa pagtaas ng kaligtasan ng mga bata na nakikipag-usap online gamit ang iMessage
Mga update sa Siri at Paghahanap
Bilang karagdagan sa mga tampok sa kaligtasan ng iMessage, pinalalawak din ng Apple ang mga tool at mapagkukunan na inaalok nito sa Siri at Paghahanap pagdating nito sa kaligtasan sa online na bata.
Halimbawa, ang ang mga gumagamit ng iPhone at iPad ay maaaring magtanong kay Siri kung paano nila maiuulat ang CSAM o mapagsamantalahan ang bata. Magbibigay ang Siri ng naaangkop na mga mapagkukunan at patnubay.
Ang Siri at Paghahanap ay ina-update din upang humakbang kung ang mga gumagamit ay nagsasagawa ng mga paghahanap o query para sa CSAM. Tulad ng sinabi ng Apple,”ang mga interbensyon na ito ay magpapaliwanag sa mga gumagamit na ang interes sa paksang ito ay nakakasama at may problema, at magbibigay ng mga mapagkukunan mula sa mga kasosyo upang makakuha ng tulong sa isyung ito.”
Ang uri ng tool na ito ay maaaring maging isang biyaya para sa paghahanap ng pornograpiya ng bata sa mga telepono ng mga tao. Ngunit isipin kung ano ang magagawa nito sa mga kamay ng isang awtoridad na may kapangyarihan? https://t.co/nB8S6hmLE3
-Matthew Green (@matthew_d_green) August 5, 2021
Gayunpaman, pinapanatili ng Apple na ang pagsubaybay at pag-abuso sa mga system ay isang”pangunahing pag-aalala”habang umuunlad sila. Sinasabi nito na dinisenyo nito ang bawat tampok upang matiyak na napanatili ang privacy habang kinokontra ang CSAM o pagsasamantala ng bata sa online.
Halimbawa, ang sistema ng pagtuklas ng CSAM ay dinisenyo mula sa simula upang makita lamang ang CSAM-wala itong mga mekanismo para sa pag-aralan o pagtuklas ng anumang iba pang uri ng larawan. Bukod dito, nakakakita lamang ito ng mga koleksyon ng CSAM sa isang tukoy na threshold. Sinasabi ng Apple na hindi binubuksan ng system ang pintuan sa pagsubaybay, at wala itong ginagawa upang mapahina ang pag-encrypt nito. Ang sistema ng pagtuklas ng CSAM, halimbawa, ay pinag-aaralan lamang ang mga larawan na hindi naka-encrypt na end-to-end.
Nag-aalala pa rin ang mga eksperto sa seguridad tungkol sa mga pagsasama. Si Matthew Green, isang propesor ng cryptography sa Johns Hopkins University, ay nagsabi na ang mga hash ay batay sa isang database na hindi masuri ng mga gumagamit. Higit sa na, may potensyal para sa mga hash na maabuso-tulad ng isang hindi nakakapinsalang imahe na nagbahagi ng isang hash sa kilalang CSAM.
“Ang ideya na ang Apple ay isang’privacy’na kumpanya ay bumili sa kanila ng maraming mabuting pindutin. Ngunit mahalagang alalahanin na ito ay ang parehong kumpanya na hindi mag-encrypt ng iyong mga pag-backup ng iCloud dahil inilagay ng FBI pressure sa kanila,”sulat ni Green.
Ross Ross, isang propesor ng security engineering sa University of Cambridge, tinawag ang system na”isang ganap na nakakagulat na ideya”sa isang pakikipanayam sa The Financial Times. Idinagdag niya na maaaring humantong ito sa”namahagi ng maramihang pagsubaybay sa… aming mga telepono at laptop.”
Digital group ng mga karapatan ay nagsulat din ang Electronic Frontier Foundation ng isang post sa blog tungkol sa tampok, na sinasabi na”binubuksan ang pintuan sa mas malawak na mga pang-aabuso.”
, ngunit ang mga account ng sinuman. Iyan ay hindi isang madulas na dalisdis; iyon ay isang buong built system na naghihintay lamang para sa panlabas na presyon upang makagawa ng kaunting pagbabago,”isinulat ng EFF’s India McKinney at Erica Portnoy.