A ilang buwan na ang nakararaan, natagpuan ng Apple ang sarili nitong nasadlak sa kontrobersya pagkatapos mag-anunsyo ng ilang bagong hakbangin sa kaligtasan ng bata, at ngayon ay mukhang gusto nitong kalimutan natin na ang isa sa kanila ay nasa mesa noong una.
Noong Agosto, inilabas ng Apple ang isang plano na i-scan ang mga larawang ina-upload sa iCloud Photo Library para sa mga materyal sa child sexual abuse (CSAM) kasama ng isa pang feature na ay bigyan ng babala ang mga bata tungkol sa hindi naaangkop na mga larawanat ipaalam sa kanilang mga magulang sa ilang mga kaso.
Ang dalawang malalaking hakbangin na ito ay pinagsama ng mga iminungkahing pagpapahusay sa mga paghahanap sa Siri at Spotlight na makakatulong sa mga user na makakuha ng gabay sa kung paano haharapin ang CSAM, kung paano mag-ulat ng pagsasamantala sa bata, at babala sa mga user ng potensyal legal na kahihinatnan ng paghahanap ng CSAM at pagbibigay ng mga link sa mga hindi kilalang helpline para sa”mga nasa hustong gulang na may nasa panganib na pag-iisip at pag-uugali.”
Sa loob ng ilang oras ng pag-anunsyo ng Apple, maraming mga tagapagtaguyod ng privacy ang nagsimulang pumuna sa plano, lalo na kung ito ay nauugnay sa pagtuklas ng CSAM, na tinatawag itong isang madulas na dalisdis na maaaring humantong sa pang-aabuso ng mga awtoritaryan na rehimen.
Habang ang CSAM Detection algorithm ay idinisenyo upang mag-scan lamang para sa mga kilalang larawan ng CSAM, batay sa isang database na ibinigay ng US National Center for Missing and Exploited Children (NCMEC), ang mga kalaban ng plano itinaas ang wastong pag-aalala na kapag umiral na ang teknolohiya, madali itong mababagsak sa pamamagitan lamang ng pagpapalit sa database.
Halimbawa, kung gusto ng isang ahensya ng gobyerno na subaybayan ang mga dissidente sa pulitika, maaari itong makalusot sa isang database ng kilalang meme at katulad na mga larawan na karaniwang ibinabahagi sa loob ng mga pangkat na iyon, na nagbibigay-daan sa kanila na tukuyin ang mga user na mayroong mga larawang iyon sa kanilang mga aklatan.
Iginiit ng Apple na maraming mga pagsusuri at balanse sa system ang mapipigilan ito na mangyari. , kabilang ang pag-vetting sa database ng marami, independiyenteng ahensya, at isang hanay ng mga tseke at balanse na magpapasuri sa staff ng Apple ng pinaghihinalaang materyal na may isang hanay ng mga eyeball ng tao upang i-verify na ito ay talagang CSAM bago ito iulat kahit saan. sa labas ng mga pader ng Apple.
Sa aming opinyon, ang CSAM Detection ng Apple ay isang napakarangal na ideya na may matatag na teknolohiya sa likod nito, ngunit sa kasamaang-palad, ang pagtitiwala sa sarili na hubris ng Apple ang naging dahilan upang sumabog ang buong inisyatiba sa mukha nito.
Takot, Kawalang-katiyakan, at Pag-aalinlangan
Ang mga pag-iingat ng Apple ay hindi sapat upang sugpuin ang mga pangamba ng mga tagapagtaguyod ng privacy, at ang backlash laban sa mga plano nito ay tumindi dahil marami pang iba ang hindi naiintindihan ang mga teknikal na detalye, na nagpapalabas ng mga bagay nang mas malayo sa proporsyon.
Kahit na ang dalawang pangunahing hakbangin sa kaligtasan ng bata — Pagtukoy ng CSAM at Kaligtasan sa Komunikasyon — ay lubos na naiiba sa isa’t isa, pinag-isa sila ng maraming tao, na naniniwalang ang mga plano ng Apple ay mas mapanlinlang.
Halimbawa, ang iminungkahing CSAM Detection ay mag-scan lamang ng mga larawang ina-upload sa iCloud Photo Library laban sa isang database ng mga kilalang larawan. Walang machine learning o AI analysis sana ang kasali dito. Nangangahulugan ito na walang panganib na magkaroon ng cute na larawan ng iyong sanggol sa bathtub na magti-trigger ng algorithm na ito — hindi bababa sa hindi maliban kung ang larawang iyon ay dati nang ninakaw mula sa iyong personal na library at na-circulate sa mga child predator nang malawakan upang mapunta sa database ng NCMEC.
Dagdag pa, bagama’t naganap ang CSAM Detection sa device, ang nakasaad na layunin ay i-scan lamang ang mga larawang ina-upload sa iCloud Photo Library — bago sila dumating sa mga server ng Apple. Hindi mangyayari ang pag-scan na ito maliban kung pinagana ang iCloud Photo Library sa device ng isang user, at malalapat lang ito sa mga larawang iyon sa proseso ng pag-upload.
Sa kabilang banda, Ang Kaligtasan sa Komunikasyon sa Mga Mensaheay idinisenyo upang gumamit ng machine learning upang suriin ang mga larawang ipinapadala at natatanggap sa iOS Messages app upang matukoy kung naglalaman ang mga ito ng tahasang sekswal na kahubaran.
Ang mga algorithm na ito ay ma-trigger ng anumang pinaghihinalaang larawan, ngunit wala silang kinalaman sa tampok na CSAM Detection.
Sa Kaligtasan ng Komunikasyon, ipapalabo lang ng algorithm ang mga larawan para sa mga user na wala pang 18 taong gulang — at kung pinagana lang ng magulang ang feature bilang bahagi ng Family Sharing at Screen Time. Ang mga bata ay magkakaroon ng kakayahang i-override ito upang tingnan ang nilalaman ng larawan, ngunit pagkatapos lamang makatanggap ng babala na maaaring gusto nilang mag-isip nang dalawang beses tungkol sa paggawa nito.
Tulad ng orihinal na iminungkahi, aabisuhan din sana ng Communication Safety ang mga magulang kapag pinili ng isang batang wala pang 13 taong gulang na tingnan o magpadala ng tahasang sekswal na larawan. Mangyayari lamang ito pagkatapos na tanggapin ng bata ang pangalawang babala, na sinabi sa kanila na aabisuhan ang kanilang mga magulang. Ito ang tanging senaryo kung saan ang anumang impormasyon tungkol sa larawan ay ipapadala sa sinuman sa labas ng partikular na pag-uusap sa Messages.
Gayunpaman, hindi namin masisisi ang mga tao sa pagkalito sa dalawang feature, dahil halos magkapareho ang mga ito sa isang sulyap. Maraming hindi naunawaan kung ano ang nangyayari, sa paniniwalang i-scan ng Apple ang lahat ng larawan sa kanilang mga device, at susubaybayan ang kanilang mga pag-uusap sa pagmemensahe para sa CSAM.
Bilang ang Senior VP ng Software Engineering ng Apple, si Craig Federighi, ay tapat na inamin, pinabulaanan ito ng Apple sa paraan ng paghawak nito sa anunsyo, na lumikha ng”isang recipe para sa ganitong uri ng pagkalito.”
Nawala Ngunit Hindi Nakalimutan
Noong unang bahagi ng Setyembre, inanunsyo ng Apple na ipagpapaliban nito ang mga plano nitong ipatupad ang lahat ng mga tampok na ito upang maaari itong”maglaan ng karagdagang oras […] upang mangolekta ng input at gumawa ng mga pagpapabuti.”
Noong panahong iyon, hindi nag-aalok ang Apple ng timeframe kung kailan darating ang alinman sa mga feature, o kung anong mga pagbabago ang maaaring isaalang-alang nitong gawin, ngunit malinaw na nais nitong tiyakin na hindi ito nakikita. paggawa ng mga desisyon sa patakaran sa isang vacuum.
Hindi ito ang unang pagkakataon na gumawa ng ganitong uri ng error ang Apple, at nakalulungkot, malamang na hindi ito ang huli.
Nang inihayag ng Apple ang AirTags nito noong tagsibol, nahaharap ito sa mga kritisismo mula sa mga tagapagtaguyod ng kaligtasan sa tahanan, na natakot na hindi sapat ang ginagawa ng Apple upang pigilan ang mga tracking tag nito na gamitin ng mga stalker. Nang tanungin ang Apple kung kumunsulta na ba ito sa anumang organisasyong nagdadalubhasa sa karahasan sa tahanan sa pagbuo ng AirTags, tumanggi ang mga executive ng kumpanya na magkomento.
Kaya, malamang na hindi nakakagulat na ginawa rin ng Apple ang mga inisyatiba sa CSAM Detection at Communication Safety na ito nang walang maraming konsultasyon sa labas. Ang mga pangunahing grupo ng adbokasiya tulad ng Electronic Frontier Foundation (EFF) ay malinaw na nabulag noong ginawa ng Apple ang anunsyo nito, at malamang na naiwasan ng kumpanya ang karamihan sa kontrobersya kung nakakuha ito ng mga organisasyong tulad nito sa panig nito sa unang lugar.
Gayunpaman, kahit na ang Apple ay dapat na masasabing nakinig sa mga ekspertong ito sa unang lugar, ito ay ipinapakita ng isang pagpayag na gumawa ng mga pagwawasto ng kurso kung kinakailangan. Sa kaso ng AirTags, binawasan nito ang oras na kinakailangan upang magparinig ng isang naririnig na alerto kapag ang isang AirTag ay naiwan ng may-ari nito, at nitong linggo lang ay naglabas ng isang app upang hayaan ang mga user ng Android na mag-scan ng hindi kilalang AirTag sa malapit.
Ibinalik din ng Apple ang susi sa Kaligtasan sa Komunikasyon sa iOS 15.2, na may isang maliit ngunit mahalagang pagbabago. Matapos imungkahi ng mga tagapagtaguyod ng kaligtasan ng bata na ang mga abiso ng magulang ay maaaring maglagay sa mga bata sa panganib ng pang-aabuso ng magulang sa ilang mga tahanan, inalis ng Apple ang aspetong iyon ng tampok.
Habang ipinapatupad na ito ngayon, ang Kaligtasan sa Komunikasyon ay tratuhin ang lahat ng user na wala pang 18 taong gulang sa parehong paraan. Malabo ang mga potensyal na tahasang larawan, at babalaan ang mga bata na malamang na ayaw nilang tumingin sa kanila. Bibigyan din sila ng gabay kung paano humingi ng tulong mula sa isang pinagkakatiwalaang nasa hustong gulang kung nakakatanggap sila ng mga larawang nagpapahirap sa kanila.
Anuman ang piliin ng bata na gawin sa larawan, hindi magpapadala ang system ng anumang mga notification sa mga magulang o sinumang iba pa. Sa ganitong kahulugan, gagana ang feature sa halos parehong paraan tulad ng iba pang mga paghihigpit sa Oras ng Screen.
Ngayong lumabas na ang Kaligtasan sa Komunikasyon sa iOS 15.2, na-update ng Apple ang Mga Pinalawak na Proteksyon para sa mga Bata page, na inaalis ang lahat ng reference sa feature na CSAM Detection.
Sa katunayan, ang paghahanap sa website ng Apple ay nagpapakita ng walang pagbanggit ng “CSAM Detection” sa anumang mga page na nakaharap sa publiko. Ang mga puting papel na inilabas ng Apple noong Agosto ay ang tanging mga indikasyon na ang tampok ay umiral sa unang lugar. Gayunpaman, habang ang mga ito ay maaaring maipakita sa isang targeted Google search , ang mga ito ay talaga lamang ng makasaysayang mga dokumento mula sa Apple archives, magkano ang gusto mong maaari pa ring makahanap ng mga gabay sa seguridad ng platform para sa mga hindi na gumaganang bersyon ng iOS.
Mahigpit nitong iminumungkahi na tinalikuran ng Apple ang mga plano nito para sa CSAM Ganap na detection — kahit man lang sa ngayon. Bagama’t hindi imposible na maiangat muli ng inisyatiba ang ulo nito sa isang punto sa hinaharap, malamang na hindi ito mawala ng Apple sa ganitong paraan kung ito ay aktibong nagtatrabaho dito.
Hindi lamang ang ideya ay patuloy na nahaharap sa kontrobersya, ngunit malamang na ang Apple ay hindi kailanman nakahanap ng isang gitnang lupa na magbibigay-kasiyahan sa mga grupo ng mga karapatan sa pagkapribado at maisama sila. Para sa isang kumpanya na ipinagmamalaki ang sarili sa pagiging isang”pangunahing karapatang pantao,”mas pampulitika para sa Apple na alisin na lang ang buong ideya at umaasa na makakalimutan natin na iminungkahing ito sa simula pa lang.