Hindi ini-scan ng macOS Finder ang iyong mga larawan para sa ilegal na materyal.

Hindi sinusuri ng Apple ang mga larawang tiningnan sa loob ng macOS Finder para sa nilalaman ng CSAM, isang pagsisiyasat sa macOS Ventura ang natukoy, na may pagsusuri na nagpapahiwatig na ang Visual Lookup ay hindi ginagamit ng Apple para sa partikular na layunin.

Noong Disyembre, inihayag ng Apple na sumuko na ito sa mga plano upang i-scan ang mga larawan sa iPhone na na-upload sa iCloud para sa Child Sexual Abuse Material (CSAM), kasunod ng malaking reaksyon mula sa mga kritiko. Gayunpaman, tila nagtagal ang mga alingawngaw na nagpaparatang na ang Apple ay nagsasagawa pa rin ng mga pagsusuri sa macOS Ventura 13.1, na nag-udyok ng pagsisiyasat mula sa isang developer.

Ayon kay Howard Oakley ng Eclectic Light Co. sa isang blog post mula Enero 18, nagsimulang kumalat ang isang claim na awtomatikong nagpapadala ang Apple ng”mga identifier ng mga larawan”na na-browse ng isang user sa Finder, na ginagawa ito”nang walang pahintulot o kamalayan ng user na iyon.”

Ang plano para sa pag-scan ng CSAM ay kasangkot sa isang lokal na pagsusuri sa device ng mga larawan para sa potensyal na nilalaman ng CSAM, gamit ang isang hashing system. Ang hash ng imahe ay ipapadala at susuriin laban sa isang listahan ng mga kilalang CSAM file.

Habang ang ideya ng pag-scan ng mga larawan at paglikha ng neural hash na ipapadala sa Apple upang ilarawan ang mga katangian ng imahe ay posibleng magamit para sa pag-scan ng CSAM, ang pagsubok ng Oakley ay nagpapahiwatig na hindi ito aktibong ginagamit sa ganoong paraan. Sa halip, tila ang sistema ng Visual Lookup ng Apple, na nagpapahintulot sa macOS at iOS na tukuyin ang mga tao at mga bagay sa isang imahe, pati na rin ang teksto, ay maaaring mapagkamalang pagsasagawa sa ganitong uri ng pag-uugali.

Walang ebidensya sa mga pagsubok

Bilang bahagi ng pagsubok, ang macOS 13.1 ay pinatakbo sa loob ng isang virtual machine at ang application na Mints ay ginamit upang i-scan ang isang pinag-isang log ng mga aktibidad sa VM instance. Sa VM, tiningnan ang isang koleksyon ng mga larawan sa loob ng isang minuto sa view ng gallery ng Finder, na may higit sa 40,000 log entry na nakunan at na-save.

Kung ginamit ang system para sa pagsusuri ng CSAM, magkakaroon ng mga paulit-ulit na papalabas na koneksyon mula sa”mediaanalysisd”sa isang server ng Apple para sa bawat larawan. Ang mediaanalysisisd ay tumutukoy sa isang elemento na ginagamit sa Visual Lookup kung saan ang Mga Larawan at iba pang mga tool ay maaaring magpakita ng impormasyon tungkol sa mga nakitang item sa isang imahe, gaya ng”pusa”o ang mga pangalan ng mga bagay.

Ang mga log sa halip ay nagpakita na walang mga entry na nauugnay sa mediaanalysisd sa lahat. Ang isang karagdagang log extract ay napag-alaman na halos kapareho sa Visual Lookup tulad ng paglitaw nito sa macOS 12.3, na ang system ay hindi nagbago nang malaki mula noong paglabas na iyon.

Karaniwan, hindi nakikipag-ugnayan ang mediaanalysisd sa mga server ng Apple hanggang sa huli sa mismong proseso, dahil nangangailangan ito ng mga neural na hash na nabuo sa pamamagitan ng pagsusuri ng imahe bago pa man. Kapag naipadala na at may natanggap na tugon mula sa mga server ng Apple, gagamitin ang natanggap na data upang matukoy ang mga elemento ng user sa loob ng larawan.

Natukoy ng mga karagdagang pagsubok na may ilang iba pang mga pagtatangka na magpadala ng data para sa pagsusuri, ngunit para sa pagpapagana ng Live Text na gumana.

Sa kanyang konklusyon, isinulat ni Oakley na”walang katibayan na ang mga lokal na larawan sa isang Mac ay may mga identifier na nakalkula at na-upload sa mga server ng Apple kapag tiningnan sa mga window ng Finder.”

Habang ang mga larawang tiningnan sa mga app na may suporta sa Visual Lookup ay may mga neural na hash na ginawa, na maaaring ipadala sa mga server ng Apple para sa pagsusuri. Maliban na ang pagsisikap na anihin ang mga neural na hash para sa pag-detect ng CSAM”ay tiyak na mapapahamak sa pagkabigo sa maraming dahilan.”

Ang mga lokal na larawan sa QuickLook Preview ay sumasailalim din sa normal na pagsusuri para sa Live Text, ngunit”hindi iyon bumubuo ng mga identifier na maaaring ma-upload sa mga server ng Apple.”

Higit pa rito, maaaring hindi paganahin ang Visual Lookup sa pamamagitan ng pag-off sa Siri Suggestions. Ang mga panlabas na mediaanalysis look-up ay maaari ding ma-block gamit ang isang software firewall na na-configure upang harangan ang port 443, kahit na”maaaring hindi paganahin ang iba pang mga tampok ng macOS.”

Tinapos ni Oakley ang artikulo nang may babala na”ang pag-aangkin na ang mga aksyon ng isang user ay nagreresulta sa mga kontrobersyal na epekto ay nangangailangan ng buong pagpapakita ng buong hanay ng sanhi. Ibinatay ang mga claim sa hinuha na ang dalawang kaganapan ay maaaring konektado, nang hindi nauunawaan ang kalikasan ng alinman, ay walang ingat kung hindi malisya.”

Isang isyu pa rin ang CSAM

Habang tinalikuran ng Apple ang ideya ng pagsasagawa ng lokal na pagpoproseso ng pagtuklas ng CSAM, naniniwala pa rin ang mga mambabatas na hindi sapat ang ginagawa ng Apple tungkol sa problema.

Noong Disyembre, inatake ng Australian e-Safety Commissioner ang Apple at Google dahil sa”malinaw na hindi sapat at hindi pare-parehong paggamit ng malawak na magagamit na teknolohiya upang makita ang materyal at pag-aayos ng pang-aabuso sa bata.”

Sa halip na direktang mag-scan para sa umiiral na nilalaman, na higit na magiging hindi epektibo dahil sa paggamit ng Apple ng ganap na end-to-end na naka-encrypt na imbakan ng larawan at mga backup, sa halip ay tila gusto ng Apple na bumaba sa ibang paraan. Ibig sabihin, isa na maaaring makakita ng kahubaran na kasama sa mga larawang ipinadala sa pamamagitan ng iMessage.

Categories: IT Info