Apple сегодня объявили , что с запуском iOS 15 и iPadOS 15 , начнется сканирование iCloud Photos в США, чтобы найти известные материалы о сексуальном насилии над детьми (CSAM), с планами сообщить о результатах в Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC).


До того, как Apple подробно описала свои планы, просочились новости об инициативе CSAM, и исследователи безопасности уже начали выражать озабоченность по поводу о том, как новый протокол сканирования изображений Apple может использоваться в будущем, как отмечает Financial Times .

Apple использует систему NeuralHash для сравнения известных изображений CSAM с фотографиями на iPhone перед загрузкой в ​​ iCloud . Если есть совпадение, эта фотография загружается с ваучером криптографической безопасности, и при определенном пороговом значении запускается проверка, чтобы проверить, есть ли у человека CSAM на своих устройствах.

В настоящее время Apple использует свою технологию сканирования и сопоставления изображений для поиска жестокого обращения с детьми, но исследователи опасаются, что в будущем ее можно будет адаптировать для сканирования других видов изображений, которые вызывают большее беспокойство. , как антиправительственные вывески на протестах.

В серии твитов Мэтью Грин , исследователь криптографии Джонса Хопкинса сказал, что Сканирование CSAM-«действительно плохая идея», потому что в будущем оно может расшириться до сканирования фотографий с сквозным шифрованием, а не только содержимого, загруженного в «iCloud». Для детей Apple реализует отдельную функцию сканирования, которая ищет сексуально откровенный контент непосредственно в сообщениях iMessages, которые зашифрованы из конца в конец.

Грин также выразил обеспокоенность по поводу хэшей, которые Apple планирует использовать, поскольку там потенциально могут быть «коллизии», когда кто-то отправляет безобидный файл с общим хешем с CSAM, что может привести к ложному флагу.

Apple, со своей стороны, заявляет, что ее технология сканирования имеет «чрезвычайно высокий уровень безопасности». точность », чтобы убедиться, что учетные записи не помечены неправильно, а отчеты проверяются вручную перед отключением учетной записи iCloud‌ и отправкой отчета в NCMEC.

Грин считает, что внедрение Apple подтолкнет другие технологические компании принять аналогичные методы. «Это разрушит дамбу»,-написал он. «Правительства будут требовать этого от всех». Он сравнил эту технологию с «инструментами, которые используют репрессивные режимы».

Это плохие вещи. Я не особо хочу быть на стороне детского порно и я не террорист. Но проблема в том, что шифрование-это мощный инструмент, обеспечивающий конфиденциальность, и вы не можете обеспечить надежную конфиденциальность, одновременно отслеживая каждое отправленное изображение.-Мэтью Грин (@matthew_d_green) 5 августа 2021 г.

Исследователь в области безопасности Алек Маффетт, ранее работавший в Facebook, сказал, что решение Apple внедрить этот вид сканирования изображений было «огромным и регрессивным шагом к личной конфиденциальности». «Apple возвращается к конфиденциальности, чтобы обеспечить 1984 год»,-сказал он.

Росс Андерсон, профессор инженерии безопасности Кембриджского университета, назвал это «абсолютно ужасной идеей», которая может привести к «распределенному массовому наблюдению» за устройствами.

Как многие отмечали в Твиттере. , несколько технологических компаний уже выполняют сканирование изображений для CSAM. Google, Twitter, Microsoft, Facebook и другие используют методы хеширования изображений для поиска и сообщения об известных изображениях жестокого обращения с детьми.

И если вам интересно, сканирует ли Google изображения на предмет жестокого обращения с детьми, Я ответил об этом в истории, которую написал восемь лет назад: она делает это ** С 2008 года **. Может, все сядут и снова наденут шляпы. pic.twitter.com/ruJ4Z8SceY -Чарльз Артур (@charlesarthur) 5 августа 2021 г.

Также стоит отметить, что Apple уже была сканирование некоторого контента для изображений жестокого обращения с детьми перед развертыванием новой инициативы CSAM. В 2020 году директор Apple по конфиденциальности Джейн Хорват заявила, что Apple использовала технологию скрининга для поиска нелегальных изображений, а затем отключает учетные записи, если обнаруживаются доказательства CSAM.

Apple в 2019 году обновила свою политику конфиденциальности , указав, что она будет сканировать загруженный контент на предмет «потенциально незаконный контент, в том числе материалы с сексуальной эксплуатацией детей», поэтому сегодняшние объявления не являются полностью новыми.

Примечание. В связи с политическим или социальным характером обсуждения по этой теме ветка обсуждения находится в нашем Форум политических новостей . Все участники форума и посетители сайта могут читать и подписываться на эту тему, но оставлять сообщения могут только участники форума, имеющие не менее 100 сообщений.

Categories: IT Info