Сегодня утром Apple выпустила специальный раздел документ с часто задаваемыми вопросами (FAQ) о расширенной защите детей. Это новая инициатива по защите детей от эксплуатации и жестокого обращения. Хотя намерения хороши, это взбудоражило много перьев. Особенно в отношении одной функции в новых средствах защиты.

Новые средства защиты для детей представляют собой тройную задачу: сканирование фотографий, новое руководство для поиска и Siri, а также обнаружение потенциально откровенных фотографий, отправляемых и/или получаемых через iMessage. Именно сканирование фотографий, которое доступно только при загрузке фотографий в библиотеки фотографий iCloud, вызвало большую часть опасений.

С момента открытия новых функций Apple заявила о своей поддержке новой инициативы и пытался задуть часть огня вокруг него. Один вице-президент по программному обеспечению отправил внутреннюю записку , пытаясь сделать именно это, удвоить усилия компании по обеспечению конфиденциальности и безопасности пользователей, заявив, что попытки защитить детей так, как пытается компания, являются благими намерениями.

Однако реализация этих функций Apple не так уж велика. люди с оружием в руках. Во всяком случае, большинство людей. Это последствия этих функций и потенциальная «скользкая дорожка», которая может возникнуть впоследствии. Многие считают, что этими системами могут злоупотреблять отдельные лица и группы, особенно правительства, стремящиеся тем или иным образом расправиться с гражданами.

Apple заявила, что функция обнаружения фотографий, которая ищет известного ребенка Материалы о сексуальном насилии (CSAM) будут доступны только в США, когда эта функция будет запущена в iOS 15 в конце этого года. Компания заявляет, что глобальное расширение возможно, но это будет провести обзор по странам , прежде чем внедрять эту функцию в другие регионы.

И теперь компания вернулась к этому, выпустив специальный раздел часто задаваемых вопросов о безопасности связи в iMessages и обнаружении CSAM в библиотеках фотографий iCloud. Apple отвечает, чем отличаются эти функции, и многое другое. Он глубоко погружается в обнаружение CSAM, сохраняя при этом достаточно простые вещи для достаточно быстрого синтаксического анализа.

Например, Apple отвечает на вопрос, будет ли это сканирование фотографий сканировать каждую фотографию на вашем iPhone:

<цитата>

Нет. По замыслу, эта функция применяется только к фотографиям, которые пользователь выбирает для загрузки в iCloud Photos, и даже тогда Apple узнает только об учетных записях, в которых хранятся коллекции известных изображений CSAM, и только тех изображений, которые соответствуют известному CSAM. Система не работает для пользователей, у которых отключены Фото iCloud. Эта функция не работает в вашей частной фотобиблиотеке iPhone на устройстве.

Apple также отмечает в FAQ, что реализация Apple для CSAM не позволяет обнаруживать другой контент, кроме CSAM.. Система работает только с хешами CSAM, предоставленными Национальным центром пропавших без вести и эксплуатируемых детей. Это означает, что система не предназначена для обнаружения чего-либо другого, кроме этого материала.

Что касается правительства, вынуждающего Apple добавлять хэши, не относящиеся к CSAM, которые могут быть обнаружены? Apple заявляет, что этого не произойдет:

Apple откажется от любых таких требований. Возможности Apple по обнаружению CSAM созданы исключительно для обнаружения известных изображений CSAM, хранящихся в iCloud Photos, которые были идентифицированы экспертами NCMEC и другими группами по безопасности детей. Мы и раньше сталкивались с требованиями создать и внедрить изменения, утвержденные правительством, которые ухудшают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказываться от них и в будущем. Давайте проясним, что эта технология ограничена обнаружением CSAM, хранящегося в iCloud, и мы не будем выполнять запросы правительств о ее расширении. Кроме того, Apple проводит проверку человеком перед тем, как сообщить в NCMEC. В случае, если система помечает фотографии, которые не соответствуют известным изображениям CSAM, учетная запись не будет отключена, и в NCMEC не будет отправлено никаких отчетов.

Apple также сообщает, что хэши не-CSAM также не должны быть «введены» в систему для обнаружения.

Наш процесс разработан таким образом, чтобы этого не происходило. Набор хэшей изображений, используемых для сопоставления, взят из известных существующих образов CSAM, которые были получены и проверены организациями по безопасности детей. Apple не добавляет к набору известных хэшей изображений CSAM. Один и тот же набор хэшей хранится в операционной системе каждого пользователя iPhone и iPad, поэтому целевые атаки только на определенных лиц невозможны в рамках нашей разработки. Наконец, нет автоматизированной отчетности в правоохранительные органы, и Apple проводит проверку с участием людей, прежде чем направить отчет в NCMEC. В маловероятном случае, если система отметит изображения, которые не соответствуют известным изображениям CSAM, учетная запись не будет отключена, и в NCMEC не будет отправлено сообщение.

Действительно ли это приводит к людям еще предстоит увидеть, как вам будет удобнее пользоваться этими функциями. Что вы думаете обо всем этом ?

Categories: IT Info