Skip to main content

Apple отреагировала на заблуждения и опасения по поводу своих объявлений о сканировании фотографий, опубликовав CSAM FAQ — ответы на часто задаваемые вопросы о функциях.

В то время как организации по безопасности детей приветствовали планы Apple по выявлению владения материалами о сексуальном насилии над детьми (CSAM) и защите детей от хищников, критика была как осознанной, так и неосведомленной …

Задний план

Путаница в основных СМИ возникла, когда Apple одновременно объявила о трех отдельных мерах, при этом многие нетехнические специалисты путали первые две:

Явные предупреждения iMessage о фотографиях для детей в группах iCloud Family Обнаружение известных фотографий CSAM путем сканирования цифровых отпечатков пальцев Ответ на Siri и поисковые запросы материалов CSAM с предупреждением и ссылками на помощь

Также было непонимание методов, которые использует Apple. В случае iMessage он использует искусственный интеллект на устройстве для обнаружения изображений, которые кажутся обнаженными; в случае CSAM это сравнение цифровых отпечатков пальцев с отпечатками пальцев, созданными из сохраненных фотографий пользователя.

Ни в том, ни в другом случае никто в Apple не может увидеть какие-либо фотографии, за исключением тех, кто отмечен как наличие нескольких фотографий CSAM, когда кто-то в Apple вручную проверяет копии с низким разрешением, чтобы убедиться, что они соответствуют действительности, до того, как будут проинформированы правоохранительные органы. .

Также существует путаница между рисками конфиденциальности и ненадлежащего использования с функциями, которые они есть сегодня (от нуля до чрезвычайно низкого уровня), и возможностью злоупотреблений со стороны авторитарных правительств в будущем. Эксперты по кибербезопасности предупреждают о последнем, а не о первом.

Apple уже пыталась решить проблемы репрессивного правительства, запустив на данный момент только в США и заявив, что расширение будет осуществляться для каждой страны с учетом законодательной базы каждой из них. FAQ теперь пытается решить эту и другие проблемы.

Apple CSAM: часто задаваемые вопросы

Apple опубликовала шестистраничный FAQ, предназначенный для решения некоторых поднятых вопросов. Он начинается с признания неоднозначного ответа.

Мы хотим защитить детей от хищников, которые используют средства общения для вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми (CSAM). С тех пор, как мы анонсировали эти функции, многие заинтересованные стороны, включая организации по обеспечению конфиденциальности и безопасности детей, выразили свою поддержку этому новому решению, а некоторые задали вопросы. Этот документ призван ответить на эти вопросы и обеспечить большую ясность и прозрачность процесса.

Затем компания подчеркивает, что первые две функции полностью разделены.

В чем разница между безопасностью связи в сообщениях и обнаружением CSAM в iCloud Photos?

Эти две функции не совпадают и используют разные технологии.

Безопасность общения в Сообщениях предназначена для того, чтобы дать родителям и детям дополнительные инструменты, которые помогут защитить их детей от отправки и получения изображений сексуального характера в приложении Сообщения. Он работает только с изображениями, отправленными или полученными в приложении «Сообщения» для детских учетных записей, настроенных в режиме «Семейный доступ». Он анализирует изображения на устройстве и не изменяет гарантии конфиденциальности сообщений. Когда учетная запись ребенка отправляет или получает изображения сексуального характера, фотография будет размытой, а ребенок будет предупрежден, предоставлен полезными ресурсами и заверит, что это нормально, если он не хочет просматривать или отправлять фотографию. В качестве дополнительной меры предосторожности маленьким детям также можно сказать, что для обеспечения их безопасности их родители получат сообщение, если они его просмотрят.

Вторая функция, обнаружение CSAM в фотографиях iCloud, предназначена для защиты CSAM от фотографий iCloud без предоставления Apple информации о каких-либо фотографиях, кроме тех, которые соответствуют известным изображениям CSAM. Хранение изображений CSAM является незаконным в большинстве стран, включая Соединенные Штаты. Эта функция влияет только на пользователей, которые решили использовать iCloud Photos для хранения своих фотографий. Это не влияет на пользователей, которые не выбрали использование фотографий iCloud. Никакого влияния на другие данные на устройстве нет. Эта функция не применяется к сообщениям.

Другие моменты, подчеркнутые в FAQ, включают:

Сообщения iMessage детям и от детей никогда не передаются правоохранительным органам. Сообщения iMessage остаются зашифрованными. Дети с жестокими родителями могут безопасно обращаться за помощью через iMessage, если используют только текст. Родители получают уведомление только в том случае, если дети в возрасте 12 лет и младше продолжают работу, несмотря на предупреждение CSAM. проверяются вручную до того, как будут проинформированы правоохранительные органы

Остается самая сложная проблема

Наибольшее беспокойство, высказанное EFF и другими организациями, остается. В то время как система сегодня отмечает только изображения CSAM, репрессивное правительство могло бы предоставить Apple базу данных, содержащую другие материалы, такие как известное фото Tank Man на площади Тяньаньмэнь, которое подвергается цензуре в Китае.

Apple ответила на это, заявив, что этого не допустит:

Могут ли правительства заставить Apple добавлять изображения, не относящиеся к CSAM, в список хэшей?

Apple откажется от любых таких требований. Возможность обнаружения CSAM от Apple создана исключительно для обнаружения известных изображений CSAM, хранящихся в iCloud Photos, которые были идентифицированы экспертами NCMEC и другими группами по безопасности детей. Мы и раньше сталкивались с требованиями создать и внедрить изменения, утвержденные правительством, которые ухудшают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказываться от них и в будущем. Давайте проясним, что эта технология ограничена обнаружением CSAM, хранящегося в iCloud, и мы не будем выполнять запросы правительства о ее расширении. Кроме того, Apple проводит проверку человеком перед тем, как сообщить в NCMEC. В случае, если система помечает фотографии, которые не соответствуют известным изображениям CSAM, учетная запись не будет отключена, и в NCMEC не будет подан отчет.

Однако это заявление основано на том, что Apple имеет законную свободу отказаться. В Китае, например, по закону Apple должна удалить VPN, новости и другие приложения, а также хранить данные iCloud китайских граждан на сервере, принадлежащем компании, контролируемой государством.

У Apple нет реалистичного способа пообещать, что она не будет соответствовать будущим требованиям к обработке предоставленных правительством баз данных «изображений CSAM», которые также включают совпадения с материалами, используемыми критиками и протестующими. Как компания часто заявляла, защищая свои действия в таких странах, как Китай, Apple соблюдает законы каждой из стран, в которых она работает.