Skip to main content

Директор Apple по конфиденциальности Эрик Нойеншвандер подробно рассказал о некоторых прогнозах, встроенных в систему сканирования CSAM компании, которые не позволяют использовать ее для других целей, в том числе пояснил, что система не выполняет хеширование, если iCloud Photos отключены.

Система обнаружения CSAM компании, которая была анонсирована вместе с другими новыми инструментами безопасности детей, вызвала споры. В ответ Apple предложила множество подробностей о том, как можно сканировать CSAM, не подвергая опасности конфиденциальность пользователей.

В интервью TechCrunch глава Apple по вопросам конфиденциальности Эрик Нойеншвандер сказал, что система была разработана с самого начала для предотвращения злоупотреблений и злоупотреблений со стороны правительства.

Во-первых, система применяется только в США, где меры защиты согласно Четвертой поправке уже защищают от незаконного обыска и изъятия.

«Ну, во-первых, это запускается только для США, учетные записи iCloud, и поэтому гипотетические предположения, похоже, поднимают общие страны или другие страны, которые не являются США, когда они говорят таким образом», — сказал Нойеншвандер. случай, когда люди соглашаются с законодательством США, не предоставляет нашему правительству таких возможностей «.

Но даже помимо этого, в системе есть встроенные ограждения. Например, список хэшей, который система использует для маркировки CSAM, встроен в операционную систему. Его невозможно обновить со стороны Apple без обновления iOS. Apple также должна выпускать любые обновления базы данных в глобальном масштабе — она ​​не может предназначаться для отдельных пользователей с конкретными обновлениями.

Система также помечает только коллекции известных CSAM. Одно изображение ни к чему не приведет. Более того, изображения, которых нет в базе данных, предоставленной Национальным центром пропавших без вести и эксплуатируемых детей, также не будут помечены.

У Apple также есть ручной процесс проверки. Если учетная запись iCloud будет помечена как сбор незаконных материалов CSAM, команда Apple проверит флаг, чтобы убедиться, что это действительно правильное совпадение, прежде чем будет предупрежден какой-либо внешний объект.

«Таким образом, гипотетическое предположение требует перепрыгивания через множество препятствий, включая изменение внутреннего процесса Apple для направления материалов, которые не являются незаконными, например, известные CSAM, и которые мы не верим, что есть основа, на которой люди смогут делать этот запрос в США », — сказал Нойеншвандер.

Кроме того, добавил Нойеншвандер, здесь все еще есть выбор пользователя. Система работает только в том случае, если у пользователя включены фото iCloud. Руководитель службы конфиденциальности Apple сказал, что, если пользователю не нравится система, «он может отказаться от использования фотографий iCloud». Если iCloud Photos не активирован, «никакая часть системы не работает».

«Если пользователи не используют iCloud Photos, NeuralHash не будет работать и не будет генерировать какие-либо ваучеры. Обнаружение CSAM — это нейронный хэш, который сравнивается с базой данных известных хэшей CSAM, которые являются частью образа операционной системы», — сказал представитель Apple. . «Ни эта часть, ни какие-либо дополнительные части, включая создание ваучеров безопасности или загрузку ваучеров в Фото iCloud, не работают, если вы не используете Фото iCloud».

Хотя функция Apple CSAM вызвала ажиотаж в Интернете, компания опровергает тот факт, что систему можно использовать для любых целей, кроме обнаружения CSAM. Apple четко заявляет, что откажется от любых попыток правительства изменить или использовать систему для чего-то другого, кроме CSAM.