Skip to main content

Сегодня Apple опубликовала новый документ, в котором представлены дополнительные сведения о недавно анонсированных функциях безопасности детей. Компания обращает внимание на то, что новая возможность обнаружения CSAM может превратиться в бэкдор, с указанием конкретных пороговых значений, которые она использует, и многого другого.

Одним из наиболее заметных заявлений Apple сегодня является то, что система сможет подвергаться аудиту третьими сторонами. Apple объясняет, что опубликует статью базы знаний с корневым хешем зашифрованной хеш-базы данных CSAM. Apple также позволит пользователям проверять корневую хэш-базу данных на своем устройстве и сравнивать ее с базой данных в статье базы знаний:

Apple опубликует статью базы знаний, содержащую корневой хэш зашифрованной базы данных хешей CSAM, включенной в каждую версию каждой операционной системы Apple, которая поддерживает эту функцию. Кроме того, пользователи смогут проверить корневой хэш зашифрованной базы данных, присутствующей на их устройстве, и сравнить его с ожидаемым корневым хешем в статье базы знаний. То, что вычисление корневого хэша, показываемого пользователю в настройках, является точным, подлежит проверке кода исследователями безопасности, как и все другие заявления о безопасности на стороне устройства iOS.

Этот подход позволяет проводить сторонние технические аудиты: аудитор может подтвердить, что для любого заданного корневого хэша зашифрованной базы данных CSAM в статье базы знаний или на устройстве база данных была сгенерирована только из пересечения хешей от участвующих организаций по безопасности детей, без дополнений, удалений или изменений. Содействие аудиту не требует от организации по безопасности детей предоставления какой-либо конфиденциальной информации, такой как необработанные хэши или исходные изображения, используемые для генерации хэшей — они должны предоставить только неконфиденциальную аттестацию полной базы данных, которую они отправили в Apple. Затем в безопасной среде на территории кампуса Apple может предоставить аудитору техническое доказательство того, что пересечение и ослепление были выполнены правильно. Участвующая организация по безопасности детей также может принять решение о проведении аудита.

Apple также рассмотрела возможность того, что организация может включить в базу данных что-то, кроме известного содержимого CSAM. Apple заявляет, что будет работать как минимум с двумя организациями по безопасности детей для создания базы данных, включенной в iOS, которые не находятся под контролем того же правительства:

Apple создает на устройстве перцептивную базу данных хэшей CSAM посредством пересечения хэшей, предоставленных по крайней мере двумя организациями по безопасности детей, действующими в разных суверенных юрисдикциях, то есть не под контролем одного и того же правительства. Любые перцептивные хэши, появляющиеся только в базе данных одной участвующей организации по безопасности детей или только в базах данных нескольких агентств в единой суверенной юрисдикции, отбрасываются этим процессом и не включаются в зашифрованную базу данных CSAM, которую Apple включает в операционную систему. Этот механизм отвечает нашим требованиям к корректности исходного изображения.

Apple также предлагает новые подробности о процессе проверки вручную, которая выполняется после достижения порогового значения:

Поскольку у Apple нет изображений CSAM, чьи перцептивные хэши составляют базу данных на устройстве, важно понимать, что рецензенты не просто проверяют, соответствует ли данное помеченное изображение записи в базе данных зашифрованных изображений CSAM Apple, т. Е. запись на пересечении хэшей как минимум двух организаций по безопасности детей, действующих в разных суверенных юрисдикциях. Вместо этого рецензенты подтверждают только одно: для учетной записи, которая превысила порог соответствия, изображения с положительным соответствием имеют визуальные производные, которые являются CSAM. Это означает, что если бы изображения, не относящиеся к CSAM, когда-либо были вставлены в перцептивную хэш-базу данных CSAM на устройстве — непреднамеренно или посредством принуждения, — не было бы никакого эффекта, если бы рецензенты Apple не были также проинформированы о том, какие именно изображения, не относящиеся к CSAM, они должны помечать (для учетные записи, превышающие порог соответствия), а затем были вынуждены сделать это.

Вы можете найти полный документ, опубликованный сегодня Apple под названием «Обзор модели угроз безопасности для функций безопасности детей Apple», прямо здесь.