Apple откладывает развертывание системы обнаружения CSAM и функций безопасности детей

Apple откладывает развертывание системы обнаружения CSAM и функций безопасности детей

В прошлом месяце Apple анонсировала несколько новых функций безопасности детей, которые оказались неоднозначными, в том числе обнаружение CSAM для фотографий iCloud. Теперь Apple заявила, что им «потребуется дополнительное время» для доработки функций перед их выпуском для широкой публики.

В заявлении для Apple заявила:

«В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от хищников, использующих средства коммуникации для вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, групп по защите интересов, исследователей и других лиц, мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей ».

Новые функции Apple по обеспечению безопасности детей должны были быть запущены в рамках обновлений iOS 15, iPadOS 15 и macOS Monterey в конце этого года. Сейчас неизвестно, когда компания планирует развернуть функции. В сегодняшнем заявлении Apple не содержится никаких подробностей о том, какие изменения компания может внести для улучшения системы.

В качестве напоминания, вот основы того, как система обнаружения CSAM будет работать в том виде, в каком она разработана в настоящее время:

Метод Apple обнаружения известных CSAM разработан с учетом конфиденциальности пользователей. Вместо сканирования изображений в облаке система выполняет сопоставление на устройстве с использованием базы данных известных хэшей изображений CSAM, предоставленных NCMEC и другими организациями, занимающимися безопасностью детей. Apple также преобразует эту базу данных в нечитаемый набор хэшей, который надежно хранится на устройствах пользователей.

Прежде чем изображение будет сохранено в iCloud Photos, на устройстве выполняется процесс сопоставления этого изображения с известными хэшами CSAM. Этот процесс сопоставления основан на криптографической технологии, называемой пересечением частных наборов, которая определяет наличие совпадения без раскрытия результата. Устройство создает ваучер криптографической безопасности, который кодирует результат соответствия вместе с дополнительными зашифрованными данными об изображении. Этот ваучер загружается в Фото iCloud вместе с изображением.

После анонса новая технология обнаружения CSAM получила довольно много возражений и критики со стороны защитников конфиденциальности. Apple, однако, несколько раз удвоила эту функцию и заявила, что ее реализация на самом деле будет более защищенной, чем технология, используемая другими компаниями, такими как Google и Facebook.

В ходе этого процесса также выяснилось, что Apple уже сканирует iCloud Mail на предмет CSAM, причем расширение применяется к iCloud Photos.

Другие функции безопасности детей, анонсированные Apple в прошлом месяце, а также теперь отложенные, включают функции безопасности связи в сообщениях и обновленную информацию для Siri и поиска.

Что вы думаете о решении Apple отложить развертывание новых функций безопасности детей? Это правильное решение, или компании следовало придерживаться своего первоначального плана?

Соцсети