Apple опубликовала ответ на критику конфиденциальности своей новой функции iCloud Photos для сканирования изображений насилия над детьми, заявив, что она «откажется» от давления со стороны правительства с целью нарушения конфиденциальности.
Набор инструментов Apple, предназначенных для защиты детей, вызвал неоднозначную реакцию со стороны экспертов по безопасности и конфиденциальности, при этом некоторые ошибочно заявили, что Apple отказывается от своей политики конфиденциальности. Теперь Apple опубликовала опровержение в виде документа с часто задаваемыми вопросами.
«В Apple наша цель — создать технологию, которая расширяет возможности людей и обогащает их жизнь, помогая им оставаться в безопасности», — говорится в полной версии документа. «Мы хотим защитить детей от хищников, которые используют средства коммуникации для вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми (CSAM)».
«С тех пор, как мы объявили об этих функциях, многие заинтересованные стороны, включая организации, занимающиеся вопросами конфиденциальности и безопасности детей, выразили свою поддержку этому новому решению, — продолжает он, — а некоторые задали вопросы».
«В чем разница между безопасностью связи в сообщениях и обнаружением CSAM в iCloud Photos?» он спрашивает. «Эти две функции не совпадают и используют разные технологии».
Apple подчеркивает, что новые функции в Сообщениях «предназначены для того, чтобы дать родителям … дополнительные инструменты для защиты своих детей». Изображения, отправленные или полученные с помощью Сообщений, анализируются на устройстве «, и поэтому [the feature] не изменяет гарантии конфиденциальности Сообщений «.
Обнаружение CSAM в iCloud Photos не отправляет в Apple информацию о «каких-либо фотографиях, кроме тех, которые соответствуют известным изображениям CSAM».
Большая часть документа подробно описывает то, что AppleInsider разразила в пятницу. Тем не менее, есть несколько пунктов, которых не было раньше.
Во-первых, эксперты по конфиденциальности и безопасности обеспокоены тем, что сканирование изображений на устройстве может быть легко расширено в пользу авторитарных правительств, требующих от Apple расширения того, что она ищет.
«Apple откажется от любых таких требований», — говорится в документе с часто задаваемыми вопросами. «Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказывать им в будущем».
«Давайте проясним, — продолжает он, — эта технология ограничена обнаружением CSAM, хранящегося в iCloud, и мы не будем выполнять запросы правительства о ее расширении».
Новая публикация Apple по этой теме появилась после того, как было отправлено открытое письмо с просьбой пересмотреть свои новые функции.
Во-вторых, хотя AppleInsider уже заявлял об этом ранее, основываясь на комментариях Apple, компания недвусмысленно пояснила, что эта функция не работает, когда iCloud Photos выключен.
Отчет App Store за 2023 год показывает рост числа загрузок, разработчиков и удалений В недавнем…
Некоторые из нас достаточно взрослые, чтобы помнить времена, когда вредоносное ПО было исключительно проблемой Windows.…
Фальшивый скриншот и смайлик с клоуном Вирусное изображение утверждает, что Apple удаляет смайлик клоуна из…
iPhone и Apple Watch включают в себя широкий спектр полезных функций для здоровья, а некоторые…
Логотип Adobe [left]новый значок Дельты [middle]старая иконка Дельты [right] Adobe пригрозила разработчику Delta судебным иском,…
Согласно сообщениям на Reddit, ошибка в iOS 17.5 предположительно заключается в повторном отображении фотографий, которые…