Skip to main content

В видеоинтервью Wall Street Journal старший вице-президент Apple Крейг Федериги обсуждает реакцию на функции iCloud Child Safety, анонсированные на прошлой неделе.

Федериги признает, что одновременное объявление о защите сообщений для детей и сканировании CSAM, двух схожих функций, но работающих по-разному, вызвало замешательство у клиентов, и Apple могла бы лучше справиться с распространением новой инициативы.

В беседе с Джоанной Стерн из журнала Федериги повторяет, что технология сканирования CSAM применяется только к фотографиям, настроенным для загрузки в iCloud, и отключается, если iCloud Photos не используются.

Федериги говорит: «Мы хотели бы, чтобы это проявилось немного более четко, потому что мы очень позитивно и решительно относимся к тому, что мы делаем, и мы видим, что это широко неправильно понимается».

Функция CSAM использует криптографические хэши для обнаружения известного содержания детской порнографии на устройстве пользователя. Однако телефон не сразу помечает вашу учетную запись. Чтобы уменьшить вероятность ложноположительных совпадений, Apple устанавливает минимальный порог количества экземпляров помеченного контента.

Когда этот порог достигнут, учетная запись передается в Apple для проверки людьми, а затем, в конечном итоге, в NCMEC (Национальный центр пропавших без вести и эксплуатируемых детей). Apple ранее явно не указывала этот порог. Однако Федериги, похоже, раскрывает это в рамках этого интервью, говоря, что «примерно 30 известных совпадений порнографических изображений».

Он также говорит, что даже для помеченной учетной записи люди видят только совпадающие изображения — эта функция не дает неограниченного доступа ко всей библиотеке фотографий пользователя в учетной записи.

На вопрос, предоставляет ли Apple правительству «лазейку» за счет реализации этой функции, Федериги категорически отвергает это утверждение. Федериги говорит, что Apple разработала систему с несколькими уровнями аудита, поэтому ее нельзя использовать неправильно. Одна и та же база хешей будет использоваться во всем мире.

Помимо функции сканирования и создания отчетов CSAM для загрузки фотографий iCloud, Apple также собирается выпустить новую функцию для приложения «Сообщения», которая обеспечивает защиту от отправки детям изображений с обнаженным телом. Алгоритм машинного обучения на устройстве будет искать наготу на фотографиях, отправленных через Сообщения, и редактировать изображение, пока пользователь не подтвердит, что хочет его увидеть.

Для учетных записей Apple ID детей в возрасте до 13 лет родители могут дополнительно включить настройку уведомлений, которые будут информировать родителей, когда их ребенок просматривает изображение обнаженной натуры. Федериги говорит, что эта функция разработана, чтобы помочь облегчить беспокойство родителей, которые опасаются, что за их детьми ухаживают и учат не говорить об отношениях с семьей.

Федериги говорит, что Apple сделала это сейчас, потому что «они это поняли» (например, они разработали способ предложить защиту CSAM при сохранении конфиденциальности своей пользовательской базы), и никто не заставлял их действовать.

Новые функции «Безопасность детей» появятся позже в этом году в виде обновления для iOS 15. Первоначально они будут доступны только в Соединенных Штатах, и Apple объявит о выходе на другие рынки позднее.