Categories: Apple

Apple подтверждает, что обнаружение CSAM применяется только к фотографиям, и защищает свой метод от других решений.

Apple продолжает вносить ясность в отношении функции обнаружения CSAM (материалов сексуального насилия над детьми), о которой она объявила на прошлой неделе. В дополнение к подробному документу с часто задаваемыми вопросами, опубликованному ранее сегодня, Apple также подтвердила, что обнаружение CSAM применяется только к фотографиям, хранящимся в iCloud Photos, а не к видео.

Компания также продолжает защищать свою реализацию обнаружения CSAM как более дружественную и обеспечивающую конфиденциальность, чем другие компании.

Apple подтвердила сегодня, что при запуске обнаружение CSAM будет применяться только к фотографиям, хранящимся в iCloud Photos, а не к видео. Однако, учитывая распространение видео в контенте CSAM, компания признала, что в будущем она может сделать еще больше, и со временем она может расширять и развивать свои планы.

Это имеет смысл, если вы сделаете шаг назад и посмотрите, как работает сканирование Apple на предмет обнаружения CSAM. Все сопоставления производятся на устройстве, при этом Apple преобразует базу данных фотографий из Национального центра пропавших без вести и эксплуатируемых детей в «нечитаемый набор хэшей, который надежно хранится на устройствах пользователей». Затем база данных на устройстве сравнивается с фотографиями, и на устройстве обнаруживается совпадение, затем устройство создает ваучер криптографической безопасности, который кодирует результат совпадения.

Apple также подчеркивает, что, если пользователь не использует Фото iCloud, никакая часть процесса обнаружения CSAM не запускается. Это означает, что если пользователь хочет отказаться от процесса обнаружения CSAM, он может отключить iCloud Photos.

Наконец, Apple также вдвойне подчеркивает, почему она считает, что ее реализация обнаружения CSAM на устройстве намного лучше, чем реализации на стороне сервера, используемые другими компаниями. Эти реализации, как объясняет Apple, требуют, чтобы компания сканировала каждую фотографию, сохраненную пользователем на ее сервере, большинство из которых не являются CSAM.

Реализация Apple обнаружения CSAM не требует, чтобы серверы Apple сканировали каждую фотографию. Перенос процесса на устройство делает метод Apple более безопасным и предназначен только для проверки хэшей изображений по базе данных NCMEC изображений известного CSAM, в отличие от сканирования всех изображений на стороне сервера.

Recent Posts

Apple незаконно допросила сотрудников розничной торговли в Нью-Йорке

В понедельник Apple подверглась критике из-за решения Совета по труду США о том, проводила ли…

Новое приложение Apple Photos, использующее генеративный искусственный интеллект для редактирования изображений

Новая функция «Очистка» значительно упростит удаление объектов. Новый тизер на веб-сайте Apple может указывать на…

Первые беспроводные наушники Sonos, способные конкурировать с AirPods Max

Прошло много времени с тех пор, как появились первые слухи о Sonos, компании, известной своими…

Скоро появится новый Apple Pencil – вот что говорят слухи

Apple проведет специальное мероприятие 7 мая. Хотя компания обычно не обсуждает темы мероприятия, оформление приглашения…

Proton Pass теперь включает расширенную защиту личности и учетных данных Pass Monitor.

Proton расширяет свой пакет программного обеспечения новыми сервисами, такими как Proton Pass, менеджер паролей со…

Слух об iPhone 17 Pro: 12 ГБ ОЗУ

В будущих моделях вырез Dynamic Island может стать меньше. Новый слух предполагает, что iPhone 17…