Categories: iOS

Apple подтверждает, что прекратила планы по развертыванию обнаружения CSAM

Еще в 2021 году Apple анонсировала ряд новых функций безопасности детей, в том числе обнаружение материалов о сексуальном насилии над детьми (CSAM) для фотографий iCloud. Однако этот шаг подвергся широкой критике из-за соображений конфиденциальности. После приостановки на неопределенный срок Apple подтвердила, что прекратила свои планы по развертыванию системы обнаружения CSAM.

Apple больше не будет сканировать CSAM в iCloud Photos

В тот же день, когда компания объявила о расширенной защите данных со сквозным шифрованием для всех данных iCloud, она также положила конец никогда не выпущенному сканированию CSAM. Эту новость подтвердил вице-президент Apple по разработке программного обеспечения Крейг Федериги в интервью корреспонденту WSJ Джоанне Стерн.

Когда было объявлено о сканировании CSAM, Apple заявила, что iCloud Photos сможет обнаруживать неприемлемые материалы на фотографиях пользователей на основе базы данных хэшей изображений CSAM. Таким образом, компания сможет обнаруживать такие фотографии с помощью обработки на устройстве, даже не просматривая фотографии пользователей.

Прежде чем изображение будет сохранено в iCloud Photos, на устройстве выполняется процесс сопоставления этого изображения с нечитаемым набором известных хэшей CSAM. Этот процесс сопоставления основан на криптографической технологии, называемой пересечением закрытых наборов, которая определяет наличие совпадения без раскрытия результата. Пересечение частного набора (PSI) позволяет Apple узнать, соответствует ли хэш изображения известным хэшам изображения CSAM, не узнавая ничего о хэшах изображений, которые не совпадают. PSI также не позволяет пользователю узнать, было ли совпадение.

Тем не менее, сканирование CSAM вызвало много критики со стороны пользователей. В заявлении для в прошлом году компания заявила, что решила «потратить дополнительное время в ближайшие месяцы на сбор информации и внесение улучшений, прежде чем выпускать эти критически важные функции безопасности детей».

Оказывается, теперь Apple решила, что лучше положить конец CSAM-сканированию iCloud Photos. Однако стоит отметить, что другие функции безопасности детей, такие как ограничения на iMessage, по-прежнему доступны в iOS.

Что вы думаете об этом решении? Дайте нам знать в комментариях ниже.

Recent Posts

Вот пять новых игр, которые скоро появятся в Apple Arcade

В последнее время Apple ввела ежемесячный цикл выпусков Apple Arcade и только что объявила, что…

Список оперативной памяти iPad: сколько памяти у каждой модели

Любопытно, сколько оперативной памяти Apple вставила в разные iPad или сколько памяти у вашего нынешнего…

Совет по труду США признал, что Apple незаконно допросила сотрудников розничной торговли

Всемирный торговый центр Apple Совет по труду США установил, что Apple проводила несанкционированные допросы сотрудников…

Сообщается, что Apple разрабатывает новый специализированный чип для центров обработки данных с искусственным интеллектом

В последнее время Apple много инвестирует в искусственный интеллект, и вскоре компания представит миру собственный…

Apple незаконно допросила сотрудников розничной торговли в Нью-Йорке

В понедельник Apple подверглась критике из-за решения Совета по труду США о том, проводила ли…

Новое приложение Apple Photos, использующее генеративный искусственный интеллект для редактирования изображений

Новая функция «Очистка» значительно упростит удаление объектов. Новый тизер на веб-сайте Apple может указывать на…