Skip to main content

Еще в 2021 году Apple анонсировала ряд новых функций безопасности детей, в том числе обнаружение материалов о сексуальном насилии над детьми (CSAM) для фотографий iCloud. Однако этот шаг подвергся широкой критике из-за соображений конфиденциальности. После приостановки на неопределенный срок Apple подтвердила, что прекратила свои планы по развертыванию системы обнаружения CSAM.

Apple больше не будет сканировать CSAM в iCloud Photos

В тот же день, когда компания объявила о расширенной защите данных со сквозным шифрованием для всех данных iCloud, она также положила конец никогда не выпущенному сканированию CSAM. Эту новость подтвердил вице-президент Apple по разработке программного обеспечения Крейг Федериги в интервью корреспонденту WSJ Джоанне Стерн.

Когда было объявлено о сканировании CSAM, Apple заявила, что iCloud Photos сможет обнаруживать неприемлемые материалы на фотографиях пользователей на основе базы данных хэшей изображений CSAM. Таким образом, компания сможет обнаруживать такие фотографии с помощью обработки на устройстве, даже не просматривая фотографии пользователей.

Прежде чем изображение будет сохранено в iCloud Photos, на устройстве выполняется процесс сопоставления этого изображения с нечитаемым набором известных хэшей CSAM. Этот процесс сопоставления основан на криптографической технологии, называемой пересечением закрытых наборов, которая определяет наличие совпадения без раскрытия результата. Пересечение частного набора (PSI) позволяет Apple узнать, соответствует ли хэш изображения известным хэшам изображения CSAM, не узнавая ничего о хэшах изображений, которые не совпадают. PSI также не позволяет пользователю узнать, было ли совпадение.

Тем не менее, сканирование CSAM вызвало много критики со стороны пользователей. В заявлении для в прошлом году компания заявила, что решила «потратить дополнительное время в ближайшие месяцы на сбор информации и внесение улучшений, прежде чем выпускать эти критически важные функции безопасности детей».

Оказывается, теперь Apple решила, что лучше положить конец CSAM-сканированию iCloud Photos. Однако стоит отметить, что другие функции безопасности детей, такие как ограничения на iMessage, по-прежнему доступны в iOS.

Что вы думаете об этом решении? Дайте нам знать в комментариях ниже.