Еще в 2021 году Apple анонсировала ряд новых функций безопасности детей, в том числе обнаружение материалов о сексуальном насилии над детьми (CSAM) для фотографий iCloud. Однако этот шаг подвергся широкой критике из-за соображений конфиденциальности. После приостановки на неопределенный срок Apple подтвердила, что прекратила свои планы по развертыванию системы обнаружения CSAM.
В тот же день, когда компания объявила о расширенной защите данных со сквозным шифрованием для всех данных iCloud, она также положила конец никогда не выпущенному сканированию CSAM. Эту новость подтвердил вице-президент Apple по разработке программного обеспечения Крейг Федериги в интервью корреспонденту WSJ Джоанне Стерн.
Когда было объявлено о сканировании CSAM, Apple заявила, что iCloud Photos сможет обнаруживать неприемлемые материалы на фотографиях пользователей на основе базы данных хэшей изображений CSAM. Таким образом, компания сможет обнаруживать такие фотографии с помощью обработки на устройстве, даже не просматривая фотографии пользователей.
Прежде чем изображение будет сохранено в iCloud Photos, на устройстве выполняется процесс сопоставления этого изображения с нечитаемым набором известных хэшей CSAM. Этот процесс сопоставления основан на криптографической технологии, называемой пересечением закрытых наборов, которая определяет наличие совпадения без раскрытия результата. Пересечение частного набора (PSI) позволяет Apple узнать, соответствует ли хэш изображения известным хэшам изображения CSAM, не узнавая ничего о хэшах изображений, которые не совпадают. PSI также не позволяет пользователю узнать, было ли совпадение.
Тем не менее, сканирование CSAM вызвало много критики со стороны пользователей. В заявлении для в прошлом году компания заявила, что решила «потратить дополнительное время в ближайшие месяцы на сбор информации и внесение улучшений, прежде чем выпускать эти критически важные функции безопасности детей».
Оказывается, теперь Apple решила, что лучше положить конец CSAM-сканированию iCloud Photos. Однако стоит отметить, что другие функции безопасности детей, такие как ограничения на iMessage, по-прежнему доступны в iOS.
Что вы думаете об этом решении? Дайте нам знать в комментариях ниже.
В последнее время Apple ввела ежемесячный цикл выпусков Apple Arcade и только что объявила, что…
Любопытно, сколько оперативной памяти Apple вставила в разные iPad или сколько памяти у вашего нынешнего…
Всемирный торговый центр Apple Совет по труду США установил, что Apple проводила несанкционированные допросы сотрудников…
В последнее время Apple много инвестирует в искусственный интеллект, и вскоре компания представит миру собственный…
В понедельник Apple подверглась критике из-за решения Совета по труду США о том, проводила ли…