От планов сканирования Apple CSAM отказались, но споры на этом не прекратились. Австралийский регулятор обвинил компанию из Купертино в том, что она закрывает глаза на сексуальную эксплуатацию детей.
Она сказала, что ни Apple, ни Microsoft не предпринимают шагов для защиты «наиболее уязвимых от самых хищных»…
Главное
Обычный способ обнаружения материалов о сексуальном насилии над детьми (CSAM) заключается в том, что облачные сервисы, такие как Google Photos, сканируют загруженные фотографии и сравнивают их с базой данных известных изображений CSAM. Эта база данных предоставляется NCMEC и аналогичными организациями по всему миру.
Фактический процесс сопоставления использует так называемый хэш или цифровой отпечаток пальца. Это получено из ключевых элементов изображения и намеренно размыто, чтобы оно продолжало работать при изменении размера, обрезке или иной обработке изображения. Это означает, что иногда будут ложные срабатывания: невинное изображение, хеш которого достаточно близко совпадает с CSAM.
Apple планировала более безопасный для конфиденциальности подход, при котором сканирование происходило на iPhone пользователя, а не в облаке, но эксперты по кибербезопасности, правозащитные организации, правительства и собственные сотрудники Apple выразили четыре опасения по поводу этих планов.
В то время как Apple, казалось, была удивлена отказом, мы указали в то время, что это было совершенно предсказуемо, учитывая постоянное сообщение компании о конфиденциальности, что «то, что происходит на iPhone, остается на iPhone».
Компания установила огромные рекламные щиты. Он запустил забавную рекламу. У него есть целый микросайт конфиденциальности. Ее генеральный директор говорит о конфиденциальности в каждом интервью и публичном выступлении. Компания атакует других технологических гигантов из-за конфиденциальности. Он боролся со всей рекламной индустрией из-за новой функции конфиденциальности.
Первоначально заявив, что приостановит развертывание, чтобы рассмотреть высказанные опасения, и введет дополнительные меры защиты конфиденциальности, компания незаметно удалила все упоминания об этом. На вопрос Apple ответила, что эта функция была отложена, а не отменена. Однако на прошлой неделе все изменилось.
В тот же день, когда компания объявила о расширенной защите данных со сквозным шифрованием для всех данных iCloud, она также положила конец никогда не выпущенному сканированию CSAM. Эту новость подтвердил вице-президент Apple по разработке программного обеспечения Крейг Федериги в интервью корреспонденту WSJ Джоанне Стерн.
Австралийский регулятор обвиняет Apple в том, что она закрывает глаза
Reuters сообщает, что австралийский комиссар по электронной безопасности обвинил Apple и Microsoft в неспособности сыграть свою роль в предотвращении обмена CSAM.
Уполномоченный по электронной безопасности, офис, созданный для защиты пользователей Интернета, заявил, что после отправки юридических запросов на информацию некоторым из крупнейших интернет-компаний в мире ответы показали, что Apple и Microsoft не проводили активную проверку на наличие материалов о жестоком обращении с детьми в своих службах хранения. , iCloud и OneDrive.
Объявление Apple неделю назад о прекращении сканирования учетных записей iCloud на предмет жестокого обращения с детьми из-за давления со стороны защитников конфиденциальности стало «серьезным шагом назад от их обязанностей по обеспечению безопасности детей», — сказал Инман Грант.
Неспособность обеих фирм обнаружить злоупотребления в прямом эфире привела к тому, что «некоторые из крупнейших и богатейших технологических компаний в мире закрывают глаза и не принимают надлежащих мер для защиты наиболее уязвимых от самых хищных», добавила она.
Сможет ли Apple сохранить свою новую позицию, пока неизвестно. В будущем компания может столкнуться с юридическим требованием по обнаружению CSAM.
Фото: Присцилла Дю През/Unsplash