Skip to main content

От планов сканирования Apple CSAM отказались, но споры на этом не прекратились. Австралийский регулятор обвинил компанию из Купертино в том, что она закрывает глаза на сексуальную эксплуатацию детей.

Она сказала, что ни Apple, ни Microsoft не предпринимают шагов для защиты «наиболее уязвимых от самых хищных»…

Главное

Обычный способ обнаружения материалов о сексуальном насилии над детьми (CSAM) заключается в том, что облачные сервисы, такие как Google Photos, сканируют загруженные фотографии и сравнивают их с базой данных известных изображений CSAM. Эта база данных предоставляется NCMEC и аналогичными организациями по всему миру.

Фактический процесс сопоставления использует так называемый хэш или цифровой отпечаток пальца. Это получено из ключевых элементов изображения и намеренно размыто, чтобы оно продолжало работать при изменении размера, обрезке или иной обработке изображения. Это означает, что иногда будут ложные срабатывания: невинное изображение, хеш которого достаточно близко совпадает с CSAM.

Apple планировала более безопасный для конфиденциальности подход, при котором сканирование происходило на iPhone пользователя, а не в облаке, но эксперты по кибербезопасности, правозащитные организации, правительства и собственные сотрудники Apple выразили четыре опасения по поводу этих планов.

В то время как Apple, казалось, была удивлена ​​отказом, мы указали в то время, что это было совершенно предсказуемо, учитывая постоянное сообщение компании о конфиденциальности, что «то, что происходит на iPhone, остается на iPhone».

Компания установила огромные рекламные щиты. Он запустил забавную рекламу. У него есть целый микросайт конфиденциальности. Ее генеральный директор говорит о конфиденциальности в каждом интервью и публичном выступлении. Компания атакует других технологических гигантов из-за конфиденциальности. Он боролся со всей рекламной индустрией из-за новой функции конфиденциальности.

Первоначально заявив, что приостановит развертывание, чтобы рассмотреть высказанные опасения, и введет дополнительные меры защиты конфиденциальности, компания незаметно удалила все упоминания об этом. На вопрос Apple ответила, что эта функция была отложена, а не отменена. Однако на прошлой неделе все изменилось.

В тот же день, когда компания объявила о расширенной защите данных со сквозным шифрованием для всех данных iCloud, она также положила конец никогда не выпущенному сканированию CSAM. Эту новость подтвердил вице-президент Apple по разработке программного обеспечения Крейг Федериги в интервью корреспонденту WSJ Джоанне Стерн.

Австралийский регулятор обвиняет Apple в том, что она закрывает глаза

Reuters сообщает, что австралийский комиссар по электронной безопасности обвинил Apple и Microsoft в неспособности сыграть свою роль в предотвращении обмена CSAM.

Уполномоченный по электронной безопасности, офис, созданный для защиты пользователей Интернета, заявил, что после отправки юридических запросов на информацию некоторым из крупнейших интернет-компаний в мире ответы показали, что Apple и Microsoft не проводили активную проверку на наличие материалов о жестоком обращении с детьми в своих службах хранения. , iCloud и OneDrive.

Объявление Apple неделю назад о прекращении сканирования учетных записей iCloud на предмет жестокого обращения с детьми из-за давления со стороны защитников конфиденциальности стало «серьезным шагом назад от их обязанностей по обеспечению безопасности детей», — сказал Инман Грант.

Неспособность обеих фирм обнаружить злоупотребления в прямом эфире привела к тому, что «некоторые из крупнейших и богатейших технологических компаний в мире закрывают глаза и не принимают надлежащих мер для защиты наиболее уязвимых от самых хищных», добавила она.

Сможет ли Apple сохранить свою новую позицию, пока неизвестно. В будущем компания может столкнуться с юридическим требованием по обнаружению CSAM.

Фото: Присцилла Дю През/Unsplash