Ссылки на сканирование CSAM незаметно удалены с apple.com

Ссылки на сканирование CSAM незаметно удалены с apple.com

Ссылки на веб-сайт Apple о сканировании CSAM были незаметно удалены компанией за последние несколько дней.

На микросайте, посвященном безопасности детей, ранее были описаны планы компании по сканированию iPhone на предмет материалов о сексуальном насилии над детьми, а также функция «Безопасность общения в сообщениях» и предупреждения, когда кто-то ищет CSAM. Однако раздел о сканировании CSAM теперь удален …

Читатель Флориан Шиманке заметил изменение.

Я только что узнал, что после выпуска iOS 15.2 в понедельник Apple удалила упоминание о запланированных сканированиях CSAM со своего веб-сайта, посвященного безопасности детей. В прошлую пятницу планы все еще присутствовали на веб-сайте, что можно увидеть в веб-архиве: https://web.archive.org/web/20211210163051/https://www.apple.com/child-safety/.

Некоторые предполагают, что это означает, что Apple отказалась от этого плана и просто надеется, что люди забудут об этом. Однако, хотя я признал эту возможность еще в сентябре, я также объяснил, почему считаю это маловероятным.

Я вижу два возможных пути для развития Apple. Первый — просто продолжать откладывать развертывание на неопределенный срок. Таким образом, он не возрождает возражения против гражданских свобод, активируя эту функцию, и не возмущает группы защиты детей, объявляя о развороте. Каждый раз, когда его опрашивают, он может просто сказать, что продолжает работать над разработкой дополнительных мер безопасности, и надеяться, что людям в конце концов надоест спрашивать.

Я действительно думаю, что это могло бы сработать в течение некоторого времени, но не до бесконечности. В какой-то момент группы защиты детей встанут и потребуют знать, когда система запускается. Например, Apple не смогла бы перейти на iOS 16, не запустив эту функцию или не отказавшись от своих планов, и маловероятно, что она так долго сойдет ей с рук.

Поэтому я предложил второй подход:

Второй и лучший способ — объявить о создании независимого совета по надзору в стиле Facebook. Задача этого совета будет заключаться в проверке содержимого каждой базы данных CSAM, используемой Apple по всему миру. Для Apple было бы разумно пригласить на эту доску своих самых ярых критиков CSAM, таких как академик в области кибербезопасности. Мэтью Грин.

Посмотрим, примет ли Apple мой совет, но я не думаю, что удаление плана с веб-сайта компании означает, что сканирование CSAM не работает — только то, что компании нужно больше времени, чтобы рассмотреть свои варианты.

Фото: Келли-Энн Тан / Unsplash

Соцсети