Categories: iOSiOS 15iPhone

Ссылки на сканирование CSAM незаметно удалены с apple.com

Обновление: как мы и подозревали, ничего не изменилось. Представитель Apple сообщил The Verge, что функция все еще откладывается, а не отменяется.

Ссылки на веб-сайт Apple о сканировании CSAM были незаметно удалены компанией за последние несколько дней.

Микросайт компании по безопасности детей ранее описывал планы компании по сканированию iPhone на предмет материалов о сексуальном насилии над детьми, наряду с функцией безопасности общения в сообщениях и предупреждениями, когда кто-то ищет CSAM. Однако раздел о сканировании CSAM теперь удален …

Читатель Флориан Шиманке заметил изменение.

Я только что узнал, что после выпуска iOS 15.2 в понедельник Apple удалила упоминание о запланированных сканированиях CSAM со своего веб-сайта, посвященного безопасности детей. В прошлую пятницу планы все еще присутствовали на веб-сайте, что можно увидеть в веб-архиве: https://web.archive.org/web/20211210163051/https://www.apple.com/child-safety/.

Некоторые предполагают, что это означает, что Apple отказалась от этого плана и просто надеется, что люди забудут об этом. Однако, хотя я признал эту возможность еще в сентябре, я также объяснил, почему считаю это маловероятным.

Я вижу два возможных пути для развития Apple. Первый — просто продолжать откладывать развертывание на неопределенный срок. Таким образом, он не возрождает возражения против гражданских свобод, активируя эту функцию, и не возмущает группы защиты детей, объявляя о развороте. Каждый раз, когда его опрашивают, он может просто сказать, что продолжает работать над разработкой дополнительных мер безопасности, и надеяться, что людям в конце концов надоест спрашивать.

Я действительно думаю, что это могло бы сработать в течение некоторого времени, но не до бесконечности. В какой-то момент группы защиты детей встанут и потребуют знать, когда система запускается. Например, Apple не смогла бы перейти на iOS 16, не запустив эту функцию или не отказавшись от своих планов, и маловероятно, что она так долго сойдет ей с рук.

Поэтому я предложил второй подход:

Второй и лучший способ — объявить о создании независимого совета по надзору в стиле Facebook. Задача этого совета будет заключаться в проверке содержимого каждой базы данных CSAM, используемой Apple по всему миру. Для Apple было бы разумно пригласить на эту доску своих самых ярых критиков CSAM, таких как академик в области кибербезопасности. Мэтью Грин.

Посмотрим, прислушается ли Apple к моему совету, но я не думаю, что удаление плана с веб-сайта компании означает, что сканирование CSAM не работает — только то, что компании нужно больше времени, чтобы рассмотреть свои варианты.

Фото: Келли-Энн Тан / Unsplash

Recent Posts

Доходы Apple за второй квартал 2024 года, воплощенные в жизнь Six Colors, включая видео

Вчера был объявлен отчет Apple о доходах за второй квартал 2024 года, который оказался почти…

iPhone не заряжается: 6 решений

iPhone не заряжается или заряжается медленно? Если у вас возникли проблемы с конкретным зарядным кабелем,…

«Это способ… найти друзей», — гласит умная реклама нового iPhone 15. [Video]

Apple выпустила свою последнюю рекламу для iPhone 15, подчеркивающую возможности точного поиска. Забавным поворотом этого…

iOS 18: вот новые функции искусственного интеллекта в разработке

2024 год обещает стать «Годом искусственного интеллекта» для Apple: запланированы большие обновления для iOS 18…

Wall Genie для iPhone хочет помочь вам создавать красивые обои с помощью искусственного интеллекта

Мы наблюдаем поразительный прогресс в инструментах визуального искусственного интеллекта, таких как DALL•E от Open AI,…

По слухам, iOS 18 поможет пользователям суммировать текстовые сообщения с помощью ИИ

Мы слышали много слухов о том, что в iOS 18 появятся новые функции на базе…