Обновление: как мы и подозревали, ничего не изменилось. Представитель Apple сообщил The Verge, что функция все еще откладывается, а не отменяется.
Ссылки на веб-сайт Apple о сканировании CSAM были незаметно удалены компанией за последние несколько дней.
Микросайт компании по безопасности детей ранее описывал планы компании по сканированию iPhone на предмет материалов о сексуальном насилии над детьми, наряду с функцией безопасности общения в сообщениях и предупреждениями, когда кто-то ищет CSAM. Однако раздел о сканировании CSAM теперь удален …
Читатель Флориан Шиманке заметил изменение.
Я только что узнал, что после выпуска iOS 15.2 в понедельник Apple удалила упоминание о запланированных сканированиях CSAM со своего веб-сайта, посвященного безопасности детей. В прошлую пятницу планы все еще присутствовали на веб-сайте, что можно увидеть в веб-архиве: https://web.archive.org/web/20211210163051/https://www.apple.com/child-safety/.
Некоторые предполагают, что это означает, что Apple отказалась от этого плана и просто надеется, что люди забудут об этом. Однако, хотя я признал эту возможность еще в сентябре, я также объяснил, почему считаю это маловероятным.
Я вижу два возможных пути для развития Apple. Первый — просто продолжать откладывать развертывание на неопределенный срок. Таким образом, он не возрождает возражения против гражданских свобод, активируя эту функцию, и не возмущает группы защиты детей, объявляя о развороте. Каждый раз, когда его опрашивают, он может просто сказать, что продолжает работать над разработкой дополнительных мер безопасности, и надеяться, что людям в конце концов надоест спрашивать.
Я действительно думаю, что это могло бы сработать в течение некоторого времени, но не до бесконечности. В какой-то момент группы защиты детей встанут и потребуют знать, когда система запускается. Например, Apple не смогла бы перейти на iOS 16, не запустив эту функцию или не отказавшись от своих планов, и маловероятно, что она так долго сойдет ей с рук.
Поэтому я предложил второй подход:
Второй и лучший способ — объявить о создании независимого совета по надзору в стиле Facebook. Задача этого совета будет заключаться в проверке содержимого каждой базы данных CSAM, используемой Apple по всему миру. Для Apple было бы разумно пригласить на эту доску своих самых ярых критиков CSAM, таких как академик в области кибербезопасности. Мэтью Грин.
Посмотрим, прислушается ли Apple к моему совету, но я не думаю, что удаление плана с веб-сайта компании означает, что сканирование CSAM не работает — только то, что компании нужно больше времени, чтобы рассмотреть свои варианты.
Фото: Келли-Энн Тан / Unsplash
Вчера был объявлен отчет Apple о доходах за второй квартал 2024 года, который оказался почти…
iPhone не заряжается или заряжается медленно? Если у вас возникли проблемы с конкретным зарядным кабелем,…
Apple выпустила свою последнюю рекламу для iPhone 15, подчеркивающую возможности точного поиска. Забавным поворотом этого…
2024 год обещает стать «Годом искусственного интеллекта» для Apple: запланированы большие обновления для iOS 18…
Мы наблюдаем поразительный прогресс в инструментах визуального искусственного интеллекта, таких как DALL•E от Open AI,…