Skip to main content

Apple действительно попала в безвыходную ситуацию с CSAM. Если он будет настаивать на своем, он будет осужден группами гражданских прав и специалистами в области безопасности. Если этого не произойдет, это будет осуждено группами защиты детей.

В настоящее время компания купила себе некоторое время, отложив развертывание, пока пытается подумать о дополнительных гарантиях, но остается вопрос: что это могут быть? …

Потратив годы на то, чтобы рекламировать учетные данные своих устройств и политику конфиденциальности, включая знаменитый слоган «Что происходит на вашем iPhone, остается на вашем iPhone», Apple не должна была удивлять, что это объявление оказалось спорным.

Компания установила огромные рекламные щиты. Он запускал забавную рекламу. На нем есть целый микросайт конфиденциальности. Его генеральный директор говорит о конфиденциальности в каждом интервью и публичном выступлении. Компания атакует других технологических гигантов из-за конфиденциальности. Он боролся со всей рекламной индустрией за новую функцию конфиденциальности.

Но по какой-то причине Apple не смогла предвидеть PR-катастрофу, которую она создала для себя, и теперь ей нужно найти какой-то выход из этой неразберихи.

Вкратце об аргументах за и против

Самая большая проблема заключается в том, что репрессивное правительство может заставить Apple добавить политические материалы в базы данных CSAM, которые оно использует, или может просто предоставить базу данных и сказать, что Apple должна ее использовать.

Apple ответила, что будет использовать только «безопасные» базы данных.

Можно ли использовать систему обнаружения CSAM в iCloud Photos для обнаружения вещей, отличных от CSAM? Наш процесс разработан, чтобы этого не произошло.

Обнаружение CSAM для фотографий iCloud построено таким образом, что система работает только с хэшами изображений CSAM, предоставленными NCMEC и другими организациями, занимающимися безопасностью детей. Этот набор хэшей изображений основан на изображениях, полученных и подтвержденных как CSAM как минимум двумя организациями по безопасности детей.

Автоматической отчетности в правоохранительные органы не существует, и Apple проводит проверку человеком перед тем, как сообщить в NCMEC. В результате система предназначена только для сообщения о фотографиях, которые известны как CSAM в iCloud Photos.

Контраргумент состоит в том, что Apple не может дать этого обещания. Как заявляла компания в отношении предыдущих разногласий, Apple соблюдает местные законы в каждой из стран, в которых она работает. Более того, недавно он стал шантажом еще до того, как вступил в силу новый закон.

Некоторые отвергают этот аргумент, говоря, что Apple уже может быть принуждена или шантажирована для компрометации конфиденциальности пользователей другими способами — как мы видели в Китае — и поэтому сканирование CSAM ничего не меняет. На мой взгляд, установка сканирования CSAM по-прежнему является особенно эффективным путем для правительства, желающего идентифицировать политических оппонентов, и может быть осуществлена ​​без заметных крупномасштабных изменений, таких как китайские серверы.

Как Apple могла разрешить свою безвыходную ситуацию с CSAM?

Я вижу два возможных пути для развития Apple.

Первый — просто продолжать откладывать развертывание на неопределенный срок. Таким образом, он не возрождает возражения против гражданских свобод, активируя эту функцию, и не возмущает группы защиты детей, объявляя о развороте. Каждый раз, когда его опрашивают, он может просто сказать, что продолжает работать над разработкой дополнительных мер безопасности, и надеяться, что людям в конце концов надоест спрашивать.

Я действительно думаю, что это могло бы сработать в течение значительного времени, но не до бесконечности. В какой-то момент группы защиты детей встанут и потребуют знать, когда система запускается. Например, Apple не смогла бы перейти на iOS 16, не запустив эту функцию или не отказавшись от своих планов, и маловероятно, что это сойдет ей с рук так долго.

Второй и лучший способ — объявить о создании независимого совета по надзору в стиле Facebook. Задача этого совета будет заключаться в проверке содержимого каждой базы данных CSAM, используемой Apple по всему миру. Для Apple было бы разумно пригласить на эту доску своих самых ярых критиков CSAM, таких как академик в области кибербезопасности. Мэтью Грин.

Таким образом, нам не нужно было бы верить Apple на слово, что она не использует взломанные базы данных, у нас были бы независимые эксперты по безопасности, говорящие об этом. Если в число этих независимых экспертов входят люди, которые наиболее скептически относились к мерам безопасности Apple, то мы могли бы быть чрезвычайно уверены в их выводах.

Первой задачей этого наблюдательного совета будет анализ существующих мер безопасности Apple и выработка рекомендаций по дополнительным. Как и Facebook, Apple обязуется следовать решениям совета директоров.

Я думаю, что это могло бы решить проблему ко всеобщему удовлетворению — и, в худшем случае, когда этого не произойдет, Apple может, по крайней мере, изолировать себя, указав, что она просто выполняет то, что требует независимый надзорный совет.

Каково ваше мнение? Как вы думаете, это может быть хорошим способом для Apple выбраться из нынешней безвыходной ситуации с CSAM? Примите участие в нашем опросе и поделитесь своими мыслями в комментариях.