Skip to main content

Отмененный инструмент обнаружения CSAM от Apple

Группа безопасности детей подтолкнула Apple к объяснению того, почему объявленная функция обнаружения CSAM была отменена, и компания дала самый подробный ответ о том, почему она отказалась от своих планов.

Материалы о сексуальном насилии над детьми — это постоянная серьезная проблема, которую Apple пытается решить с помощью инструментов обнаружения на устройстве и iCloud. В декабре 2022 года от этих спорных инструментов в конечном итоге отказались, что вызвало еще больше споров.

Группа безопасности детей, известная как Heat Initiative, заявила Apple, что организует кампанию против отказа от обнаружения CSAM, надеясь заставить компанию предложить такие инструменты. Apple ответила подробно, а Wired получил ответ и подробно описал его содержание в отчете.

В ответе основное внимание уделяется безопасности и конфиденциальности потребителей как причине, по которой Apple перешла на набор функций под названием «Безопасность связи». Попытка найти способ получить доступ к информации, которая обычно зашифрована, противоречит более широкой позиции Apple в области конфиденциальности и безопасности — позиция, которая продолжает расстраивать мировые державы.

«Материалы о сексуальном насилии над детьми отвратительны, и мы стремимся разорвать цепь принуждения и влияния, которая делает детей восприимчивыми к ним», — написал Эрик Нойеншвандер, директор Apple по конфиденциальности пользователей и безопасности детей.

«Сканирование личных данных каждого пользователя, хранящихся в iCloud, создаст новые векторы угроз для похитителей данных, которые они смогут найти и использовать», — продолжил Нойеншвандер. «Это также может создать потенциальную возможность возникновения непредвиденных последствий. Например, сканирование одного типа контента открывает двери для массового наблюдения и может вызвать желание искать другие системы зашифрованных сообщений по типам контента».

«Мы решили не реализовывать предложение о гибридном клиент-серверном подходе к обнаружению CSAM для фотографий iCloud, выдвинутое несколько лет назад», — закончил он. «Мы пришли к выводу, что реализовать это практически невозможно, не поставив под угрозу безопасность и конфиденциальность наших пользователей».

Нойеншвандер отвечал на запрос Сары Гарднер, лидера инициативы «Тепловая инициатива». Гарднер спрашивал, почему Apple отказалась от программы идентификации CSAM на устройстве.

«Мы твердо верим, что решение, которое вы представили, не только позиционирует Apple как мирового лидера в области конфиденциальности пользователей, но и обещает искоренить миллионы изображений и видео с сексуальным насилием над детьми из iCloud», — написал Гарднер. «Я участвую в развивающейся инициативе с участием заинтересованных экспертов и защитников безопасности детей, которые намерены сотрудничать с вами и вашей компанией Apple в связи с вашей продолжающейся задержкой во внедрении критически важных технологий».

«Сексуальное насилие над детьми — сложная проблема, о которой никто не хочет говорить, поэтому о ней замалчивают и оставляют в стороне, — добавил Гарднер. — Мы здесь, чтобы убедиться, что этого не произойдет».

Вместо того, чтобы использовать подход, который нарушил бы доверие пользователей и превратил бы Apple в посредника при обработке отчетов, компания хочет помочь жертвам обратиться к ресурсам и правоохранительным органам. API-интерфейсы разработчиков, которые могут использовать такие приложения, как Discord, помогут обучать пользователей и направлять их сообщать о правонарушителях.

Apple никоим образом не «сканирует» фотографии пользователей, хранящиеся на устройстве или в iCloud. Функцию «Безопасность общения» можно включить для учетных записей детей, но она не будет уведомлять родителей об обнаружении наготы в чатах.