Skip to main content

Два года назад Apple анонсировала ряд новых функций безопасности детей, в том числе систему, которая будет использовать обработку данных на устройстве для поиска материалов о сексуальном насилии над детьми. Несмотря на реализацию этой функции, ориентированную на конфиденциальность, Apple столкнулась с такой негативной реакцией на эту функцию, что в конечном итоге отказалась от своих планов.

Теперь Apple оказывается в ситуации нового давления со стороны правозащитных групп и инвесторов-активистов с требованием принять более эффективные меры против CSAM.

Как впервые сообщил Wired, группа по защите детской безопасности Heat Initiative запускает многомиллионную кампанию, в которой оказывает давление на Apple по этому вопросу. Сегодня утром мы сообщили об ответе Apple на кампанию Heat Initiative, в которой компания признала потенциальный прецедент внедрения функции обнаружения CSAM.

«Например, сканирование одного типа контента открывает возможности для массовой слежки и может вызвать желание искать другие системы зашифрованных сообщений по типам контента», — сказал Эрик Нойеншвандер, директор Apple по конфиденциальности пользователей и безопасности детей, в интервью Проводной.

Теперь полная кампания Heat Initiative официально запущена. На веб-сайте кампании Heat Initiative занимает агрессивную позицию против Apple. Кампания включает в себя такие формулировки, как: «Материалы о сексуальном насилии над детьми хранятся в iCloud. Apple это позволяет».

Кампания объясняет:

Знаменательное заявление Apple о выявлении изображений и видео с сексуальным насилием над детьми в 2021 году было молча отменено, что повлияло на жизнь детей во всем мире. С каждым днем ​​из-за такого бездействия страдают дети, поэтому мы призываем Apple выполнить свои обязательства.

Правозащитная группа заявляет, что призывает Apple «обнаруживать, сообщать и удалять изображения и видео с сексуальным насилием над детьми из iCloud». Он также хочет, чтобы компания «создала надежный механизм отчетности, позволяющий пользователям сообщать Apple об изображениях и видео сексуального насилия над детьми».

На веб-сайте кампании также есть несколько «тематических исследований», в которых графически подробно описываются случаи использования iCloud для хранения фотографий и видео сексуального насилия. На сайте также есть кнопка «Направить электронное письмо руководству Apple напрямую». Эта кнопка открывает форму электронной почты для массовой рассылки электронной почты всему руководству Apple.

Heat Initiative также направила письмо Тиму Куку, в котором утверждает, что бездействие Apple подвергает «детей опасности».

В ходе нашего недавнего исследования мы столкнулись с сотнями случаев сексуального насилия над детьми, которые были задокументированы и распространены специально на устройствах Apple и сохранены в iCloud. Если бы Apple обнаружила эти изображения и видео, многие из этих детей были бы избавлены от жестокого обращения гораздо раньше.

Вот почему в тот день, когда вы решите начать обнаруживать такой вредный контент, дети будут идентифицированы, и им больше не придется подвергаться сексуальному насилию. Ожидание продолжает подвергать детей опасности и не позволяет выжившим или тем, у кого есть жизненный опыт, исцелиться.

Давление акционеров

Но помимо давления со стороны надвигающейся рекламы Heat Initiative, Apple вскоре также столкнется с давлением со стороны инвесторов по этому поводу. стало известно, что компания Christian Brothers Investment Services планирует подать резолюцию акционеров, которая призовет компанию принять меры по улучшению обнаружения CSAM.

Christian Brothers Investment Services описывает себя как «католическую, социально ответственную фирму по управлению инвестициями». Предполагается, что это предложение также сыграет роль в рекламной кампании Heat Initiative. Одновременно газета New York Times сообщает, что бельгийская инвестиционная фирма Degroof Petercam также поддержит резолюцию.

Как мы объясняли ранее, это ставит Apple между молотом и наковальней. Защитники конфиденциальности рассматривают первоначальное внедрение компанией обнаружения CSAM как опасный прецедент. Тем временем защитники детской безопасности говорят, что компания делает недостаточно.

Хотя Apple отказалась от своих планов по обнаружению известных изображений CSAM, когда они хранятся в iCloud, компания реализовала ряд других функций безопасности детей.

Следуй за шансом: темы, Твиттер, Instagram и Мастодонт. Сделайте пожертвование на поддержку детской исследовательской больницы Св. Иуды.