Skip to main content

Apple отменила свои основные предложения CSAM, но ввела такие функции, как автоматическая блокировка изображений наготы, отправленных детям

В предлагаемом коллективном иске утверждается, что Apple прикрывается заявлениями о конфиденциальности, чтобы избежать прекращения хранения материалов о сексуальном насилии над детьми в iCloud, а также о предполагаемых домогательствах через iMessage.

Новое заявление в Окружной суд США по Северному округу Калифорнии было подано от имени неназванной 9-летней истицы. В заявлении, которое указано только как Джейн Доу, говорится, что ее принудили сделать и загрузить CSAM на ее iPad.

«Когда 9-летняя Джейн Доу получила iPad на Рождество, — говорится в заявлении, — она и представить себе не могла, что преступники воспользуются им, чтобы заставить ее создать и загрузить в iCloud материалы, содержащие сцены сексуального насилия над детьми («CSAM»)».

«В этом иске утверждается, что Apple эксплуатирует «конфиденциальность» по собственной прихоти», — говорится в заявлении, — «иногда выставляя «конфиденциальность» на городских рекламных щитах и ​​в рекламе, а в других случаях используя конфиденциальность как оправдание, чтобы смотреть в другую сторону, в то время как конфиденциальность Доу и других детей полностью попирается из-за распространения CSAM в iCloud компании Apple».