Skip to main content

Спустя почти год после того, как он объявил, что подрядчики Apple слушали записи Siri, разоблачитель стал публичным и чувствует, что Apple не была достаточно наказана за свои действия.

В письме, адресованном европейским агентствам по регулированию защиты данных, Томас Ле Бонник объявил себя разоблачителем, заявившим в июле 2019 года, что Apple неправильно обрабатывает запросы Siri.

«Вызывает беспокойство тот факт, что Apple (и, несомненно, не только Apple) продолжает игнорировать и нарушать основные права и продолжает собирать огромные объемы данных», — пишет Ле Бонни, согласно The Guardian в среду утром. «Я чрезвычайно обеспокоен тем, что крупные технологические компании в основном прослушивают все население, несмотря на то, что европейским гражданам говорят, что в ЕС действует один из самых сильных законов о защите данных в мире. Принятие закона недостаточно хорошо: его нужно применять в отношении нарушителей конфиденциальности. »

Ле Бонник повторил многие из своих утверждений, которые он сделал в 2019 году, и говорит, что Apple должна быть «срочно расследована» органами по защите данных и наблюдателями за соблюдением конфиденциальности. Он добавляет, что «Apple не подвергалась никаким исследованиям, насколько мне известно».

Вскоре после того, как обвинения появились, Apple приостановила программу оценки, в то время как она провела обзор программы. Он также добавил элемент opt-in или opt-out для программы в iOS 13.2.

Спор о классификации Сири

В то время Apple явно не сообщала потребителям о том, что записи были переданы подрядчикам, но Apple сообщила пользователям с точки зрения сервисных документов, что некоторые запросы проверяются вручную, и с момента выпуска сервиса. Несмотря на то, что информация была общедоступной по крайней мере для шести итераций iOS, le Bonniec был обеспокоен отсутствием раскрытия, особенно учитывая содержание некоторых записей, содержащих «чрезвычайно конфиденциальную личную информацию».

Информатор заявил в июле 2019 года, что характер информации, иногда непреднамеренной и не являющейся частью запроса, очень широк.

«Вы определенно можете услышать, как врач и пациент рассказывают историю болезни пациента», — сказал ле Бонниек в то время. «Или вы бы услышали кого-то, может быть, с фоновым шумом двигателя автомобиля — вы не можете сказать точно, но это сделка с наркотиками.

Далее Ле Боннек заявил, что было много записей, «показывающих личные беседы между врачами и пациентами, деловые сделки, на первый взгляд криминальные отношения, сексуальные контакты и т. Д. Эти записи сопровождаются пользовательскими данными, показывающими местоположение, контактные данные и данные приложения».

Предположительно, не было никакой процедуры для работы с конфиденциальными записями, поскольку информатор сделал шаг вперед по поводу предположения, что данные могут быть легко использованы неправильно. Ссылаясь на отсутствие проверки сотрудников и широкий объем предоставляемых данных, Ле Боннек предположил, что «не составит труда определить человека, которого вы слушаете, особенно с помощью случайных триггеров», таких как имена и адреса, особенно для «кого-то». с гнусными намерениями «.

Первоначально Apple подтвердила, что «небольшая часть запросов Siri анализируется для улучшения Siri и диктовки», но добавила, что она была максимально безопасной.

«Запросы пользователей не связаны с Apple ID пользователя, — продолжила компания, — ответы Siri анализируются в безопасных условиях, и все рецензенты обязаны соблюдать строгие требования Apple в отношении конфиденциальности».

Apple добавила, что для оценки используется случайное подмножество из менее чем 1% ежедневных активаций Siri, продолжительность записи обычно составляет всего несколько секунд.

В конце августа Apple завершила свою проверку и подтвердила, что будут внесены изменения, в том числе возможность выбора анализа аудиосэмплов, и что только сотрудники Apple, а не подрядчики, смогут прослушивать сэмплы. Apple также больше не будет хранить аудиозаписи взаимодействий Siri в пользу использования сгенерированных компьютером транскриптов для улучшения Siri, а также будет «удалять» любую запись, которая определена как непреднамеренный триггер Siri.

За отчетом последовал год похожих историй о конфиденциальности, связанных с Google Assistant и Amazon Alexa, где команды имели доступ к некоторым журналам данных клиентов с записями для аналогичных целей обзора.

В случае Amazon захваченные голосовые данные были связаны с учетными записями пользователей. Что касается Google, исследователь предоставил голосовой фрагмент, который Google сохранил для анализа, репортеру, который сделал запрос — но Google говорит, что образцы не могут быть идентифицированы пользовательской информацией. Как пользователь был идентифицирован исследователем, неясно.