Apple будет сканировать каждое устройство на предмет наличия детской порнографии. А как же конфиденциальность?

В четверг Apple заявила, что представляет новые функции безопасности детей в iOS, iPadOS, watchOS и macOS в рамках своих усилий по ограничению распространения материалов о сексуальном насилии над детьми (Child Sexual Abuse Material — CSAM) в США.

С этой целью производитель iPhone заявил, что намерен начать сканирование на стороне клиента изображений, передаваемых через каждое устройство Apple, на предмет известного контента о жестоком обращении с детьми по мере их загрузки в iCloud Photos, в дополнение к использованию машинного обучения на устройстве для проверки всех сообщений iMessage. Изображения, отправленные или полученные несовершеннолетними учетными записями (в возрасте до 13 лет), чтобы предупредить родителей о фотографиях сексуального характера, опубликованных через платформу обмена сообщениями.

Кроме того, Apple также планирует обновить Siri и Search, чтобы вмешиваться, когда пользователи пытаются выполнить поиск по темам, связанным с CSAM, предупреждая, что «интерес к этой теме вреден и проблематичен».

«Сообщения используют машинное обучение на устройстве для анализа вложенных изображений и определения того, является ли фотография сексуально откровенной», — отметили в Apple. «Эта функция разработана таким образом, что Apple не может получить доступ к сообщениям». Считается, что функция, называемая безопасностью общения, является дополнительной настройкой, которую родители должны включить с помощью функции семейного доступа.

 

Как обнаруживаются материалы о сексуальном насилии над детьми

Обнаружение известных изображений CSAM включает в себя сопоставление на устройстве с использованием базы данных известных хэшей изображений CSAM, предоставленных Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC) и другими организациями по безопасности детей, прежде чем фотографии будут загружены в облако. «NeuralHash», как называется система, работает на криптографической технологии, известной как пересечение частных наборов (private set intersection). Однако стоит отметить, что, хотя сканирование происходит автоматически, эта функция работает только при включенном обмене фотографиями iCloud.

Более того, ожидается, что Apple будет использовать другой криптографический принцип, который позволяет ей «интерпретировать» содержимое, если учетная запись iCloud Photos пересекает пороговое значение известных изображений жестокого обращения с детьми, после чего содержимое проверяется вручную для подтверждения наличия совпадение, и если да, учетная запись пользователя будет отключена и передано сообщение о материале в NCMEC и правоохранительные органы.

 

Исследователи выражают обеспокоенность по поводу конфиденциальности

Инициатива Apple CSAM побудила исследователей в области безопасности выразить опасения, что она может пострадать из-за смещения миссии и может быть расширена для обнаружения других видов контента, который может иметь политические последствия и последствия для безопасности, или даже подставить невинных людей, отправив им безобидные, но злонамеренные изображения, предназначенные для их появления. как спички для детского порно.

Американский осведомитель Эдвард Сноуден написал в Твиттере, что, несмотря на благие намерения проекта, Apple развертывает «массовое наблюдение», а профессор криптографии Университета Джонса Хопкинса и эксперт по безопасности Мэтью Грин сказал: «Проблема в том, что шифрование — это мощный инструмент, который обеспечивает конфиденциальность, и вы не можете иметь строгую конфиденциальность, одновременно отслеживая каждое отправленное изображение».

Apple уже проверяет файлы iCloud и изображения, отправленные по электронной почте, на предмет известных изображений жестокого обращения с детьми, равно как и технологические гиганты, такие как Google, Twitter, Microsoft, Facebook и Dropbox, которые используют аналогичные методы хеширования изображений для поиска и отметки потенциальных материалов о жестоком обращении, но эта попытка  может возобновить дебаты об ослаблении шифрования, что приведет к эскалации затяжной борьбы за конфиденциальность и контроль в цифровую эпоху.

The New York Times в ходе расследования 2019 года показало, что в 2018 году было зарегистрировано рекордные 45 миллионов онлайн-фото и видео с детьми, подвергшимися сексуальному насилию, из которых на Facebook Messenger приходилось почти две трети, а на Facebook в целом приходилось 90% отчетов.

Грядущие изменения также знаменуют собой своего рода поворот для компании, которая вместе с принадлежащим Facebook WhatsApp постоянно сопротивляется попыткам намеренно ослабить шифрование и взломать свои системы. Тем не менее, в прошлом году Reuters сообщило, что компания отказалась от планов шифрования полных резервных копий пользователей в iCloud в 2018 году после того, как Федеральное бюро расследований США (ФБР) выразило опасения, что это помешает расследованиям.

«Эксплуатация детей — серьезная проблема, и Apple не первая технологическая компания, которая изменила свою позицию по защите конфиденциальности в попытке бороться с ней. Но этот выбор будет дорогостоящим для общей конфиденциальности пользователей», — сообщает Electronic Frontier Foundation (EFF). В заявлении говорится, что шаг Apple может нарушить защиту шифрования и открыть дверь для более широких злоупотреблений.

«Все, что потребуется, чтобы расширить узкую лазейку, которую строит Apple, — это расширение параметров машинного обучения для поиска дополнительных типов контента или настройка флагов конфигурации для сканирования не только детских, но и чьих-либо учетных записей. Это не скользкая дорожка; это полностью построенная система, которая ждет, пока внешнее давление внесет малейшие изменения», — добавил он.

CSAM планирует развернуть в США в ближайшие месяцы как часть iOS 15 и macOS Monterey, но еще неизвестно, будет ли она доступна на международном уровне и когда. В декабре 2020 года Facebook был вынужден отключить некоторые из своих инструментов обнаружения жестокого обращения с детьми в Европе в ответ на недавние изменения в директиве Европейской комиссии по электронной конфиденциальности, которая фактически запрещает автоматические системы сканирования изображений сексуального насилия над детьми и другого незаконного контента без участия пользователей. явное согласие.

По материалам https://thehackernews.com/ 

10 августа, 2021