Apple откладывает планы по поиску на устройствах изображений жестокого обращения с детьми

В начале сентября Apple официально объявил, что откладывают свои планы по внедрению функций для защиты детей, в том числе те, которые предполагали сканирование фотографий пользователей на предмет материалов о сексуальном насилии над детьми (CSAM).

«В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от хищников, использующих средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей», — говорится в заявлении Apple.

Если вы помните, Apple объявила в начале августа, что представит новую возможность в iOS 15, iPadOS 15, watchOS 8 и macOS Monterey. Эти функции безопасности детей, которые, как утверждает компания, были разработаны с помощью экспертов по безопасности детей, включают, во-первых, обновленное приложение iMessage, которое будет предупреждать родителей и их детей, когда изображения сексуального характера отправляются с их устройств или принимаются ими. Если, например, ребенок получит такое изображение, ему будет предложена возможность просмотреть его или нет. И если они это сделают, их родители будут уведомлены о том, что они просмотрели его. Нечто подобное происходит, когда ребенок отправляет фотографии откровенно сексуального характера.

Во-вторых, iPhone и iPad позволят Apple обнаруживать материал CSAM на фотографиях, загружаемых в iCloud. Если i-устройство находит фотографии, которые соответствуют или напоминают фотографии в базе данных известных материалов CSAM, материал помечается как таковой. Чтобы уменьшить вероятность ложноположительных совпадений (когда пользователь ошибочно обвиняется), пользователи должны превысить пороговое количество флагов, прежде чем Apple будет фактически предупреждена.

В-третьих, Siri и Поиск будут обновлены, чтобы предоставить детям и родителям дополнительные ресурсы для обеспечения безопасности в интернете. Эти двое также вмешиваются, когда пользователь ищет материал CSAM.

Однако намерение американского техгиганта сканировать «яблочные» гаджеты и iCloud пользователей на наличие откровенных фото вызвало резонанс. С тех пор, как нововведения были объявлены, такие организации, как Electronic Frontier Foundation (EFF), Fight for the Future и OpenMedia, подали петиции, чтобы заставить Apple отказаться от реализации своих планов. Кроме того огромное количество человек и организаций подписали открытое письмо к Apple с требованием отказаться от новых функций.

И даже несмотря на то, что Apple в конце концов отложили свои планы по внедрению вышеуказанных возможностей, EFF настаивает на том, что компания должна «полностью отказаться от планов по установке бэкдора в шифрование».

11 сентября, 2021

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.06.2025
Всё связать до 1 июля: «симку», биометрию, «Госуслуги»
30.06.2025
Нейросетям поставили задачу усовершенствовать бюджетный процесс
30.06.2025
Draugnet послужит демократизации отчётности по киберугрозам
30.06.2025
Россиян превращают в дропперов особо изощрённым способом
30.06.2025
Банк России сдал нулевой срез по цифровому рублю
30.06.2025
Половина безопасников хочет приостановить развёртывание GenAI
27.06.2025
«Корыстные цели и низкий уровень правовой культуры». Телеком-лицензии — только в чистые руки
27.06.2025
США опасаются усиления иранских кибератак после авиаударов
27.06.2025
«Можно было бы просто запретить импорт отдельных сегментов». «Аквариус» — о вечном
27.06.2025
ИИ позволяет бороться с телефонными мошенниками, сохраняя тайну связи

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных