В начале сентября Apple официально объявил, что откладывают свои планы по внедрению функций для защиты детей, в том числе те, которые предполагали сканирование фотографий пользователей на предмет материалов о сексуальном насилии над детьми (CSAM).
«В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от хищников, использующих средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей», — говорится в заявлении Apple.
Если вы помните, Apple объявила в начале августа, что представит новую возможность в iOS 15, iPadOS 15, watchOS 8 и macOS Monterey. Эти функции безопасности детей, которые, как утверждает компания, были разработаны с помощью экспертов по безопасности детей, включают, во-первых, обновленное приложение iMessage, которое будет предупреждать родителей и их детей, когда изображения сексуального характера отправляются с их устройств или принимаются ими. Если, например, ребенок получит такое изображение, ему будет предложена возможность просмотреть его или нет. И если они это сделают, их родители будут уведомлены о том, что они просмотрели его. Нечто подобное происходит, когда ребенок отправляет фотографии откровенно сексуального характера.
Во-вторых, iPhone и iPad позволят Apple обнаруживать материал CSAM на фотографиях, загружаемых в iCloud. Если i-устройство находит фотографии, которые соответствуют или напоминают фотографии в базе данных известных материалов CSAM, материал помечается как таковой. Чтобы уменьшить вероятность ложноположительных совпадений (когда пользователь ошибочно обвиняется), пользователи должны превысить пороговое количество флагов, прежде чем Apple будет фактически предупреждена.
В-третьих, Siri и Поиск будут обновлены, чтобы предоставить детям и родителям дополнительные ресурсы для обеспечения безопасности в интернете. Эти двое также вмешиваются, когда пользователь ищет материал CSAM.
Однако намерение американского техгиганта сканировать «яблочные» гаджеты и iCloud пользователей на наличие откровенных фото вызвало резонанс. С тех пор, как нововведения были объявлены, такие организации, как Electronic Frontier Foundation (EFF), Fight for the Future и OpenMedia, подали петиции, чтобы заставить Apple отказаться от реализации своих планов. Кроме того огромное количество человек и организаций подписали открытое письмо к Apple с требованием отказаться от новых функций.
И даже несмотря на то, что Apple в конце концов отложили свои планы по внедрению вышеуказанных возможностей, EFF настаивает на том, что компания должна «полностью отказаться от планов по установке бэкдора в шифрование».