В конце февраля Facebook сообщил, что запускает два новых инструмента для предупреждения пользователей о рисках поиска и обмена контентом, эксплуатирующим детей, включая возможные правовые последствия этого.

«Использование наших приложений во вред детям отвратительно и неприемлемо. Наши ведущие в отрасли усилия по борьбе с эксплуатацией детей сосредоточены на предотвращении жестокого обращения, обнаружении и сообщении о контенте, нарушающем наши правила, а также на работе с экспертами и властями для обеспечения безопасности детей. Сегодня мы объявляем о новых инструментах, которые мы тестируем, чтобы люди не могли делиться контентом, в котором жертвами становятся дети, и о недавних улучшениях, которые мы внесли в наши инструменты обнаружения и отчетности», — говорится в сообщении. 

Первый инструмент — это всплывающее окно, которое будет показано пользователям, которые ищут в приложениях Facebook термины, связанные с эксплуатацией детей.

«Всплывающее окно предлагает способы получить помощь от организаций, занимающихся отвлечением правонарушителей, и предоставляет информацию о последствиях просмотра незаконного контента», — написала  глобальный руководитель службы безопасности Facebook Антигона Дэвис в блоге, посвященном новым инструментам.

Между тем, второй инструмент — это предупреждение о безопасности, которое будет отображаться для людей, которые поделились вирусным мемом, эксплуатирующим детей. Предупреждение проинформирует пользователя о том, к какому ущербу может привести распространение такого контента, а также добавит предупреждение о юридических последствиях распространения таких материалов.

«Аккаунты, продвигающие этот контент, будут удалены. Мы используем выводы из этого предупреждения о безопасности, чтобы помочь нам определить поведенческие сигналы тех, кто может подвергаться риску поделиться этим материалом, чтобы мы также могли объяснить им, почему он вреден, и побудить их не публиковать его на какой-либо поверхности — публичной или частной», — добавил Антигона Дэвис.

Перед тем как ввести новые инструменты, Facebook работал с экспертами по эксплуатации детей, в том числе с Национальным центром США по пропавшим и эксплуатируемым детям (NCMEC), над разработкой основанной на исследованиях таксономии для классификации намерений человека, связанного с распространением такого контента. После оценки 150 аккаунтов Facebook обнаружил, что примерно более 75% людей делали это не со злым умыслом. Скорее, они пытались вызвать возмущение или поделились контентом с плохим юмором. Тем не менее, компания добавила, что результаты не следует воспринимать как «точную меру» экосистемы безопасности детей.

Социальная сеть также внесла поправки в свою политику безопасности детей, чтобы уточнить, что она продолжит удалять профили Facebook, страницы, группы и учетные записи Instagram, которые делятся невинными изображениями детей или сопровождаются комментариями, хэштегами или подписями, содержащими неприемлемые признаки привязанности за детьми на фотографиях.

«Мы всегда удаляли контент, который явно сексуализировал детей, но контент, который не является явным и не изображает детскую наготу, определить труднее. В соответствии с этой новой политикой, хотя сами по себе изображения не могут нарушать наши правила, сопроводительный текст может помочь нам лучше определить, сексуализирует ли контент детей и следует ли удалить связанный профиль, страницу, группу или учетную запись», — пояснили в компании.

Кроме того, чтобы упростить сообщение о контенте, нарушающем политику Facebook в отношении эксплуатации детей, гигант социальных сетей добавил в категорию сообщений «Нагота и сексуальная активность» вариант «вовлекает ребенка».

Социальные сети активизировали свои усилия по пресечению контента о жестоком обращении с детьми и использовали различные инструменты и меры для достижения этой цели. Например, в прошлом году Facebook расширил родительский контроль для Messenger Kids, а TikTok представил функцию Family Pairing.

9 марта, 2021