BIS-комментарий к статье «Новая напасть» от «Лаборатории Касперского»

BIS Journal №2(53)2024

6 мая, 2024

BIS-комментарий к статье «Новая напасть» от «Лаборатории Касперского»

Если злоумышленники обладают записями выступления человека, они с помощью нейросетей могут создать на их базе аудио- или видеозапись с необходимым им содержанием, то есть имитировать голос и мимику этого человека.

Инструменты для этого существуют, в том числе в открытом доступе. Причём изображение может быть с достаточно высокой детализацией, невооружённым глазом будет сложно отличить, настоящая это запись или нет. Такие методы могут применяться в многоступенчатой схеме в качестве одного из этапов атаки: злоумышленники начинают переписку с жертвой в мессенджере, выдавая себя за знакомого или сотрудника. Для убедительности присылают видео- или аудиосообщение, а потом предупреждают, что в скором времени с жертвой свяжутся якобы из банка или правоохранительных органов, или требуют срочно перевести средства на определённый счёт. После чего следует уже стандартная схема, цель злоумышленников — украсть деньги.

Однако в режиме реального времени создавать подобную запись всё ещё крайне сложно. Несмотря на возможности современных нейросетей, действительно качественный дипфейк в реальном времени остаётся дорогостоящей и непростой задачей, требующей высокого уровня подготовки. В первую очередь речь идёт о больших вычислительных мощностях, продвинутых навыках и времени на сбор данных. Описанный случай [в Гонконге] скорее можно назвать единичным, однако не исключено, что на горизонте нескольких лет такие ситуации могут стать более массовыми.

Судя по описанию инцидента, большая часть роликов была создана заранее, в удобный для злоумышленников момент связь обрывалась.

Если говорить о том, как не попасться в руки мошенников, эксплуатирующих дипфейк-технологии, то основной способ — повышать цифровую грамотность и критически подходить к любым сообщениям в сети. Необходимо проверять информацию, которой с вами делятся, даже если она от знакомых. Стоит обращать внимание на качество видео- или аудиоконтента: возможны дефекты в изображении или помехи в голосе. Если вы говорите в реальном времени, попросите собеседника покрутить головой из стороны в сторону, поднести руки к лицу, задайте внезапный вопрос, на который нет очевидного ответа. Если собеседник просит сделать что-то в срочном порядке, пугает возможной ответственностью или последствиями — это повод насторожиться.

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.06.2025
Всё связать до 1 июля: «симку», биометрию, «Госуслуги»
30.06.2025
Нейросетям поставили задачу усовершенствовать бюджетный процесс
30.06.2025
Draugnet послужит демократизации отчётности по киберугрозам
30.06.2025
Россиян превращают в дропперов особо изощрённым способом
30.06.2025
Банк России сдал нулевой срез по цифровому рублю
30.06.2025
Половина безопасников хочет приостановить развёртывание GenAI
27.06.2025
«Корыстные цели и низкий уровень правовой культуры». Телеком-лицензии — только в чистые руки
27.06.2025
США опасаются усиления иранских кибератак после авиаударов
27.06.2025
«Можно было бы просто запретить импорт отдельных сегментов». «Аквариус» — о вечном
27.06.2025
ИИ позволяет бороться с телефонными мошенниками, сохраняя тайну связи

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных