BIS-комментарий к статье «Новая напасть» от «Лаборатории Касперского»

BIS Journal №2(53)2024

6 мая, 2024

BIS-комментарий к статье «Новая напасть» от «Лаборатории Касперского»

Если злоумышленники обладают записями выступления человека, они с помощью нейросетей могут создать на их базе аудио- или видеозапись с необходимым им содержанием, то есть имитировать голос и мимику этого человека.

Инструменты для этого существуют, в том числе в открытом доступе. Причём изображение может быть с достаточно высокой детализацией, невооружённым глазом будет сложно отличить, настоящая это запись или нет. Такие методы могут применяться в многоступенчатой схеме в качестве одного из этапов атаки: злоумышленники начинают переписку с жертвой в мессенджере, выдавая себя за знакомого или сотрудника. Для убедительности присылают видео- или аудиосообщение, а потом предупреждают, что в скором времени с жертвой свяжутся якобы из банка или правоохранительных органов, или требуют срочно перевести средства на определённый счёт. После чего следует уже стандартная схема, цель злоумышленников — украсть деньги.

Однако в режиме реального времени создавать подобную запись всё ещё крайне сложно. Несмотря на возможности современных нейросетей, действительно качественный дипфейк в реальном времени остаётся дорогостоящей и непростой задачей, требующей высокого уровня подготовки. В первую очередь речь идёт о больших вычислительных мощностях, продвинутых навыках и времени на сбор данных. Описанный случай [в Гонконге] скорее можно назвать единичным, однако не исключено, что на горизонте нескольких лет такие ситуации могут стать более массовыми.

Судя по описанию инцидента, большая часть роликов была создана заранее, в удобный для злоумышленников момент связь обрывалась.

Если говорить о том, как не попасться в руки мошенников, эксплуатирующих дипфейк-технологии, то основной способ — повышать цифровую грамотность и критически подходить к любым сообщениям в сети. Необходимо проверять информацию, которой с вами делятся, даже если она от знакомых. Стоит обращать внимание на качество видео- или аудиоконтента: возможны дефекты в изображении или помехи в голосе. Если вы говорите в реальном времени, попросите собеседника покрутить головой из стороны в сторону, поднести руки к лицу, задайте внезапный вопрос, на который нет очевидного ответа. Если собеседник просит сделать что-то в срочном порядке, пугает возможной ответственностью или последствиями — это повод насторожиться.

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

06.02.2026
ФБР надеется усилить кибербезопасность, выставив «Зимний щит»
06.02.2026
Мессенджер imo занял место заблокированного «Вайбера»
06.02.2026
Банк России сопроводит спорные операции подробностями
06.02.2026
Внедряя ИИ, CISO отстают от «победных реляций»
05.02.2026
Приложение Visit Russia пополнится новым функционалом
05.02.2026
В «Вышке» появился ИБ-департамент
05.02.2026
Присутствие эмодзи в коде PureRAT выявило роль ИИ в создании зловреда
05.02.2026
Газетчики не готовы давать ИИ-вендорам бесплатный «корм» для LLM
05.02.2026
Servicepipe внедрила расширенный фингерпринтинг в Cybert
04.02.2026
CISA подготовило список решений в области постквантовой криптографии

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных