BIS-комментарий к статье «Новая напасть» от «Лаборатории Касперского»

BIS Journal №2(53)2024

6 мая, 2024

BIS-комментарий к статье «Новая напасть» от «Лаборатории Касперского»

Если злоумышленники обладают записями выступления человека, они с помощью нейросетей могут создать на их базе аудио- или видеозапись с необходимым им содержанием, то есть имитировать голос и мимику этого человека.

Инструменты для этого существуют, в том числе в открытом доступе. Причём изображение может быть с достаточно высокой детализацией, невооружённым глазом будет сложно отличить, настоящая это запись или нет. Такие методы могут применяться в многоступенчатой схеме в качестве одного из этапов атаки: злоумышленники начинают переписку с жертвой в мессенджере, выдавая себя за знакомого или сотрудника. Для убедительности присылают видео- или аудиосообщение, а потом предупреждают, что в скором времени с жертвой свяжутся якобы из банка или правоохранительных органов, или требуют срочно перевести средства на определённый счёт. После чего следует уже стандартная схема, цель злоумышленников — украсть деньги.

Однако в режиме реального времени создавать подобную запись всё ещё крайне сложно. Несмотря на возможности современных нейросетей, действительно качественный дипфейк в реальном времени остаётся дорогостоящей и непростой задачей, требующей высокого уровня подготовки. В первую очередь речь идёт о больших вычислительных мощностях, продвинутых навыках и времени на сбор данных. Описанный случай [в Гонконге] скорее можно назвать единичным, однако не исключено, что на горизонте нескольких лет такие ситуации могут стать более массовыми.

Судя по описанию инцидента, большая часть роликов была создана заранее, в удобный для злоумышленников момент связь обрывалась.

Если говорить о том, как не попасться в руки мошенников, эксплуатирующих дипфейк-технологии, то основной способ — повышать цифровую грамотность и критически подходить к любым сообщениям в сети. Необходимо проверять информацию, которой с вами делятся, даже если она от знакомых. Стоит обращать внимание на качество видео- или аудиоконтента: возможны дефекты в изображении или помехи в голосе. Если вы говорите в реальном времени, попросите собеседника покрутить головой из стороны в сторону, поднести руки к лицу, задайте внезапный вопрос, на который нет очевидного ответа. Если собеседник просит сделать что-то в срочном порядке, пугает возможной ответственностью или последствиями — это повод насторожиться.

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

11.07.2025
Скамеры раздают «советские» дивиденды
11.07.2025
Роскачество исследует механизм финансовых манипуляций в видеоиграх
11.07.2025
Владельцам дата-центров официально запретят майнить?
11.07.2025
Банкирам дадут всего три часа на информирование о киберинциденте
11.07.2025
RED Security SOC: Ландшафт атак становится всё более изощрённым
10.07.2025
От айтишников всё чаще требуют развитых soft skills
10.07.2025
Хакер попытался украсть личность госсекретаря США с помощью ИИ
10.07.2025
Финрегулятор хочет раскрыть имена собственников банков
10.07.2025
«Большая часть компаний начинает инвестировать в ИБ только в ответ на требования извне»
10.07.2025
Telegram эволюционирует, скамеры — тоже

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных