BIS Journal №2(53)2024

3 мая, 2024

Новая напасть. Похоже, 2024-й станет ещё и годом дипфейков

Доступность онлайн-инструментов и улучшенных инструментов ИИ открывает мошенникам новые возможности. Похоже, 2024-й станет ещё и годом дипфейков (deepfake, от англ. deep — глубокий и fake — подделка) — такой прогноз дали аналитики компании Onfido, специализирующейся на сервисах онлайн-проверки личности.

Согласно отчёту Identity fraud report 2024, в прошлом году число попыток мошенничества с использованием дипфейков выросло на 3000% к показателям 2022 г. Менее изощрённые виды мошенничества выросли всего на 7,4%. Рост числа дипфейков связан с широкой доступностью онлайн-инструментов и инструментов ИИ, что влияет на векторы атак по всем направлениям — от манипулирования цифровыми документами до дипфейков, отметили исследователи. Количество мошенничеств с биометрическими данными удвоилось. Число подделок цифровых документов выросло на 18%, основными целями являются национальные удостоверения личности (46,8%) и заграничные паспорта (26,7%). В 80% случаев мошенники пытаются подделать видеоизображение.

 

СЛУЧАЙ В ГОНКОНГЕ

События начала 2024 г. подтверждают выводы экспертов. В конце января одна из транснациональных корпораций потеряла $25,6 млн в результате мошенничества с использованием технологии дипфейк.

С заявлением в полицию обратился сотрудник гонконгского филиала корпорации. Он сообщил, что получил электронное письмо от финансового директора компании из Великобритании, в котором тот требовал провести секретную транзакцию. Поскольку послание вызвало у служащего сомнения, он пригласил финансового директора на групповую видеоконференцию с участием других сотрудников, знакомых работнику. Во время видеозвонка представители головного офиса в основном давали указания, а не общались между собой. В какой-то момент встреча оборвалась, что не смутило работника. Он осуществил 15 переводов на пять банковских счетов в Гонконге на общую сумму $25,6 млн. Весь эпизод — с момента первого контакта с жертвой до её запроса в штаб-квартиру и обнаружения факта мошенничества — занял около недели.

Такие же методы злоумышленники использовали для общения ещё с несколькими сотрудниками компании, они поддерживали связь с жертвами через мессенджеры, электронную почту и видеозвонки.

Полиция Гонконга не раскрывает название корпорации и продолжает расследование. Это первое подобное дело в Гонконге, отмечают следователи, и потому ему уделяется особое внимание. Установлено, что участники видеовстречи были воссозданы злоумышленниками в цифровом виде на основании общедоступных видео- и аудиозаписей этих людей.

 

СЛУЧАЙ В НИДЕРЛАНДАХ

В инциденте в Нидерландах финтех-банк Bunq избежал финансовых потерь. Али Никнам, генеральный директор Bunq, сообщил, что его сотруднику поступил видеозвонок от имени босса с просьбой срочно перевести крупную сумму денег. «Признаюсь, я был искренне удивлён, насколько убедительным оказался мой дипфейковый двойник», — написал Никнам в соцсети LinkedIn, отметив, что в организации есть процессы, которые обеспечивают безопасность в подобных ситуациях. В компании смогли быстро обнаружить мошенничество и в считаные минуты предупредить сотрудников о новой схеме обмана.

 

ПО ВСЕМУ МИРУ

Сегодня по всему миру известны многочисленные случаи, когда жертвы мошенничества были обмануты во время видеозвонков один на один или после просмотра роликов на сайтах и в соцсетях, в которых дипфейки знаменитостей предлагают незадачливым инвесторам вложиться в криптовалюты и удвоить свои деньги за считаные дни. В США используют образы Тейлор Свифт, Илона Маска и Брайана Армстронга, в Индии — известных финансистов и инвесторов, в России — актёров, якобы разбогатевших на крипте, или знакомых, попавших в затруднительную ситуацию. В Гонконге полиция арестовала нескольких граждан, которые использовали дипфейки и поддельные удостоверения личности при подаче заявок на кредиты и открытие счетов, они пытались обмануть программы распознавания лиц путём создания дипфейков людей, изображённых на украденных документах.

 

Как отмечают специалисты в США, пока ни один федеральный закон чётко не запрещает дипфейки. Девять штатов приняли законы, криминализирующие «глубокую порнографию без согласия». В марте во Флориде был принят законопроект, ограничивающий использование ИИ в политических кампаниях и обязывающий создателей рекламы извещать зрителей об использовании генеративного ИИ при изготовлении ролика. За нарушение требований вводится уголовная ответственность.

В ЕС дипфейки регулируются Законом об ИИ, который требует от создателей и распространителей материалов раскрывать их искусственное происхождение и предоставлять информацию об используемых методах. Ещё один шаг — инициатива «Техническое соглашение по борьбе с мошенническим использованием ИИ на выборах 2024 года», принятая на Мюнхенской конференции по безопасности. Это попытка противостоять вызовам, создаваемым дипфейками в избирательных процессах на фоне многочисленных кампаний этого года.

Крупные технологические платформы и соцсети уже выразили готовность маркировать контент, созданный ИИ.

В России на правительственном уровне идёт обсуждение вопросов правового регулирования технологии подмены личности (дипфейк) в целях недопущения её использования в противоправных целях. Сегодня в российском законодательстве отсутствуют отдельные категории преступлений, связанные с дипфейками. Правительство России планирует ввести наказание за использование таких технологий в противоправных целях. Предложения по этому вопросу должны проработать и предоставить Минцифры России совместно с МВД РФ и Роскомнадзором до 1 ноября 2024 г.

На итоговой пресс-конференции Level Up with Kaspersky в январе Сергей Голованов, главный эксперт «Лаборатории Касперского», заявил: «Все опасаются прямого эфира, в котором появится злоумышленник». «Это будет проблема, — сказал эксперт, — и ожидается она даже не в 2025 году, а уже в 2024-м».

 

Продолжение — в BIS-комментарии.

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

04.07.2025
Конгрессмен рассказал агентам ФБР про кибербез (не наоборот)
04.07.2025
«Это ускорит развитие национальной платёжной инфраструктуры»
04.07.2025
«Пар»? «Ростелеком» строит свой Steam
04.07.2025
«Не будет никакой остановки». Европейский AI Act — на марше
04.07.2025
В России всё же создадут базу биометрии мошенников
03.07.2025
В Госдуме продолжают намекать на преимущества импортозамещения
03.07.2025
Котята отрастили щупальца. Kraken целится в Apple издалека?
03.07.2025
DLBI: До конца года стилеры могут парализовать поиск «удалёнки» в РФ
03.07.2025
Международный уголовный суд подвергается атакам хакеров
03.07.2025
17% компаний выбирает ноутбуки с предустановленными отечественными ОС

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных