BIS Journal №2(53)2024

3 мая, 2024

Новая напасть. Похоже, 2024-й станет ещё и годом дипфейков

Доступность онлайн-инструментов и улучшенных инструментов ИИ открывает мошенникам новые возможности. Похоже, 2024-й станет ещё и годом дипфейков (deepfake, от англ. deep — глубокий и fake — подделка) — такой прогноз дали аналитики компании Onfido, специализирующейся на сервисах онлайн-проверки личности.

Согласно отчёту Identity fraud report 2024, в прошлом году число попыток мошенничества с использованием дипфейков выросло на 3000% к показателям 2022 г. Менее изощрённые виды мошенничества выросли всего на 7,4%. Рост числа дипфейков связан с широкой доступностью онлайн-инструментов и инструментов ИИ, что влияет на векторы атак по всем направлениям — от манипулирования цифровыми документами до дипфейков, отметили исследователи. Количество мошенничеств с биометрическими данными удвоилось. Число подделок цифровых документов выросло на 18%, основными целями являются национальные удостоверения личности (46,8%) и заграничные паспорта (26,7%). В 80% случаев мошенники пытаются подделать видеоизображение.

 

СЛУЧАЙ В ГОНКОНГЕ

События начала 2024 г. подтверждают выводы экспертов. В конце января одна из транснациональных корпораций потеряла $25,6 млн в результате мошенничества с использованием технологии дипфейк.

С заявлением в полицию обратился сотрудник гонконгского филиала корпорации. Он сообщил, что получил электронное письмо от финансового директора компании из Великобритании, в котором тот требовал провести секретную транзакцию. Поскольку послание вызвало у служащего сомнения, он пригласил финансового директора на групповую видеоконференцию с участием других сотрудников, знакомых работнику. Во время видеозвонка представители головного офиса в основном давали указания, а не общались между собой. В какой-то момент встреча оборвалась, что не смутило работника. Он осуществил 15 переводов на пять банковских счетов в Гонконге на общую сумму $25,6 млн. Весь эпизод — с момента первого контакта с жертвой до её запроса в штаб-квартиру и обнаружения факта мошенничества — занял около недели.

Такие же методы злоумышленники использовали для общения ещё с несколькими сотрудниками компании, они поддерживали связь с жертвами через мессенджеры, электронную почту и видеозвонки.

Полиция Гонконга не раскрывает название корпорации и продолжает расследование. Это первое подобное дело в Гонконге, отмечают следователи, и потому ему уделяется особое внимание. Установлено, что участники видеовстречи были воссозданы злоумышленниками в цифровом виде на основании общедоступных видео- и аудиозаписей этих людей.

 

СЛУЧАЙ В НИДЕРЛАНДАХ

В инциденте в Нидерландах финтех-банк Bunq избежал финансовых потерь. Али Никнам, генеральный директор Bunq, сообщил, что его сотруднику поступил видеозвонок от имени босса с просьбой срочно перевести крупную сумму денег. «Признаюсь, я был искренне удивлён, насколько убедительным оказался мой дипфейковый двойник», — написал Никнам в соцсети LinkedIn, отметив, что в организации есть процессы, которые обеспечивают безопасность в подобных ситуациях. В компании смогли быстро обнаружить мошенничество и в считаные минуты предупредить сотрудников о новой схеме обмана.

 

ПО ВСЕМУ МИРУ

Сегодня по всему миру известны многочисленные случаи, когда жертвы мошенничества были обмануты во время видеозвонков один на один или после просмотра роликов на сайтах и в соцсетях, в которых дипфейки знаменитостей предлагают незадачливым инвесторам вложиться в криптовалюты и удвоить свои деньги за считаные дни. В США используют образы Тейлор Свифт, Илона Маска и Брайана Армстронга, в Индии — известных финансистов и инвесторов, в России — актёров, якобы разбогатевших на крипте, или знакомых, попавших в затруднительную ситуацию. В Гонконге полиция арестовала нескольких граждан, которые использовали дипфейки и поддельные удостоверения личности при подаче заявок на кредиты и открытие счетов, они пытались обмануть программы распознавания лиц путём создания дипфейков людей, изображённых на украденных документах.

 

Как отмечают специалисты в США, пока ни один федеральный закон чётко не запрещает дипфейки. Девять штатов приняли законы, криминализирующие «глубокую порнографию без согласия». В марте во Флориде был принят законопроект, ограничивающий использование ИИ в политических кампаниях и обязывающий создателей рекламы извещать зрителей об использовании генеративного ИИ при изготовлении ролика. За нарушение требований вводится уголовная ответственность.

В ЕС дипфейки регулируются Законом об ИИ, который требует от создателей и распространителей материалов раскрывать их искусственное происхождение и предоставлять информацию об используемых методах. Ещё один шаг — инициатива «Техническое соглашение по борьбе с мошенническим использованием ИИ на выборах 2024 года», принятая на Мюнхенской конференции по безопасности. Это попытка противостоять вызовам, создаваемым дипфейками в избирательных процессах на фоне многочисленных кампаний этого года.

Крупные технологические платформы и соцсети уже выразили готовность маркировать контент, созданный ИИ.

В России на правительственном уровне идёт обсуждение вопросов правового регулирования технологии подмены личности (дипфейк) в целях недопущения её использования в противоправных целях. Сегодня в российском законодательстве отсутствуют отдельные категории преступлений, связанные с дипфейками. Правительство России планирует ввести наказание за использование таких технологий в противоправных целях. Предложения по этому вопросу должны проработать и предоставить Минцифры России совместно с МВД РФ и Роскомнадзором до 1 ноября 2024 г.

На итоговой пресс-конференции Level Up with Kaspersky в январе Сергей Голованов, главный эксперт «Лаборатории Касперского», заявил: «Все опасаются прямого эфира, в котором появится злоумышленник». «Это будет проблема, — сказал эксперт, — и ожидается она даже не в 2025 году, а уже в 2024-м».

 

Продолжение — в BIS-комментарии.

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

07.11.2025
Max возьмёт на себя часть нагрузки МФЦ
07.11.2025
Для отечественных «симок» введут персональный «период охлаждения»
07.11.2025
Google прогнозирует рост числа киберфизических атак в Европе
07.11.2025
Идентификация — главный источник риска для облачных сервисов?
07.11.2025
Как отправить нейросеть на пенсию, не разозлив её — рецепт Anthropic
06.11.2025
Ещё немного, и чат-бот? VK неохотно раскрывает подробности своего ИИ
06.11.2025
CISA и NSA озаботились защитой серверов Exchange
06.11.2025
Бот Банка России поможет разобраться с деталями договора
06.11.2025
Шадаев: Новая каспийская ВОЛС ускорит цифровизацию всех стран региона
06.11.2025
ARinteg укрепляет свои позиции на рынке промышленной безопасности России

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных