Первые попытки обманывать россиян с помощью дипфейков были отмечены ещё в конце 2022 года, сообщили в RTM Group. Тогда мошенники делали рассылки вредоносного кода и фишинговых сообщений, сгенерированных посредством ChatGPT. В 2023 году в открытый доступ попали алгоритмы, способные осуществлять подмену голоса практически в реальном времени — сервисами на их основе стали активно пользоваться злоумышленники.
Более 70% выявленных атак с помощью дипфейков направлены на физлиц с целью кражи денег, отмечается в исследовании компании. Около 20% атак были направлены на работников коммерческих организаций с целью кражи конфиденциальных данных, 10% — против сотрудников госорганов. Целью атакующих были внутренняя информация и средства организации. Также известны сценарии визуальных дипфейков, при котором образы знаменитостей используют в поддельных видео для продвижения «финансово выгодных инвестиционных проектов».
Об использовании новых технологий говорят и представители финансового сектора. Чаще всего банки сталкиваются с обманом клиентов при помощи методов социальной инженерии с применением дипфейков. В таком случае при звонке или видеозвонке пользователь слышит смоделированный голос собеседника или видит сгенерированное нейросетью изображение. В кредитных учреждениях уверены, что защищать клиентов от обмана с использованием новой технологии можно всё теми же методами, что и с предшествующими схемами, например, отслеживая нетипичное для пользователя поведение. Подозрительные транзакции также отслеживаются с помощью антифрод-системы банков и средств выявления дипфейков в системах проверки биометрии.
По мнению экспертов, в дальнейшем вектор атак с помощью дипфейков будет только развиваться. Важный элемент их сдерживания — повышение финансовой грамотности клиентов о наиболее популярных схемах мошенничества, включая схемы с использованием ИИ.