
Если говорить про ИИ как инструмент для атак, то стоит выделить активно развивающуюся область deepfake — техники подмены лиц на фото или видео или имитации голоса. Deepfake уже сейчас можно рассматривать как отдельную специфическую угрозу социальных инженеров. Такого мнения придерживается специалист группы перспективных технологий отдела исследований по защите приложений Positive Technologies Александра Мурзина.
«Да, стоит считать как угрозу [deepfake — ред.], стоит обращаться на это внимание, стоит обращать внимание на методики deepfake и активно их изучать. Это очень интересная область, которая явно будет развиваться», — сказала она в своем выступлении на пресс-конференции «Кибербезопасность 2020-2021: тенденции и прогнозы».
По словам эксперта, в данный момент реалистичная подмена не является сложной задачей. В интернете много примеров и обученных моделей машинного обучения, а в магазинах приложений много программ, которые позволяют простому пользователю заменять лица и делают это очень реалистично.
«Раньше просто писали от чьего-то лица, а сейчас, если появляются целые видео, где авторитетный для тебя человек что-то рекламирует, представляет, скорее всего злоумышленникам получиться заработать и на этом. Так, в 2019 году такие техники помогли злоумышленникам украсть 220 000 €. А уже в начале 2021 года злоумышленники просто смогли заработать, разместив фейковое объявление и пригласив пользователей от лица основателя компании Dbrain и популяризатора нейронаук Дмитрия Мацкевича на блокчейн-платформу», — рассказала Александра Мурзина.
При этом она уверена, что в социальных сетях в скором времени появится некое подобие фильтра, способного детектировать deepfake.