Поскольку дипфейки становятся неотличимыми от реальности, а вероятность неправомерного использования синтетического контента практически бесконечна, что вы можете сделать, чтобы не стать жертвой дипфейков?

Дипфейк, в котором любимый человек говорит, что его похитили, рисует мрачную картину того, что будущие дипфейки — специально созданные видео из реальных данных — призваны принести следующим в технологии. После того, как машинное обучение поглощает огромное количество изображений, которые создаются каждый день в стиле селфи в Instagram, и звуковых дорожек с вебинаров, презентаций конференций или комментариев к видео из отпуска с YouTube, оно может нарисовать очень четкое изображение, видео и голос практически любого человека, но со специально созданным фальшивым сообщением, имитирующим то, что у человека серьезные проблемы.

 

Технологии не должны этого делать — они должны помогать

Начиная с фальшивых телефонных звонков, синтезированных обработкой аудиозаписей вашего босса, в котором вас просят перевести большие суммы денег, следующее поколение дипфейков обещает голоса слишком четкие и убедительные, чтобы их можно было оспаривать.

Загрузите достаточно данных в систему машинного обучения, и этот голос станет пугающе близким к реальности, что было засвидетельствовано в 2019 году во время дерзкой аудио-атаки в реальном времени на британскую энергетическую компанию, обманувшую ее на 243 тысячи долларов США.

Профессор-исследователь по кибербезопасности в Институте моделирования и обучения Университета Центральной Флориды доктор Мэтью Кэнхэм, выступая на эту тему на Black Hat USA 2021, заявил, что с момента начала изоляций из-за COVID-19 количество атак ботов с электронными подарочными картами увеличилось на 820%, при этом атаки были выданы за звонки от босса, просившего работников заказать карты. Все начиналось с обычного общего вопроса «Вы заняты?», а когда жертва отвечала, злоумышленник переводил обсуждение на другой канал связи, например, электронную почту, чтобы быть подальше от автоматизированного бота.

Пример подарочных карт, текстовых сообщений и сообщений электронной почты представляет собой базовую атаку социальной инженерии; при использовании технологии дипфейка, позволяющей злоумышленнику подделывать видео и аудио, чтобы выдать себя за босса или коллегу, запрос на действие может вызвать более серьезную проблему. Перспектива фишинг-атаки в форме видеобеседы с кем-то, кого вы считаете реальным человеком, становится очень реальной. То же самое и с дипфейком видео предположительно похищенного любимого человека.

Доктор Кэнхэм также указал, что технология дипфейка может использоваться для обвинения людей в том, чего они никогда не делали. Видео, показывающее, как кто-то ведет себя ненадлежащим образом, может иметь последствия для человека, несмотря на то, что оно было сфальсифицировано. Представьте себе сценарий, в котором коллега выдвигает обвинение и подкрепляет его видео или голосовыми доказательствами, которые кажутся убедительными. Может быть трудно доказать, что это неправда.

Это может показаться недоступным для обычного человека, и сегодня это может быть сложно создать. В 2019 году журналист Тимоти Б. Ли для Ars Technica потратил 552 доллара на создание разумного глубокого фейкового видео из видеозаписи Марка Цукерберга, свидетельствующего перед Конгрессом, заменив его лицо лицом лейтенанта-коммандера Дейта из Star Trek: The Next Generation.

 

Доверять собственным глазам и ушам?

Доктор Кэнхэм предложил несколько очень полезных упреждающих шагов, которые мы все можем предпринять, чтобы избежать такого мошенничества:

1) Создайте общее секретное слово с людьми, которым вы, возможно, должны доверять: например, начальник, который может инструктировать сотрудников о переводе денег, может иметь устное слово, известное только ему и финансовому отделу. То же самое для тех, кто находится под угрозой похищения... слово или фраза (в доказательство жизни), которые сигнализируют о том, что видео настоящие.

2) Согласуйте с сотрудниками действия, которые вы никогда не попросите их сделать. Если заказ подарочных карт — это действие, которое нельзя делать никогда, убедитесь, что все об этом знают, и любой такой запрос является мошенничеством.

3) Используйте каналы многофакторной аутентификации для проверки любого запроса. Если общение начинается с текста, подтвердите это, связавшись с человеком, используя номер или адрес электронной почты, который, как вы знаете, у него есть, а не запрашиваемый при первом контакте.

Технология, используемая для создания вредоносных дипфейк видео или аудио, представляет собой возможность, которую киберпреступники вряд ли упустят, и, как видно на примере британской энергетической компании, она может быть очень выгодной с финансовой точки зрения. Предложенные выше упреждающие действия являются отправной точкой. Как и в случае с любой другой кибербезопасностью, важно, чтобы мы все оставались бдительными и начинали с элемента недоверия при получении инструкций, пока мы их не подтвердим.

 

Оригинал материала

17 августа, 2021

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

28.03.2024
Аитов: Ограничения Samsung Pay на использование карт «Мир» можно обойти
28.03.2024
Киберпреступления — 35% всех преступлений в России
28.03.2024
Почему путешествовать «налегке» не всегда хорошо
28.03.2024
«Тинькофф»: Несколько платёжных систем лучше, чем одна
28.03.2024
В РФ готовят базу для «усиленной блокировки» незаконного контента
28.03.2024
Термин «риск ИБ» некорректен по своей сути
27.03.2024
Samsung Pay перестанет дружить с «мировыми» картами
27.03.2024
Канадский университет восстанавливает работу после ИБ-инцидента
27.03.2024
Crypto Summit 2024. Трейдинг, майнинг и перспективы развития рынка ЦФА
27.03.2024
РКН начал работу по контролю за «симками» иностранцев

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных