Согласно исследованию, проведенному Capgemini в 2019 году, почти две трети опрошенных компаний считают, что ИИ поможет выявить критически опасные киберугрозы. В то же время 69% организаций считают, что ИИ будет неотъемлемой частью своевременного реагирования на кибератаки. И если в 2019 году только каждая пятая организация использовала техники, связанные с ИИ, то в 2020 году это были уже почти две трети.

Уже известны как преимущества, так и подводные камни применения техник для анализа, быстрого реагирования и защиты с помощью искусственного интеллекта (ИИ), поэтому сочетание традиционных техник с новомодными является наилучшей практикой.

«Список возможностей ИИ, которые могут укрепить кибербезопасность, длинный. ИИ может анализировать поведение пользователей, выводить закономерности и выявлять различные отклонения от нормы, что позволяет быстро выявлять уязвимые области в сети. ИИ также может позволить компаниям автоматизировать рутинные обязанности по обеспечению безопасности с высоким качеством результатов и сосредоточиться на делах с более высоким уровнем вовлеченности, требующих человеческого суждения. Компании также могут использовать его для быстрого поиска признаков вредоносного ПО», — рассказала специалист группы перспективных технологий отдела исследований по защите приложений Positive Technologies Александра Мурзина во время своего выступления на пресс-конференции «Кибербезопасность 2020-2021: тенденции и прогнозы».

При этом ИИ все чаще применяется не только в сфере ИБ, но и в других отраслях. Техники ИИ, в частности машинного обучения, требуют большого количества данных. Кто-то собирает данные, чтобы улучшать свои продукты, а кто-то — чтобы анализировать пользователей и продавать результаты анализа.

Учитывая нехватку экспертов по безопасности и специалистов по анализу данных и машинному обучению, людей, которые являются экспертами в обеих областях, еще меньше. Заниматься вопросами безопасности становится все труднее только потому, что разработчики либо не знают о возможных рисках, либо стараются прежде всего сначала выпустить продукт, а потом разбираться с проблемами. Поэтому несмотря на достаточно развитое использование ИИ, эта тема до сих пор является именно маркетингово привлекательной для продуктов, которые обеспечивают безопасность.

Такая ситуация приводит к серьезным последствиям. Только в первом квартале 2020 года количество крупномасштабных утечек данных увеличилось на 273%.

«При этом не стоит забывать, что ИИ является программным продуктом, который сам по себе может быть уязвим и несет определенного рода риски», — добавила Александра Мурзина.

Она также напомнила, что осенью 2020 года MITRE совместно с Microsoft выпустили матрицу атак на системы, использующие машинное обучение. В проекте участвовали не только Microsoft, но и еще 16 исследовательских групп. Причем речь идет не просто о потенциальных рисках, а именно о тех, которые были проверены на эффективность. В результате было сформирована таблица в стиле матрицы ATT&CK. В таблице выделены риски, характерные только для сервисов, использующих техники машинного обучения, и общие риски, которые могут напрямую не относиться к машинному обучению, но косвенно влиять на него, так как машинное обучение часто является частью программного продукта.

«С одной стороны, небольшое количество общеизвестных инцидентов, связанных с безопасностью ИИ, не перерастает в злободневную проблему кибербезопасности, на которую стоит бросать все ресурсы, с другой стороны, уже есть прецеденты у крупных компаний (Google, Amazon, Tesla), которые заставляют академическое сообщество и индустрию задуматься и активно изучать данный вопрос. Видится тенденция к осознанию проблем безопасности ИИ, выработке подходов и, соответственно, применению их на практике», — сказала эксперт.

Отвечая на вопрос, как обезопасить использование ИИ на практике, Александра Мурзина предложила обеспечивать безопасности того, куда встроены такого рода сервисы.

«На данный момент производить атаки на искусственный интеллект — это сложно, дорого и чаще всего можно найти уязвимости как раз где-то сбоку. Совет, который дает Goggle: если можно не использовать ИИ, не используйте. Я же советую читать новости технические, академические статьи и, соответственно, защищать, улучшать свои решения, обращаться за пентестом, если нет своих компетенций», — заключила она.

31 января, 2021

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

20.02.2026
ИИ сегодня — это ненадёжный лазерный дальномер. Что?
20.02.2026
Дилемма МФО: смена статуса или идентификация силами партнёров
20.02.2026
«Абонента нужно допустить в сеть, а потом разбираться, что у него с историей поведения»
20.02.2026
Роскомнадзор vs. Telegram. Партия продолжается
20.02.2026
Посредникам на крипторынке не потребуется банковская лицензия (?)
19.02.2026
Телеком покроет ущерб по заведомо мошенническим звонкам
19.02.2026
Европарламент закрывает депутатские гаджеты от ИИ
19.02.2026
Набиуллина: Предупреждения для клиентов — это важно
19.02.2026
«Цифровая свобода является приоритетом для Госдепартамента»
18.02.2026
Интернет-рубильник всё ближе к реальности

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных