Согласно исследованию, проведенному Capgemini в 2019 году, почти две трети опрошенных компаний считают, что ИИ поможет выявить критически опасные киберугрозы. В то же время 69% организаций считают, что ИИ будет неотъемлемой частью своевременного реагирования на кибератаки. И если в 2019 году только каждая пятая организация использовала техники, связанные с ИИ, то в 2020 году это были уже почти две трети.

Уже известны как преимущества, так и подводные камни применения техник для анализа, быстрого реагирования и защиты с помощью искусственного интеллекта (ИИ), поэтому сочетание традиционных техник с новомодными является наилучшей практикой.

«Список возможностей ИИ, которые могут укрепить кибербезопасность, длинный. ИИ может анализировать поведение пользователей, выводить закономерности и выявлять различные отклонения от нормы, что позволяет быстро выявлять уязвимые области в сети. ИИ также может позволить компаниям автоматизировать рутинные обязанности по обеспечению безопасности с высоким качеством результатов и сосредоточиться на делах с более высоким уровнем вовлеченности, требующих человеческого суждения. Компании также могут использовать его для быстрого поиска признаков вредоносного ПО», — рассказала специалист группы перспективных технологий отдела исследований по защите приложений Positive Technologies Александра Мурзина во время своего выступления на пресс-конференции «Кибербезопасность 2020-2021: тенденции и прогнозы».

При этом ИИ все чаще применяется не только в сфере ИБ, но и в других отраслях. Техники ИИ, в частности машинного обучения, требуют большого количества данных. Кто-то собирает данные, чтобы улучшать свои продукты, а кто-то — чтобы анализировать пользователей и продавать результаты анализа.

Учитывая нехватку экспертов по безопасности и специалистов по анализу данных и машинному обучению, людей, которые являются экспертами в обеих областях, еще меньше. Заниматься вопросами безопасности становится все труднее только потому, что разработчики либо не знают о возможных рисках, либо стараются прежде всего сначала выпустить продукт, а потом разбираться с проблемами. Поэтому несмотря на достаточно развитое использование ИИ, эта тема до сих пор является именно маркетингово привлекательной для продуктов, которые обеспечивают безопасность.

Такая ситуация приводит к серьезным последствиям. Только в первом квартале 2020 года количество крупномасштабных утечек данных увеличилось на 273%.

«При этом не стоит забывать, что ИИ является программным продуктом, который сам по себе может быть уязвим и несет определенного рода риски», — добавила Александра Мурзина.

Она также напомнила, что осенью 2020 года MITRE совместно с Microsoft выпустили матрицу атак на системы, использующие машинное обучение. В проекте участвовали не только Microsoft, но и еще 16 исследовательских групп. Причем речь идет не просто о потенциальных рисках, а именно о тех, которые были проверены на эффективность. В результате было сформирована таблица в стиле матрицы ATT&CK. В таблице выделены риски, характерные только для сервисов, использующих техники машинного обучения, и общие риски, которые могут напрямую не относиться к машинному обучению, но косвенно влиять на него, так как машинное обучение часто является частью программного продукта.

«С одной стороны, небольшое количество общеизвестных инцидентов, связанных с безопасностью ИИ, не перерастает в злободневную проблему кибербезопасности, на которую стоит бросать все ресурсы, с другой стороны, уже есть прецеденты у крупных компаний (Google, Amazon, Tesla), которые заставляют академическое сообщество и индустрию задуматься и активно изучать данный вопрос. Видится тенденция к осознанию проблем безопасности ИИ, выработке подходов и, соответственно, применению их на практике», — сказала эксперт.

Отвечая на вопрос, как обезопасить использование ИИ на практике, Александра Мурзина предложила обеспечивать безопасности того, куда встроены такого рода сервисы.

«На данный момент производить атаки на искусственный интеллект — это сложно, дорого и чаще всего можно найти уязвимости как раз где-то сбоку. Совет, который дает Goggle: если можно не использовать ИИ, не используйте. Я же советую читать новости технические, академические статьи и, соответственно, защищать, улучшать свои решения, обращаться за пентестом, если нет своих компетенций», — заключила она.

31 января, 2021

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.06.2025
Всё связать до 1 июля: «симку», биометрию, «Госуслуги»
30.06.2025
Нейросетям поставили задачу усовершенствовать бюджетный процесс
30.06.2025
Draugnet послужит демократизации отчётности по киберугрозам
30.06.2025
Россиян превращают в дропперов особо изощрённым способом
30.06.2025
Банк России сдал нулевой срез по цифровому рублю
30.06.2025
Половина безопасников хочет приостановить развёртывание GenAI
27.06.2025
«Корыстные цели и низкий уровень правовой культуры». Телеком-лицензии — только в чистые руки
27.06.2025
США опасаются усиления иранских кибератак после авиаударов
27.06.2025
«Можно было бы просто запретить импорт отдельных сегментов». «Аквариус» — о вечном
27.06.2025
ИИ позволяет бороться с телефонными мошенниками, сохраняя тайну связи

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных