В ходе эфира программы «ИБшник на удалёнке» компании Positive Technologies эксперты обсудили искусственный интеллект (ИИ) и его применение в информационной безопасности (ИБ).

Специалист Positive Technologies по машинному обучению Александра Мурзина, руководитель машинного отделения Центра Финансовых Технологий Иван Комаров и основатель компании Deteact, специалист по безопасности приложений и тестированию на проникновение Омар Ганиев сошлись на том, что на данный момент настоящего ИИ не существует, есть только некоторые статистические методы для решения конкретных задач.

«ИИ часто представляется волшебством и это неправильное представление. В основном это из-за того, что много журналистских публикаций и хайпа вокруг этой темы. По большому счёту можно кратко выделить две больших новости, связанных с ИИ. Первая новость — то, что традиционные алгоритмы статистической обработки данных вышли на новый виток благодаря бустингу и нейронным сетям, новым подходам к анализу временных рядом. Вторая большая часть того, что мы наблюдаем, что появилась автоматическая обработка изображений и автоматическая обработка языка. Что касается ИБ, антифрод — это первое или второе применение ИИ», — заявил в начале беседы Иван Комаров.

Его точку зрения поддержали другие эксперты, отметив, что «на текущий момент ИИ не существует, существуют некоторые статистические методы для решения конкретных задач». Александра Мурзина также добавила, что в маркетинговых статьях не пишут, что они используют технологию ИИ. По её словам, в технической среде термин «ИИ» не применяется. Скорее говорится о статистике — это машинное обучение, deep learning, нейросети либо какие-то более простые традиционные методы.

Вместе с тем какие-то части ИИ уже давно применяются в ИТ и ИБ. Например, машинное обучение в WAF и антивирусных системах — везде, где есть большой объём информации, который нужно быстро проанализировать и сделать какой-то вывод. «Машинное обучение — это не волшебная палочка. Но хорошо сформулированные задачи, для которых есть хорошие данные, машинное обучение решает. И это очень здорово. И мне с технической стороны это не видится как маркетинговая уловка, такие решения действительно существуют довольно давно и они неплохо работают»,  — отметила Александра Мурзина.

Ещё один кейс, который уже доступен машине — сравнение человека с документом, понимание живой это человек или нет. Конечно есть вероятность ошибки, поэтому не стоит полностью полагаться на машину и не в критических ситуация, но это позволяет автоматизировать многие бизнес-процессы. «Мы помимо computer vision много усилий тратим на обработку данных. Это проблема, которая существует у любой организации, которая работает с клиентами. У нас клиентов очень много и к сожалению, не не везде наши системы стоят. Поэтому качество информации поступает самое разное, я говорю о денежных переводах. А информация — это требования по идентификации, то есть мы должны понимать, что фамилия имя отчество - это действительно фамилия имя отчество, а не другое поле или какая-то информация, которая введена неверно. И когда миллионы таких транзакций идут, конечно, здесь уже человек не может справиться. Поэтому мы машиной фильтруем подозрительные кейсы и потом помогаем уже людям принять решение», — рассказал Иван Комаров.

Однако Омар Ганиев выразил опасение, что остаётся главный риск — нужный алгоритм обучат на плохих данных или обучат неправильно и он будет принимать решения, которые нельзя интерпретировать. По его словам, «это особенно критично не в ИБ, а в медицине, когда скажут, что диагноз такой-то и нужно лечить такими-то лекарствами, но непонятно почему, и сложно полагаться на это решение».

Также остаётся открытым вопрос про саму безопасность ИИ. Согласно многим исследованиям, стоит заботиться не только о самих моделях, но и о библиотеках инфраструктуры, в которую они встроены. «Сейчас очень актуальным является то, что у нас очень много данных и все хотят с ними работать, а владельцы данных не очень хотят ими делиться, но тоже бы хотели обучать какие-то модели. Например, банки могли бы делиться информацией и создавать одну антифродовую модель, но не очень хочется. Поэтому такие темы как federated learning (обучение у себя и объединение результатов у других), такие темы как в целом распределённое обучение, тема privacy-preserving machine learning. Это про то, что обучить-то на данных можно и у себя, но когда модель внедряется в продакшн, это тоже в некотором смысле ставит под угрозу безопасность данных, на которых было обучение. И все эти тенденции сейчас актуальны», — заключила Александра Мурзина.

Из эфира программы «ИБшник на удалёнке»
6 апреля, 2020

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

17.01.2025
Шейкин: Минцифры регулярно проверяет программы в реестре
16.01.2025
Импортозамещение бьёт по крыльям?
16.01.2025
«Такие угрозы в прошедшем году были одними из самых распространённых»
16.01.2025
Утечки ПДн по РКН: число кейсов сокращается, число записей — растёт
16.01.2025
Тихоокеанская триада против похитителей «крипты» из КНДР
16.01.2025
Система быстрых платежей расширяет географию. Но есть нюанс
16.01.2025
Управляй киберрисками, защищая DNS. Компания Servicepipe обновила продукт Secure DNS Hosting
15.01.2025
Минцифры, вендоры и эксперты обсуждают будущее отечественного «опенсорса»
15.01.2025
От «Яндекса» до Rutube. Кто упал из-за январского нарушения связности
15.01.2025
Ни одного пенни вымогателям! Британия ищет способы демотивировать хакеров

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных