Нужны иные технологии и подходы к защите, иные компетенции

Риски широкого распространения и использования искусственного интеллекта обсудили участники пленарной сессии «Использование систем искусственного интеллекта: вопросы доверия и информационной безопасности» Дня Кибербезопасности Форума GIS DAYS 2023, который прошел 6 октября в Москве.

«Вы меня сразу забросили на сторону злоумышленников, хотя мы постоянно работаем над тем, чтобы сделать жизнь лучше, — пошутил Николай Нашивочников, замгендиректора — технический директор компании «Газинформсервис», отвечая на вопрос модератора сессии Артёма Калашникова, управляющего директора Центра информационной безопасности дочерних и зависимых обществ (Газпромбанк) о перспективах сражения защитников и нападающих, вооруженных современными технологиями искусственного интеллекта и машинного обучения. — Нельзя забывать, что право первого шага Е2-Е4 — за плохими парнями. Они продвинулись дальше, не ограничены этическими соображениями, у них шире арсенал средств и возможностей больше. Для того, чтобы совершить атаку, им надо немного контекста. Использование OSINT-инструментария даёт им возможность много узнать о компании и сотрудниках, в том числе изучить жертву и, например, провести качественную фишинговую атаку, применяя методы ИИ. Для них открыто использование больших языковых моделей (LLM), в то время как ИБ-специалисты используют традиционные методы и реактивный ИИ.

«Возможностей хакеров должно сильно настораживать сообщество. Необходимо совершенствовать инструментарий. Мы этим вопросом занимаемся лет восемь, есть шансы это противодействие сделать эффективным», — отметил докладчик.

Есть ли отличительные вещи для механизмов защиты с применением систем искусственного интеллекта и без них? Важно понимать, с какими методами машинного обучения мы сталкиваемся, считает Нашивочников.

«Мы как лаборатория начинали этот путь, начиная с реактивного ИИ. Эти методы хорошо работают со структурированными данными, на них хорошо ложатся традиционные методы ИБ и та парадигма, которая с ними работает: конфиденциальность и дата-сеты», — поделился опытом спикер, добавив, что на определённых уровнях возможны утечки, но есть решения и обмен без них.

Говоря о более сложном машинном обучении, в тех случаях, когда важен контекст, в том числе исторический, например, при исследовании аномалии действий пользователей или хоста применяются deep learning и рекуррентные нейросети. «Есть модель, которая на их базе отлично выявляет вымогателей», — сообщил докладчик.

При этом встают иные вопросы защиты, появляется состязательная составляющая, возможны маскировка действий хакера, отравление моделей и другие подходы. В таких случаях нужен опыт специалиста по машинному обучению, традиционный безопасник здесь малоэффективен. «Нужны иные технологии и подходы к защите, иные компетенции», — подытожил Николай Нашивочников.

 

Медиа Группа «Авангард» в рамках GIS DAYS 2023 выступила организатором ключевой дискуссии в Москве.

6 октября, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

05.12.2025
Топ-менеджеров больше всего тревожат дезинформация и киберугрозы
05.12.2025
Россияне стали реже отменять самозапрет на кредиты
05.12.2025
Банк России снимет лимиты на перевод средств за границу
05.12.2025
Минцифры представило третий шатдаун-сет
05.12.2025
В «Госуслуги» только через Max?
04.12.2025
Мнение: РКН пытается изменить пользовательские привычки в пользу доверенных российских сервисов
04.12.2025
Хакеры взломали 120 тысяч камер ради порноконтента
04.12.2025
Roblox, FaceTime… кто завтра?
04.12.2025
А следующий — Snapchat (но не Telegram?)
04.12.2025
«1С-Битрикс» пригласила багхантеров для участия в публичной программе

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных