Шаги в будущее. Применение технологий ИИ и МО для решения задач в области кибербезопасности

BIS Journal №3(58)2025

24 сентября, 2025

Шаги в будущее. Применение технологий ИИ и МО для решения задач в области кибербезопасности

Применение технологий искусственного интеллекта (ИИ) и машинного обучения (МО) в информационной безопасности (ИБ) резко возросло в последние годы, хотя их практическое использование началось значительно раньше.

Так, ещё в 1980–1990-х началась разработка методов обнаружения угроз с использованием МО. Первые системы, такие как выпущенная в 1998 году Snort, применяли сигнатурный анализ по заданным правилам и статистические методы для выявления аномалий в поведении пользователей и сетевых узлов. С 2000-х алгоритмы машинного обучения, обрабатывая растущие объёмы данных, совершенствовали анализ трафика и обнаружение аномалий. К концу десятилетия методы контролируемого обучения повысили точность детектирования угроз, а неконтролируемого — позволили выявлять новые атаки через аномальные паттерны.

Развитие методов глубокого обучения и обработки естественного языка (NLP) было новым прорывом в 2010-х, позволив эффективно обрабатывать большие объёмы данных (БОД) и находя сложные взаимосвязи. Обработка естественного языка повысила возможности анализа текстовых данных, включая развитие способов выявления атак методами социальной инженерии. Последний виток развития методов привнесли алгоритмы генеративного ИИ, способного создавать новый контент на основе имеющихся данных, открывая дополнительные возможности для совершенствования моделей обнаружения угроз.

 

КЛЮЧЕВЫЕ НАПРАВЛЕНИЯ

Сейчас системы на основе ИИ и МО активно внедряются для борьбы с развивающимися угрозами, позволяя анализировать БОД, находить аномалии и даже прогнозировать кибератаки. Рассмотрим ключевые направления их применения.

  1. Обнаружение вредоносного ПО: алгоритмы МО производят анализ файлов и сетевого трафика, классификацию на основе поведения. Модели обучаются на БОД с уже известными образцами. Существуют методы статического анализа — изучение кода и структуры файлов и динамический анализ — мониторинг поведения в реальном времени (например, LSTM для системных вызовов). Применяется в EDR/XDR-решениях.
  2. Выявление аномалий и предотвращение атак: методы выявления аномалий и предотвращения атак анализируют сетевой трафик, логи и поведение пользователей, обнаруживая подозрительную активность. Модели обучаются на исторических данных для распознавания шаблонов атак. Технологии включают графовые нейросети (GNN) для анализа связей в сети, автоэнкодеры для выявления отклонений в поведении и алгоритмы Isolation Forest для обнаружения редких аномалий. Эти подходы активно применяются в системах UEBA и XDR.
  3. Борьба с фишингом и спамом: алгоритмы МО анализируют содержимое писем, URL-адреса и даже голосовые сообщения, выявляя фишинговые атаки и спам. Для распознавания поддельных логотипов и скриншотов применяются технологии компьютерного зрения, методы обработки естественного языка позволяют эффективно проводить семантический анализ текста писем. Подобные методы внедрены во многих почтовых сервисах.
  4. Прогностическая аналитика угроз: ИИ анализирует БОД, OSINT, телеметрию и соцсети, выявляя тренды атак. Автоматизированная обработка данных с помощью МО обеспечивает проактивную защиту. Для прогнозирования используются LSTM-сети и NLP-методы для анализа открытых источников и darknet. Реализуется в Threat Intelligence и XDR-платформах.
  5. Автоматизация реагирования на инциденты: алгоритмы ИИ ускоряют обработку инцидентов, позволяя автоматизировать их классификацию и первичную обработку, предлагая оптимальные меры по реагированию. Для автоматической классификации инцидентов, в частности, применяются методы обработки естественного языка, в то же время методы глубинного обучения с подкреплением позволяют автоматизировать обработку инцидентов и реагирование. Развитие этих подходов активно ведётся в SOAR-решениях.

 

НОВЫЕ ВОЗМОЖНОСТИ

На первый взгляд может казаться, что ИИ и МО лишь автоматизируют привычные методы —анализ аномалий или поведенческую аналитику. Однако на деле они кардинально меняют подход к защите данных, предлагая принципиально новые возможности:

  • Эффективное обнаружение новых угроз: традиционные методы (сигнатурный анализ, правила на основе IoC) малоэффективны против сложных атак, таких как APT или новые виды ransomware. В свою очередь, модели ИИ/МО позволяют выявлять многоэтапные атаки, прогнозировать угрозы, анализируя поведение и аномалии, обучаясь на исторических данных и выявляя скрытые паттерны.
  • Глубина и масштабируемость анализа: модели ИИ позволяют обрабатывать БОД в реальном времени, автоматически адаптироваться к новым угрозам за счёт динамического обучения, анализировать контекст, строя связи между процессами, пользователями и устройствами (например, с применением графовых нейросетей GNN). В данном случае традиционные методы, опираясь на заранее заданные правила и шаблоны, менее эффективны и дают высокий уровень ложных срабатываний.
  • Автоматизация и скорость реагирования: большой объём ручной работы аналитиков — узкое место традиционных систем. Алгоритмы ИИ/МО позволяют снизить нагрузку на специалистов, решая рутинные задачи, позволяют реализовать эффективное реагирование, обеспечивая действия в масштабе времени, близком к реальному, тогда как человеку требуются минуты или часы.

Таким образом, решения на базе ИИ и МО — не просто «улучшенная версия» старых методов, а новый этап развития решений кибербезопасности.

 

КЛАССИКА ТОЖЕ В ПОЧЁТЕ

ИИ и МО расширяют возможности кибербезопасности, но классические методы защиты остаются актуальными:

  • Против известных угроз: сигнатурный анализ и чёрные списки IP/DNS эффективны и экономичны.
  • В регуляторных системах: требуются прозрачные методы, тогда как ИИ-решения могут быть «чёрным ящиком».
  • В устаревших/изолированных системах: внедрение ИИ может нарушить работу из-за высокой нагрузки.

 

ВЫЗОВЫ И ОГРАНИЧЕНИЯ

Выбор между традиционными методами и ИИ/МО-решениями зависит от конкретных задач, ресурсов и уровня угроз. На практике наиболее эффективны комбинированные системы, где ИИ дополняет, а не заменяет традиционные методы — гибридный подход применяется в отдельных классах решений, например, EDR/XDR-платформах, TI. В то же время внедрение ИИ в системы безопасности, несмотря на все преимущества, сопряжено с рядом вызовов и ограничений.

  1. Технические ограничения: эффективность МО-моделей зависит от качества обучающих данных — узкие выборки приводят к «слепым зонам» для IoT и промышленных систем. Чрезмерная чувствительность вызывает ложные срабатывания на легитимные процессы, тогда как сложные атаки, маскирующиеся под нормальную активность, часто остаются незамеченными. Эти проблемы требуют постоянного совершенствования данных и алгоритмов анализа.
  2. Ресурсные ограничения: обучение сложных моделей (например, глубоких нейросетей) требует значительных вычислительных мощностей. Кроме того, отдельные ИИ-решения плохо совместимы с устаревшей инфраструктурой, внедрение может требовать модернизации.
  3. Уязвимости самих ИИ/МО-моделей: модели подвержены атакам, связанным со злонамеренным манипулированием входными данными (Adversarial Attacks). Это особенно опасно в системах компьютерного зрения и анализа поведения. Кроме того, при использовании облачных ИИ-сервисов возникает угроза компрометации конфиденциальной информации, передаваемой для анализа.
  4. Организационные риски: ошибки в работе ИИ-систем, например блокировка легитимных процессов или транзакций, могут приводить к нарушению производственных процессов, финансовому репутационному ущербу.

Но, несмотря на связанные риски и ограничения, ИИ и МО продолжают трансформировать подходы к обеспечению безопасности, предлагая инновационные методы борьбы с угрозами. ИИ и МО становятся неотъемлемой частью продуктов для обеспечения кибербезопасности, повышая точность и скорость обнаружения угроз, прогнозирования и автоматизации процессов. В ближайшем будущем ожидается появление автономных систем защиты, предиктивной аналитики угроз и когнитивных систем, способных анализировать контекст. Однако их успешное внедрение потребует решения проблем прозрачности моделей, устойчивости к adversarial-атакам и баланса автоматизации с человеческим контролем.

 

Реклама. АО «АМТ-ГРУП», ИНН: 7703025499, Erid: 2VfnxyV7nM

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

25.09.2025
«Крипта» вытесняет алмазы в вопросе незаметного перемещения капитала
25.09.2025
В тройку лидеров вошли два чат-бота и их маленький помощник
25.09.2025
Хакеры вооружились ИИ для генерации поддельных CAPTCHA
25.09.2025
RedNovember атакует оборонные структуры и аэрокосмические агентства по всему миру
25.09.2025
Переводы свыше 30 тысяч рублей — только по звонку
25.09.2025
Scoring Day 2025: бизнес готовит фундамент для «космического» ИИ
25.09.2025
На российском рынке появился новый межсетевой экран Ideco NGFW Novum
24.09.2025
Увлечение ИИ обернулось для компаний отравлением данных
24.09.2025
«При ошибках в реализации или слабой защите данных доверие населения окажется подорванным»
24.09.2025
У Казахстана появился свой стейблкоин

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных