Искусственный интеллект прошёл тест Тьюринга: что это означает для кибербезопасности

В июне 2014 года, впервые в истории программа с алгоритмами искусственного интеллекта (ИИ) прошла знаменитый тест Тьюринга. Что означает это событие для области информационной безопасности? Стоит ли нам ожидать появления новых интеллектуальных антивирусов и других средств информационной безопасности, намного превосходящих современные  по своей эффективности?

Немного истории

Тест на ИИ был предложен известным британским математиком Аланом Тьюрингом в 1950 году. Тест Тьюринга успешно проходит та машина, которую невозможно отличить от человека в ходе переписки (например, через чат или электронную почту). Критерий теста очень прост – если человек (судья теста) принимает машину за человека, то можно сделать вывод о том, что машина имеет интеллект. Минимальный порог для прохождения теста – 30% введенных в заблуждение судей.

В ходе последнего испытания, проведенного в Блетчли-Парке (пригороде Лондона), тест Тьюринга был пройден впервые в истории. Тест прошла программа-бот, разработанная международной командой исследователей под руководством Владимира Веселова из США. Бот успешно выдает себя за 13-летнего одесского подростка Евгения Густмана.  

Пройден ли рубеж?

Что означает впервые пройденный тест Тьюринга для области информационной безопасности? Появится ли уже в ближайшие годы совершенно новый класс интеллектуальных продуктов, защищающих компьютерные сети? Или наоборот, станет невозможно бороться с «умными» угрозами? Заменят ли роботы вирусных аналитиков и специалистов по информационной безопасности? На все эти вопросы ответил технический  эксперт антивирусной компании  eScan Александр Русецкий.

Действительно, технологии искусственного интеллекта уже сейчас с успехом применяются во многих областях информационной безопасности, – отмечает Александр Русецкий. – Например, существуют экспертные системы с элементами ИИ, позволяющие обрабатывать огромные потоки данных о состоянии информационных систем и выносить корректные вердикты о наличии вредоносного ПО. При этом такие экспертные системы, благодаря технологиям нечеткой логики, руководствуются не только уже заложенными в них наборами правил и базами знаний, но также способны сами их вырабатывать и менять. Это сегодня особо важно, поскольку компьютерные угрозы постоянно мутируют и алгоритмы их обнаружения неизбежно и с очень высокой скоростью устаревают. В то же время выполнять весь объем работ по детектированию и анализу угроз силами лишь людей-специалистов в настоящее время уже невозможно – слишком уж велик объем информации, нуждающейся в обработке и анализе.

Существуют также интеллектуальные системы предотвращения вторжений, поиска уязвимостей, поиска аномалий и т.д. – и они отличаются высокой гибкостью, способностью к адаптации и умением менять свое поведение. Для обнаружения аномалий на низких и средних уровнях, помимо нечеткой логики могут использоваться модели Маркова, генетические алгоритмы, искусственные нейронные сети и другие методы машинного обучения.

Интересна для информационной безопасности и тема естественных языков. Ведь атаки киберпреступников бывают не только низкоуровневыми. К примеру, весьма пригодились бы (но ещё не распространены) системы, которые могут автоматически отличать мошеннические, спамерские и инсайдерские письма, умея хорошо понимать их содержание, а не только путем поиска в них подозрительных слов и фраз.

Не стоит забывать о том, что технологии искусственного интеллекта могут использоваться не только в благих целях, но и киберпреступниками. Так, как для специалистов по информационной безопасности, так и для хакеров огромный интерес представляют «умные» системы обнаружения уязвимостей.  Развивающиеся технологии распознавания могут сделать неэффективным тест CAPTCHA, часто использующийся для того, чтобы отличать людей от программ-ботов при авторизации на сайтах – и это тоже плюс для киберпреступников.

Как подчеркивает эксперт eScan Александр Русецкий, в ближайшие годы, и, вероятно, даже десятилетия, ИИ не сможет полностью заменить специалистов по информационной безопасности. Наиболее эффективными останутся гибридные системы, задействующие как методы искусственного интеллекта, так и грамотных людей-экспертов. Машина пока не может заменить человека. Все указанные разработки в области информационной безопасности выполняют лишь узкоспециализированные задачи, но защита компьютерных систем – это комплексная многосторонняя задача, охватывающая очень многие сферы, начиная от самых низкоуровневых и заканчивая передачей информации на естественном языке. Так называемый «сильный  ИИ», способный решать самые разные и разнонаправленные задачи – как это делает человек – до сих пор не создан. И когда он будет создан – весьма спорный вопрос, не имеющий четкого ответа.

Что же касается прошедшего тест бота по имени Евгений, то рубежом это событие можно назвать лишь условно. Это ни в коем случае не «сильный ИИ», а лишь чат-бот, умеющий более-менее правдоподобно «болтать» на уровне кругозора и образования 13-летнего подростка.

16 июля, 2014

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

04.07.2025
Конгрессмен рассказал агентам ФБР про кибербез (не наоборот)
04.07.2025
«Это ускорит развитие национальной платёжной инфраструктуры»
04.07.2025
«Пар»? «Ростелеком» строит свой Steam
04.07.2025
«Не будет никакой остановки». Европейский AI Act — на марше
04.07.2025
В России всё же создадут базу биометрии мошенников
03.07.2025
В Госдуме продолжают намекать на преимущества импортозамещения
03.07.2025
Котята отрастили щупальца. Kraken целится в Apple издалека?
03.07.2025
DLBI: До конца года стилеры могут парализовать поиск «удалёнки» в РФ
03.07.2025
Международный уголовный суд подвергается атакам хакеров
03.07.2025
17% компаний выбирает ноутбуки с предустановленными отечественными ОС

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных