28 сентября, 2021

BIS Summit 2021 — об искусственном интеллекте

Особый интерес к работе секции по искусственному интеллекту (ИИ) на BISS 2021 был обусловлен предшествующим обсуждением этой темы на недавнем банковском форуме в Сочи. Напомним, что по мнению организаторов обсуждения ИИ на черноморских берегах «технология» ИИ уже созрела для того, чтобы поднять вопрос о её правосубъектности.

Однако если в сочинской дискуссии участие приняли юристы и представители высокоуровневого потребления продуктов жизнедеятельности ИИ, то на конференции BISS 2021 искусственный интеллект представляли эксперты, не понаслышке знакомые ещё и с анатомией и физиологией систем ИИ, что позволяло надеяться на знакомство под несколько иным углом зрения с уже достаточно долгоиграющим ИТ-хайпом.

Основания для подобного предположения давало и сравнение формулировок мероприятий:

  • Круглый стол «Человек и искусственный интеллект: единство и борьба противоположностей» на банковском форуме
  • и секция «Искусственный интеллект для ИБ и ИБ для искусственного интеллекта» на BISS 2021.

Если на сочинском форуме состоялся в определённом смысле «спектакль» на тему ИИ, на котором эксперты выступили в качестве актёров, выступающих с монологами, вступающих в диалоги и подающих реплики при внимающем зале,
то на BISS 2021 состоялся интерактивный коллоквиум, проведённый несколькими преподавателями. Или, точнее, проведённый Андреем Арефьевым, представляющим хозяев мероприятия, пригласивших умело подобранную группу экспертов, позволившую ознакомиться с представлениями об ИИ, с достоинствами этого набора технологий и с подводными камнями, которые надо учитывать при практической реализации технологий ИИ.

  • Один из докладчиков, директор по ИБ, представлял «экспертизу» крупной международной компании, бренд которой не нуждается в представлениях;
  • был также приглашён CEO российской компании, агрессивно развивающей свой бизнес в сфере предоставления услуг киберзащиты, компании, чьи рабочие средства «интегрированы в московскую инфраструктуру» и обладающую сколковским резиденством;
  • выступил на секции и «датасайентист», работающий в крупной промышленной компании;
  • а представитель вендора, разработчика DLP-систем, рассказал об использовании ИИ для ускорения процессов настройки автоматических средств защиты информации.
  • «Ибэшник» из Accenture представил детальный доклад с классификацией угроз информационной безопасности, которым подвержен ИИ. Среди этих угроз – сомнительное качество данных, используемых для обучения ИИ; кражи данных и алгоритмов обучения ИИ для последующего использования этой информации для компрометации системы; уязвимости, связанных с субъективностью алгоритмов и т.д. Информация об угрозах сопровождалась и примерами удачных атак (на голосовых помощников, системы распознавания изображений, …);
  • атак, в которых на практике были реализованы те угрозы, предпосылки к которым анализировались докладчиком буквально минутой ранее.

В целом упомянутый доклад Андрея Тимошенко мог бы стать хорошим учебным пособием, представляющим взвешенный подход к оценке сегодняшних возможностей ИИ.

Доклад CEO российской компании ServicePipe был ИМХО до некоторой степени эмоциональным антиподом доклада директора департамента ИБ Accenture. На некоторых его слайдах ИИ выглядел буквально как киллер-фича (слэнг из текста, выдаваемого гуглом в первой строке при запросе информации о ServicePipe), превосходящая «естественный интеллект» по всем статьям.

По прослушивании сообщений, подобных по настрою тому, что представил CEO ServicePipe, начинаешь понимать происхождение позывов к «совершенствованию правового режима регулирования отношений в сфере технологий искусственного интеллекта и робототехники» и истоки «ажитации» среди юристов, готовых приложить руки к реализации соответствующих инициатив.

Доклад Шамиля Ульбашева, возглавляющего направление методологии разработки математически моделей в НЛМК, освежил в памяти содержание общих принципов рабочих технологий, используемых т.н. «датасайентистами», и высветил самое «узкое место» методологии Data Science в контексте ИБ. Это «бутылочное горлышко» – ставшее стандартом де-факто широкое использование сторонних «опенсорсных» приложений для «датамайнинга», код которых – это очевидный «чёрный ящик» и с точки зрения рисков прямых ошибок программирования, и стоки зрения методологических ошибок в используемых алгоритмах анализа первичных данных.

Если вернуться к теме совершенствования правового режима регулирования технологий ИИ, то критический анализ содержания упомянутых докладов в их системном единстве позволяет предложить в качестве первого шага придание этим технологиям в ряде сфер применения статуса систем и средств повышенной опасности со всеми вытекающими из этого последствиями.

Хотя возможны и исключения, одно из которых, например, очевидно после знакомства с докладом об использовании ИИ для ускорения процессов настройки автоматических средств защиты информации (DLP-систем).

С таким сообщением выступил на секции «Искусственный интеллект для ИБ и ИБ для искусственного интеллекта» представитель компании InfoWatch.

Он довольно убедительно представил технологические достоинства применения предварительного обученного ИИ для ускорения процессов настройки DLP-системы.

И этот пример ИМХО является одним из тех случаев, когда при внедрении «серого ящика» ИИ вполне применим подход на основе принятия бизнесом рисков, связанных с ошибками ИИ первого и второго рода, и при готовности бизнеса смело инвестировать в инновационную технологию.

 

BIS Journal — стратегический инфопартнёр BIS Summit 2021.

Смотрите также