Горизонт — 0-10+ лет. Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности

BIS Journal №3(50)2023

4 сентября, 2023

Горизонт — 0-10+ лет. Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности

В предыдущих номерах BIS Journal мы начали публикацию аналитического отчёта «Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности» (Hypervector 2022), подготовленного в Лаборатории кибербезопасности Сбера. Эту работу трудно переоценить. Новые технологии влияют на все аспекты нашей жизни. В том числе используются для кибератак и, напротив, для защиты от них.

В отчёте каждая такая технология проанализирована и оценена с точки зрения степени влияния на ландшафт киберугроз. Также указан период времени, в течение которого технология, предположительно, достигнет зрелости и начнёт применяться массово. Для каждой из рассмотренных технологий приведены примеры возможных угроз или её использования в кибербезопасности. В предыдущих номерах были рассмотрены технологии ближнего и среднего горизонтов — 1–5 и 5–10 лет, в этом рассматривается дальний горизонт 10+ лет.

 
ТЕХНОЛОГИИ С ВЫСОКИМ УРОВНЕМ ВЛИЯНИЯ НА ЛАНДШАФТ КИБЕРУГРОЗ
 
Сильный искусственный интеллект (Artificial General Intelligence, AGI). Данная технология подразумевает гипотетическую возможность искусственного интеллектуального агента понимать и выполнять любую интеллектуальную задачу, которую может выполнить человек.

Несмотря на продолжающиеся споры в научном сообществе относительно принципиальной возможности создания AGI, по данным проведённого опроса было выявлено как минимум 72 активных исследовательских проекта в 37 странах. В отличие от развивающегося в наши дни слабого или узкого ИИ, тренируемого для выполнения одной узкоспециализированной задачи, AGI сможет заменить человека практически в любой сфере деятельности, осваивать навыки выполнения новых задач с учётом накопленного опыта и без утери уже усвоенных навыков. В связи с чем многие исследователи прогнозируют сопутствующие появлению AGI глобальные масштабные изменения во всех сферах деятельности человека, включая и кибербезопасность, где AGI может быть как инструментом эффективного решения задач, способным заменить человека, так и серьёзной потенциальной угрозой с глобальными негативными последствиями, вплоть до экзистенциального уровня.

В части кибербезопасности при возникновении AGI эксперты прогнозируют следующие угрозы.

  • Возникновение «умного» самообучающегося вредоносного ПО, способного на взаимодействия как с вычислительными устройствами, так и с человеком (например, за счёт понимания и генерации естественного языка), с возможностью проведения сложных многоступенчатых APT-атак с задействованием социальной инженерии. Подобное ПО сможет самостоятельно обучаться новым техникам атаки и обхода средств защиты, в связи с чем противодействовать ему традиционными методами будет практически невозможно.
  • Массовая генерация «фейкового» видео/аудио/текстового контента для провоцирования паники, манипуляции действиями людей. Такого рода манипуляции могут создавать угрозы как для бизнеса отдельных компаний, так и для экономики государства или мира в целом.
  • Нахождения «слабых мест» или противоречий в процедурах, правилах, законах и регламентах для их последующей эксплуатации, что может приводить к финансовым, репутационным и другим потерям отдельных компаний, секторов экономики и государств в целом.
  • Взрывной рост мошенничества, направленного на частных лиц, наряду с ростом его результативности. Благодаря сбору и анализу большого количества информации о жертве, доступной в цифровом формате, AGI-инструмент может подбирать эффективные методы атаки на человека с учётом его индивидуальных особенностей и биографических данных, что способно повысить шанс успеха атаки посредством социальной инженерии с текущих долей процента практически до 100%.
  • Переход «дружественного» AGI на сторону противника или самостоятельная смена целей и приоритетов, заложенных создателем.

Несмотря на то что, по прогнозам различных экспертов, возникновение AGI ожидается не ранее чем через 10 лет (а наиболее  скептически настроенные эксперты называют сроки от 100 лет до «никогда»), уровень потенциальных угроз настолько велик, что может поставить под сомнение возможность дальнейшего существования всего человечества. Поэтому уже сейчас крайне важно следить за развитием данной технологии и заранее продумывать подходы и методы недопущения реализации возможных угроз.

Квантовые компьютеры (Quantum Computing). Вычислительные устройства, использующие принципы квантовой механики, такие как квантовая суперпозиция и квантовая запутанность, для передачи и обработки данных. В отличие от классических компьютеров, оперирующих битами, квантовый компьютер оперирует кубитами, имеющими значение одновременно и 0 и 1. Теоретически это позволяет обрабатывать все возможные состояния одновременно, достигая огромного превосходства над классическими компьютерами как минимум в ряде алгоритмов, специально разработанных для квантовых компьютеров. Например, квантовый алгоритм Шора для эффективного разложения чисел на простые множители. В случае возникновения настоящего квантового компьютера данный алгоритм ставит под угрозу широко используемые сейчас алгоритмы асимметричного шифрования (например, RSA), чья стойкость основана на высокой вычислительной сложности задачи разложения больших чисел на множители для классического компьютера. При этом компенсирующее влияние на ландшафт угроз кибербезопасности в части криптографии может оказать развитие квантового шифрования, где стойкость шифра базируется не на вычислительной сложности, а на базовых физических принципах.

Двунаправленный нейрокомпьютерный интерфейс (Two-way BCI). В отличие от однонаправленных нейроинтерфейсов, двунаправленные подразумевают возможность передачи информации в обе стороны. Распространение данной технологии может оказать более масштабное влияние на ландшафт киберугроз, так как может позволить проводить атаки, направленные на изменения восприятия и удалённый контроль произвольными и непроизвольными функциями организма. Имея прямой интерфейс в мозг жертвы, злоумышленник может провести целый ряд атак — наведение «цифровых галлюцинаций» и психических расстройств, управление мыслями и поведением жертвы, перегрузка нейроинтерфейса с целью убийства или вывода из строя, перехват управления опорно-двигательным аппаратом, создание зомби-сетей из реальных людей (например, с целью совершения преступлений или терактов — зомби-камикадзе). Для защиты от подобных атак потребуется разработка систем цифровой иммунной системы, которая в дополнение к биологической иммунной системе, обеспечивающей сохранность и защиту биологических систем органов, будет обеспечивать сохранность и защиту имплантов и нейроинтерфейсов. 

Отдельной сложной задачей в условиях наличия цифровых систем, вживлённых в организм, будет обеспечение приватности и неприкосновенности частной жизни. Любые действия человека будут оставлять огромное количество цифровых следов, доступом к которым могут злоупотребить компании, осуществляющие обработку этих данных, правоохранительные органы, а также данные могут быть похищены и использованы злоумышленниками для совершения различных преступлений. Потребуется не только пересмотр технических подходов к защите персональных данных, но и соответствующие изменения в законодательстве и общественных нормах.

Глобальный разум (Global Brain). Вдохновлённое нейронаукой футурологическое видение планетарной информационно-коммуникационной сети, которая напрямую объединяет людей и компьютеры. Данная сеть будет содержать огромное количество информации и брать на себя всё больше функций координации и коммуникации, становясь всё более интеллектуальной, играя роль мозга для всей планеты. 

В случае своего возникновения глобальный разум окажет масштабное влияние на ландшафт киберугроз и потребует пересмотра большинства принципов и подходов к защите информации, людей и устройств от киберугроз. 

Психиатрия искусственного интеллекта (AI Psychiatry). По мере развития систем ИИ всё больше и больше сложных задач будут переходить от человека к ИИ, что потребует от ИИ систем развития навыков самообучения, большей автономности и самостоятельности в принятии решений. Даже на текущем уровне развития ИИ мы уже сталкиваемся с рядом проблем, вызванных различными артефактами и предвзятостью (bias) в обучающих данных. Например, в 2016 году Microsoft сделала публикацию в Twitter чат-бота Tay, способного отвечать на твиты и личные сообщения. Уже через несколько часов Tay стала публиковать истеричные ответы с оскорблением феминисток и поддержкой идей фашизма. А через 16 часов, когда стало ясно, что Tay не собирается останавливаться, Microsoft прервала эксперимент. Отсюда можно сделать вывод, что на определённом уровне сложности и самостоятельности ИИ-систем у них начнут возникать расстройства, схожие с расстройствами психики у людей. И такие моменты потребуется отслеживать, выявлять и принимать меры защиты, ведь под управлением ИИ будет находиться множество систем обеспечения функционирования жизнедеятельности человеческого общества, и «киберпсихические расстройства» ИИ могут вносить существенные нарушения в выполняемые функции, которые, в свою очередь, могут приводить к массовым беспорядкам, нарушению функционирования отдельных домохозяйств, промышленных предприятий, целых городов и даже регионов, гибели людей и т. п. 

Аугментация человека (Human Augmentation). Комплекс биологических и технологических подходов к расширению возможностей человеческого организма, как улучшающий имеющиеся функции, так и дающий новые, не существовавшие ранее, например, непосредственное восприятие излучения за пределами возможностей зрения или слуха, регенерация органов, суперинтеллект и прочее.

Спектр возможностей, которые станут доступны, ещё предстоит сформировать по мере развития технологий. Тем не менее влияние на ландшафт киберугроз оценивается как высокое в силу того, что текущая модель угроз и нарушителя, как и текущие требования к специалистам по кибербезопасности, основываются в том числе и на биологических, физических и психологических ограничениях организма современного человека, которые станут неактуальными с распространением аугментации.

 

ТЕХНОЛОГИИ СО СРЕДНИМ УРОВНЕМ ВЛИЯНИЯ НА ЛАНДШАФТ КИБЕРУГРОЗ

ДНК для хранения информации (DNA Storage). Уже сейчас идут исследования по применению ДНК в качестве носителя информации, изготавливаются прототипы и опытные образцы для записи, считывания и хранения информации в ДНК. В случае успешного развития данная технология позволит на много порядков увеличить плотность хранения информации: ожидаемая плотность хранения информации на ДНК превышает 1017 байт/мм (кубический), в то время как для современных носителей данный показатель составляет 109 байт/мм. Помимо этого, можно существенно увеличить срок жизни носителей информации, так как информация на ДНК может сохраняться на протяжении нескольких сотен тысяч лет. В ДНК используются совершенно иные принципы хранения, записи и считывания информации, что требует разработки соответствующей модели угроз, анализа поверхности атаки и выработки методов защиты информации, хранимой на ДНК.

Индивидуализированная медицина (Personalized Medicine). Совокупность методов профилактики патологического состояния, диагностики и лечения в случае его возникновения, основанных на индивидуальных особенностях организма пациента. Данный подход подразумевает развитие технологий точной оценки особенностей организма на различных уровнях организации, а также технологий разработки и синтеза лекарственных препаратов с учётом этих особенностей. Как развитие индивидуализированной медицины повлияет на ландшафт угроз кибербезопасности, будет зависеть от конкретных технологий, используемых для её реализации. Например, в случае использования медицинских нанороботов и сенсоров, внедряемых в организм человека, станут возможны атаки на эти устройства с целью слежки, похищения конфиденциальной информации или нанесения вреда организму. Также возможно развитие новой формы вирусов-вымогателей, заражающих эти устройства и нарушающих их нормальное функционирование с целью получения выкупа.

ДНК-компьютер (DNA Computing). Вычислительная система, использующая молекулы ДНК и различные ферменты, такие как полимеразы, нуклеазы, лигазы для выполнения вычислений. Ещё в 1994 году было продемонстрировано, что с помощью ДНК можно весьма эффективно решать классическую комбинаторную задачу о странствующем коммивояжёре. Для компьютера с классической архитектурой решение этой задачи требует большого количества вычислений, в то время как ДНК-компьютер позволяет сразу сгенерировать все возможные варианты решений с помощью биохимических реакций и затем быстро отфильтровать нужную ДНК-нить, в которой закодирован правильный ответ.

На данный момент существует ряд технологических проблем, которые не позволяют широко использовать вычисления на ДНК, но у технологии есть и ряд неоспоримых преимуществ. Например, благодаря тому что реакции на разных частях молекул проходят независимо и параллельно, обеспечивается высокая скорость параллельных вычислений. Как и в случае с хранением информации на ДНК, в силу использования других принципов кодирования и обработки информации потребуется разработка методов защиты, отличных от классических, но в силу своей специфики ДНК-компьютеры, скорее всего, будут использоваться только для решения отдельных классов задач, поэтому их влияние на ландшафт киберугроз оценивается как среднее.

 

ТЕХНОЛОГИИ С НИЗКИМ УРОВНЕМ ВЛИЯНИЯ НА ЛАНДШАФТ КИБЕРУГРОЗ

Расширенная реальность (XR). Комплекс технологий, обеспечивающий синтез полносенсорной (т. е. задействующей одновременно большинство или все органы восприятия человека) реальности, комбинирующей реальные и виртуальные объекты в произвольных соотношениях, где реальные объекты могут быть перцептивно неотличимы от виртуальных. Технологии XR могут стать одним из основных драйверов дальнейшего развития метавселенной, обеспечивая пользователям максимально иммерсивный опыт взаимодействия с ней. Развитие данной технологии может привести к возникновению новых угроз воздействия на отдельных людей и целых обществ через манипуляцию с данными в XR:

  • кража и/или модификация цифровых активов с целью обогащения;
  • манипуляция XR-миром с целью воздействия на человека (управление поведением, имплантирование идей и образов, введение в заблуждение и прочее);
  • кража цифровой XR-личности (например, с целью совершения преступлений от имени краденой личности, шантажа или вымогательства);
  • проблема защиты авторских прав на цифровые XR-произведения.

3D-биопечать (3D Bioprinting). Технология создания объёмных моделей из живых биологических клеток с использованием 3D-печати, при которой сохраняются функции и жизнеспособность клеток и получаемого объекта или органа.

С точки зрения влияния на ландшафт киберугроз потенциально возможно воздействие на устройство для печати с целью саботажа, контроля или модификации функций печатаемого органа.

Биоразлагаемые сенсоры (Biodegradable Sensors). Технология, позволяющая создавать медицинские сенсоры для введения в организм или нанесения на его поверхность с целью мониторинга различных показателей организма. Могут применяться как в медицине для мониторинга организма человека, так и в производстве продуктов питания для мониторинга показателей растительных и животных продуктов на разных этапах цикла их производства, например, для оценки уровня спелости овощей или фруктов или оценки свежести растительных или животных продуктов. Данные сенсоры не требуют извлечения, так как со временем разлагаются в организме без причинения вреда.

Помимо стандартных атак с целью кражи информации или вывода сенсора из строя, в ландшафте угроз кибербезопасности стоит учитывать возможность атаки, стимулирующей разложение сенсора на токсичные для организма или продукта элементы.

 

ЗАКЛЮЧЕНИЕ И ВЫВОДЫ

Большинство из рассмотренных в отчёте технологий можно отнести к одной из трёх категорий: технологии ИИ, технологии вычислений, технологии взаимодействия с вычислительными устройствами. Именно их развитие будет оказывать наиболее существенное влияние на развитие других сопутствующих технологий и возможностей их применения в различных сферах жизни, экономики и бизнеса.

Как видно из проведённого анализа, существенное количество развивающихся технологий связаны с развитием искусственного интеллекта. Уже сейчас технологии ИИ оказывают существенное влияние как на технологический ландшафт, так и на ландшафт угроз кибербезопасности. Дальнейшее развитие только усилит это влияние по мере совершенствования технологий и роста их применения в различных сферах экономики и бизнеса. Сами по себе технологии ИИ вне зависимости от сферы их применения требуют пристального внимания со стороны кибербезопасности, так как порождают новые угрозы и требуют выработки новых подходов для обеспечения их безопасности.

Помимо этого, не стоит забывать, что и киберпреступники будут пытаться использовать развивающиеся технологии ИИ в своих целях, что может привести как к снижению стоимости совершения преступлений, так и к повышению их массовости. Также технологии ИИ будут и дальше использоваться непосредственно в интересах кибербезопасности, помогая лучше прогнозировать, быстрее выявлять и эффективнее противодействовать как существующим, так и новым возникающим угрозам.

Наряду с технологиями искусственного интеллекта продолжают активно развиваться технологии, обеспечивающие рост скорости вычислений. Помимо планомерного развития традиционных микропроцессорных вычислений развиваются и альтернативные подходы, такие как фотонные, нейроморфные и квантовые вычисления.

С одной стороны, увеличение скорости вычислений способствует развитию многих других технологий и открывает новые возможности для их реализации, а с другой стороны, в руках злоумышленников они позволят проводить более сложные и массовые кибератаки, а также на определённом этапе развития могут поставить под угрозу защищённость криптографических алгоритмов, чья стойкость основана на вычислительной сложности.

Отдельно стоит отметить целый ряд развивающихся технологий, обеспечивающих более удобные и быстрые взаимодействия человека с компьютерными устройствами. Как видно из истории развития компьютерных технологий, появление новых и более удобных способов взаимодействия приводит к существенному расширению возможностей их использования, так как снижается порог знаний и навыков, необходимых для взаимодействия.

На первом этапе новый виток этого развития могут обеспечить технологии AR/VR/MR, которые позволят взаимодействовать с устройствами и программным обеспечением привычным и интуитивно понятным любому человеку способом через манипуляцию с объектами виртуального мира, аналогичного миру физическому. Но стоит ожидать, что в дальнейшем наиболее существенный вклад в это развитие внесут именно технологии нейроинтерфейсов, которые могут быть использованы как совместно с AR/VR, так и отдельно от них. Развитие нейроинтерфейсов кардинально повлияет на ландшафт киберугроз, так как впервые в истории развития технологий человек будет включён в контур вычислительной системы и может появиться целый ряд кибератак, нацеленных непосредственно на человека и несущий прямую угрозу его жизни и здоровью. Рекомендуется внимательно следить за развитием технологий нейроинтерфейсов и нейроимплантов, чтобы своевременно обеспечить их кибербезопасность и выработать меры противодействия атакам на них.

Рекомендуется обратить отдельное внимание на следующие развивающиеся технологии в разных временных горизонтах в силу высокого уровня их влияния на ландшафт угроз кибербезопасности:

  1. Горизонт до 5 лет. Управление рисками человеческого фактора, так как проблема противодействия атакам на человека является крайне актуальной как для отдельных компаний, так и для индустрии кибербезопасности в целом. Требуется выработка методов оценки подверженности различным рискам, эффективного обучения тактикам противодействия угрозам и выработки навыков кибергигиены у сотрудников и клиентов.
  2. Горизонт 5–10 лет. ИИ с сохранением приватности и безопасные распределённые вычисления. Данные технологии напрямую касаются безопасности данных, и их исследование и разработка помогут компаниям реализовать новые сервисы, связанные с предоставлением доступа и обменом данными и обучением более точных и масштабных моделей ИИ, не порождая угроз нарушения приватности и конфиденциальности.
  3. Горизонт более 10 лет. Artificial General Intelligence (AGI), так как возникновение данной технологии способно породить масштабные угрозы (вплоть до экзистенциальных) как в кибербезопасности, так и за её пределами. Также AGI способен оказать существенное влияние на саму сферу кибербезопасности в случае его применения для защиты от угроз. 
Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

12.12.2024
Telegram подключил нейросети к удалению противоправного контента
12.12.2024
«Катки» по паспорту. Депутаты уже видят, как Steam идентифицирует геймеров
12.12.2024
«Яндекс Практикум»: 70% вакансий в российском кибербезе — «джуны»
12.12.2024
Китай использует «орлов» для доставки важных артефактов куда надо
11.12.2024
Безбумажность подождёт! «Сбербанк» возвращает «аналоговые» документы в моду
11.12.2024
«Код Безопасности» присоединился к Консорциуму для исследований безопасности ИИ-технологий
11.12.2024
Расходы на новые ИТ-активы должны будут утверждаться правкомиссией по цифровому развитию
11.12.2024
РКН покажет, где правильно хоститься
11.12.2024
Дата-центры наконец-то перестанут «крутить счётчики»
11.12.2024
Опять стикерпак переделывать? Госслужащих обяжут пересесть на отечественные «вацапы»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных