BIS Journal №3(42)/2021

2 августа, 2021

«У рынка больших данных большое будущее»

Один из главных рисков, связанных с большими данными в государстве, — риск утечки персональных данных граждан. Хотя юридические меры защиты ПД и ответственности за их незаконное распространение прописаны достаточно подробно, организационные и технические меры, реализуемые операторами данных, зачастую недостаточны.

Центр мониторинга и реагирования на кибератаки Solar JSOC компании «Ростелеком-Солар» за январь-ноябрь 2020 г. зафиксировал больше 200 профессиональных хакерских атак на российские компании. Многие из объектов атак — это объекты критической информационной инфраструктуры (КИИ). Поэтому, на мой взгляд, главная опасность заключается в том, что из-за больших данных и Интернета вещей офлайн и онлайн сращиваются, и кибератаки могут выводить из строя объекты реального мира, обеспечивающие деятельность целых предприятий и городов.

Одной из лучших защит от кибернападений является осознание каждого сотрудника компаний, оперирующих большими данными, своей личной ответственности за их сохранность. Например, по данным Infowatch, почти 80% утечек ПД происходит из-за внутренних нарушений. Однако стремление к тотальному контролю за действиями сотрудников способно превратить их в объекты постоянной цифровой слежки.

Действительно, DLP-системы представляются достаточно эффективными инструментами контроля, но важно мотивировать работников не только слежкой и наказаниями, но и поощрениями. Чем больше у работника преференций и карьерных возможностей, тем меньше вероятность, что он станет передавать инсайдерскую информацию конкурентам. При этом не надо забывать, что права сотрудников также должны быть защищены, а их ПД должны находиться под защитой. 

Кроме того, необходимо строго соблюдать существующие принципы обработки персональных данных, в частности, принцип целевого сбора данных (данные должны быть собраны с конкретной, чётко обозначенной целью) и принцип минимизации их сбора (данные должны быть собраны только в том объёме, который необходим для достижения целей обработки).

Цифровые предприятия сегодня объединяются в цифровые цепочки компьютерного обмена данными между поставщиками, партнёрами, ведомственными ГИС и т. д. Разумеется, консолидация инфраструктур увеличивает риск кибератак, а наличие больших данных добавляет риски, связанные с утечками. В случае данных промышленного Интернета вещей речь идёт скорее о данных, связанных с работой устройств. Но если мы говорим, например, о технологиях «умного города» и обработке данных, полученных от устройств учёта, установленных в частных домохозяйствах, то здесь вполне может возникнуть угроза для ПД.

В любом случае лучшая защита — это предупреждение возникновения атак. Разработка стратегии сбора, обработки и хранения данных с учётом обеспечения их безопасности, внедрение передовых практик, связанных с защитой данных и обеспечением конфиденциальности, постоянный пересмотр подходов к обеспечению безопасности с точки зрения появления новых угроз должны присутствовать в каждом промышленном предприятии, использующем большие данные.

Какой метод хранения данных наиболее соответствует задаче их сохранности и конфиденциальности? Полагаю, что централизованные базы данных не самое лучшее решение с точки зрения обеспечения безопасности. Сосредоточение данных в одном месте повышает риск утечек, в том числе риск перехвата данных при их передаче в централизованную базу. Кроме того, если утечка всё-таки произошла, последствия будут катастрофическими. Вспомним, например, случай с утечкой персональных данных всех пациентов с диагнозом COVID-19 (а это более 16 миллионов человек), которая произошла в конце прошлого года в Бразилии. Тогда были скомпрометированы две правительственные базы данных, которые использовались для регистрации жителей страны с соответствующими симптомами. Опасения относительно централизованных баз данных, особенно тех, что содержат биометрические данные, высказываются в Евросоюзе, Австралии, Китае, Индии. Неслучайно, например, для построения модели цифровой идентификации сегодня часто рассматриваются технологии распределённого реестра и блокчейн — такая модель предложена, например, GSMA в рамках программы M4D (mobile for development). На базе блокчейна построена политика обработки биометрических данных Международной организации «Красный Крест», а также программа по созданию виртуальных аккаунтов для беженцев ООН в рамках проекта United Nations World Food Programme.

Сегодня также популярна идея анонимизации конкретных персональных данных. Разработано много методов обезличивания (анонимизации). В этой связи необходимо отметить, что в нашем законодательстве отсутствует разграничение между обезличенными (лишёнными связи с субъектом) и псевдонимизированными (сохраняющими связь с физическим лицом) данными. В зарубежной практике такое разграничение есть, и, как правило, обезличенные данные выводятся из-под требований законодательства по защите персональных данных.

Требования, предъявляемые к обезличиванию, различаются в отдельных юрисдикциях. Например, GDPR требует необратимости данной процедуры, то есть персональные данные не должны восстанавливаться из обезличенных никаким способом. Таким образом, например, шифрование, хеширование или токенизация не являются методами обезличивания, а относятся к методам псевдоанонимизации. К современным методам обезличивания относят такие методы, как k-анонимность, l-разнообразие или t-близость, а также наложение шума или дифференцированная конфиденциальность.

Однако общая позиция зарубежных регуляторов заключается в том, что ни один из этих методов сам по себе не может рассматриваться в качестве абсолютно надёжного. Необходимо сочетание методов в зависимости от конкретной ситуации, имеющихся данных и существующих рисков. При этом очень важно, чтобы в процессе обезличивания данные сохранили свою ценность, то есть были способны обеспечить достижение той цели, ради которой они собирались и обрабатывались.

Отмечу ещё один существенный риск для граждан — профайлинг и автоматизированное принятие решений на основании собранных данных. В настоящий момент принятие на основании исключительно автоматизированной обработки персональных данных таких решений, которые порождают существенные последствия для субъекта, запрещено. Но даже частичное делегирование процесса принятия решений алгоритмам, в том числе алгоритмам искусственного интеллекта, в таких процессах, как, например, оценка кредитоспособности, может повлечь за собой существенные риски. В числе таких рисков, которые сейчас широко обсуждаются на международном уровне, — риски дискриминации различных социальных групп, риски принятия необъективных или ошибочных решений.

Сегодня многие страны озабочены поиском баланса между соблюдением прав субъекта и общества. В поиске баланса основой выступает риск-ориентированный подход, при котором преимущества использования того или иного технологического решения оцениваются относительно возможных рисков, связанных с его использованием. Если риски существенны, то для таких решений требуется жёсткий контроль, особое регулирование, а в отдельных случаях использование технологии может быть запрещено.

Например, в ряде штатов США запрещено массовое видеонаблюдение с использованием технологии распознавания лиц, поскольку в случае ошибки системы последствия для субъекта могут быть крайне негативными. Запрет данной технологии обсуждается и в ЕС. Совсем недавно Еврокомиссией был представлен комплекс правил регулирования систем искусственного интеллекта, который рассматривает четыре уровня рисков, связанных с использованием таких систем. Согласно этим правилам, системы четвёртого (неприемлемого) уровня риска, которые представляют угрозу безопасности гражданам и их правам, должны быть запрещены. В их число попадают, например, разработки, позволяющие манипулировать поведением пользователей.

Обычная практика контроля за принятием решений – прозрачность операций, в том числе операций с персональными данными граждан. Как это выглядит сегодня?

В соответствии с положениями 152-ФЗ, механизм обработки ПД на территории РФ предусматривает разработку политики оператора в отношении обработки персональных данных, обязательное уведомление уполномоченного органа по защите прав субъектов персональных данных (Роскомнадзор) о намерении осуществить обработку. Это уведомление содержит, в частности, информацию о целях обработки, категории персональных данных, которые планируется обрабатывать, правовое обоснование обработки и т. д. Кроме того, операторы персональных данных должны назначить отдельное лицо, ответственное за разработку. На повышение прозрачности обработки и более существенный контроль граждан за своими данными направлен также механизм получения согласия.

Вместе с тем более чёткому контролю за соблюдением законодательства в сфере ПД могло бы способствовать создание отдельного органа, отвечающего исключительно за данную сферу (примером такого органа в ЕС является European Data Protection Board — Европейский совет по защите данных), в состав которого вошли бы представители государства, бизнеса и научного сообщества.

В целом на регулирование больших данных, как, впрочем, и на любое регулирование развивающейся технологии, нужно смотреть с точки зрения баланса. Необходимо, с одной стороны, обеспечить соблюдение прав владельцев данных, прежде всего пользователей, а с другой — не препятствовать, а наоборот, стимулировать развитие инноваций. В прошлом году Ассоциация больших данных выпустила исследование, согласно которому при благоприятном регулировании развитие рынка больших данных к 2024 г. должно привести к существенному экономическому эффекту — прирост составит 0,3% ВВП, или около 3 трлн руб. В качестве направлений модернизации регулирования указываются упрощение доступа бизнеса к сбору и обработке данных, обеспечение возможности обмена данными и их обогащения, создание R&D-песочниц для исследования больших данных, финансирование инноваций и т. д.

Таким образом, модернизация должна затронуть нормативные акты, связанные с обработкой данных, в первую очередь Федеральный закон 152-ФЗ «О персональных данных». Однако при модернизации необходимо не забывать об интересах граждан. Права субъектов на безопасность и конфиденциальность должны быть, безусловно, соблюдены.

Смотрите также