«Финансовые услуги нового поколения потребуют этического регулирования»

BIS Journal №4(43)/2021

30 ноября, 2021

«Финансовые услуги нового поколения потребуют этического регулирования»

Финансовые услуги и сервисы нового поколения будут базироваться на таких технологиях, как искусственный интеллект, машинное обучение, интернет вещей. Но их бесконтрольное использование может привести к дискриминации потребителей. 

Ассоциация ФинТех провела исследование мнения российского финансового рынка по вопросам развития финансовых технологий. Наши респонденты, среди которых представители банков, страховых компаний, профучастников рынка ценных бумаг, сошлись во мнении, что уже сейчас необходимо разрабатывать регуляторные режимы для инновационных продуктов и решений, в том числе регулирование и стандарты для безопасного и этичного применения алгоритмов искусственного интеллекта (ИИ) в финансовой отрасли. В противном случае технологии будут нести риски для развития рынка.

Интересно, что именно искусственный интеллект стал одной из первых технологий, которые начали использовать представители финансового сектора. Так, в 1986 году APEX (Applied Expert Systems) представила PlanPower, решение на основе алгоритмов для создания финансовых планов для тех, у кого годовой доход составлял более $75 000 в год.

Сейчас финансовые организации успешно используют решения с применением алгоритмов искусственного интеллекта в кредитовании, платежах, маркетинге и продажах. На основе ИИ создаются системы для обнаружения и предотвращения мошеннических действий. Страховые компании рассчитывают стоимость своих продуктов с помощью сложных моделей.  Уже ставшие привычными чат-боты и виртуальные ассистенты также функционируют как самообучающиеся алгоритмы. Благодаря технологиям стало возможно создавать персонализированные решения с учётом потребностей и предпочтений каждого клиента. Ещё один пример – составление индивидуальных инвестиционных планов с учётом горизонта планирования, аппетита к риску и других параметров на платформах для инвестирования.

Эксперты прогнозируют, что в течение ближайших пяти лет финансовые организации будут внедрять решения на основе искусственного интеллекта в следующих областях:

  • Управление бизнес-процессами и оптимизация с использованием инструментов интеллектуального анализа позволит компаниям сделать их более эффективными и повысить общую производительность.
  • Обслуживание клиентов с помощью чат-ботов или виртуальных помощников. С учётом растущей конкуренции на рынке финансовых услуг реагировать на обращения клиентов необходимо мгновенно. Искусственный интеллект позволяет решать эту задачу.
  • Кредитный скоринг. Большинство используемых в настоящее время систем кредитного скоринга устарели. Использование искусственного интеллекта и машинного обучения для принятия решений позволит улучшить их качество и предоставить доступ к кредитованию большему количеству клиентов.
  • Киберзащита. Более широкое использование ИИ в области киберзащиты обеспечит проактивные механизмы для борьбы с атаками и защиты данных от хакеров.

По оценкам консалтинговой компании IDC, мировые расходы на системы ИИ к 2024 году достигнут 110 млрд долларов в 2024 году, удвоившись по сравнению с 50,1 млрд долларов в 2020 году. Недавний опрос EY показал, что 64% финансовых учреждений планируют широко использовать технологии ИИ в течение следующих двух лет.

 

Что же вызывает беспокойство представителей отрасли? 

Дело в том, что искусственный интеллект может невольно дискриминировать отдельные группы клиентов.  Так, например, алгоритмы, которые применяются для автоматического скоринга, могут отклонять кредитные заявки клиентов на основе их религии, этнической принадлежности, образования или географического положения. Если в наборе данных отсутствует информация о поведении какой-либо группы, то модель будет построена некорректно, а значит и решения, которые принимаются автоматически, будут несправедливыми. Таким образом будут создаваться непреодолимые барьеры для получения финансовых услуг для множества людей.

С одной стороны, использование искусственного интеллекта должно исключить ошибки, возникающие из-за человеческого фактора. Например, при рассмотрении заявки сотрудники банка могут неправильно оценить платёжеспособность заёмщика и отказать ему в предоставлении средств.  ИИ при оценке кредитоспособности будет принимать решения, беспристрастно анализируя все возможные параметры. Но с другой, алгоритм может масштабировать одно неправильно принятое  решение до невероятных размеров.  Это всё та же человеческая ошибка, только возведённая в энную степень.

Ещё одна претензия к технологии заключается в том, что пользователи не знают, что именно происходит с данными, на основе чего принимаются решения, от которых зависит их благополучие.

 

Кодекс этики искусственного интеллекта

Именно поэтому во многих странах уже реализуются инициативы, направленные на создание безопасных инновационных продуктов и сервисов. И Россия не исключение, 26 октября ведущие российские компании и научно-исследовательские организации подписали кодекс этики искусственного интеллекта.

Документ устанавливает общие морально-этические принципы для всех, кто использует технологию ИИ. В кодексе говорится, что человеко-ориентированный и гуманистический подход является основным этическим принципом и центральным критерием оценки этичного поведения в сфере ИИ. Компаниям рекомендуется использовать риск-ориентированный подход, ответственно относиться к влиянию ИИ на общество и граждан, обеспечивать комплексный надзор человека за любыми системами ИИ, иметь возможность отменить решения, принимаемые системой, на любом этапе. Также отмечается необходимость информировать пользователей о том, что они взаимодействуют с искусственным интеллектом и дать им возможность предотвратить это взаимодействие. В компаниях, которые присоединились к кодексу, должны быть назначены уполномоченные по этике ИИ.

В целях обеспечения справедливости и недопущения дискриминации компании должны принимать меры для того, чтобы удостовериться, что применяемые ими алгоритмы и наборы данных, методы обработки используемых для машинного обучения данных, при помощи которых осуществляется группирование и классификация данных, касающихся отдельных лиц или групп лиц, не влекут их умышленную дискриминацию.

Для того чтобы обмениваться опытом, компании, использующие ИИ, создадут свод лучших и худших практик решения этических вопросов, и предоставят к нему публичный доступ.

 

Зарубежный опыт

Евросоюз же в апреле этого года представил проект законодательного регулирования искусственного интеллекта. От поставщиков и пользователей систем ИИ требуется соблюдение конкретных правил транспарентности данных, управления, ведения учёта и документации. Среди требований (наряду с установлением стандартов надёжности, точности и безопасности) обязательный человеческий надзор в тех областях, где есть риски, связанные с ограничением доступа потребителей к тем или иным услугам. 

Нарушения приведут к штрафам, аналогичным штрафам за нарушение законодательства о персональных данных. В некоторых случаях эти правила также будут применяться к компаниям и за пределами ЕС. Европейские законодатели считают, что этическое регулирование в виде свода норм и правил должно так же неукоснительно соблюдаться, как и стандарты ведения бизнеса. Предложенное ЕС законодательство является наиболее всеобъемлющим по сравнению с нормами, принятыми в других странах.  

С 2019 года правительство Великобритании запустило проект «Mandating Security Requirements For Consumer ‘IoT’ Products», целью которого является разработка регуляторных требований к производителям продуктов интернета вещей IoT.

Китай имеет «Пекинские принципы», которые являются этическими рамками, для регулирования того, как должен функционировать искусственный интеллект. В частности, Пекинские принципы гласят, что ИИ не должен использоваться против людей или наносить им вред.

В ряде стран, таких как Сингапур, Гонконг, Великобритания, с рекомендациями по использованию искусственного интеллекта выступают и Центральные банки, указывая как следует управлять связанными с технологией рисками в финансовом секторе.

Главное, к чему стремятся во всех странах, обеспечить прозрачность и объяснимость решений, которые принимаются с использованием искусственного интеллекта. Как лучше этого добиться, с помощью строгого законодательства, которое установит ответственность за любое отступление от правил или добровольного саморегулирования, пока открытый вопрос.

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

17.04.2024
ФСТЭК будет аттестовать не готовое ПО, а процесс его разработки
17.04.2024
Китайцы используют карты «Мир» для бизнес-платежей
17.04.2024
Хакеры вернулись к вербовке «народных» роутеров
17.04.2024
В 2023 году российские вендоры продали решений и услуг на 3,1 трлн рублей
17.04.2024
Антифрод-ИИ-платформа «Сбера» сводит на нет практически все попытки скамеров
16.04.2024
Сайт просит вас отключить блокировщик рекламы? Не спешите
16.04.2024
Руководителям не хватает качественного общения друг с другом
16.04.2024
НКЦКИ представил свой трекер утечек персональных данных
16.04.2024
Где VPN, там и DDoS. В Госдуме заявили о неочевидной связи этих аббревиатур
16.04.2024
«Мы можем внести свой вклад в будущее и работаем над этим»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных