Тот ещё субъект… По материалам круглого стола «Человек и искусственный интеллект: единство и борьба противоположностей» на XVIII Международном банковском форуме в Сочи

BIS Journal №4(43)/2021

1 декабря, 2021

Тот ещё субъект… По материалам круглого стола «Человек и искусственный интеллект: единство и борьба противоположностей» на XVIII Международном банковском форуме в Сочи

Субъектность искусственного интеллекта (ИИ) — это вопрос медийного хайпа, с одной стороны, и научных исследований в области правоведения — с другой. Но практические аспекты «дееспособности» ИИ, по сравнению с человеком, лежат в иной плоскости.

 

ПОКА ВСЁ ПРОСТО

Главный вопрос искусственного интеллекта (ИИ) — вопрос об ответственности за принимаемое решение. На базовом уровне он имеет простой ответ: человек описывает все этапы и сценарии «мыслительной деятельности» искусственного разума. Сегодня на этом уровне работает большинство систем ИИ: системы, основанные на правилах (rule based), медицинские экспертные системы, программы, рассчитывающие скоринговый балл заёмщика в банках, и прочие системы, помогающие человеку принимать правильные решения.

Выступая в сентябре на круглом столе «Человек и искусственный интеллект: единство и борьба противоположностей», Валерий Лях, директор департамента противодействия недобросовестным практикам Банка России, дал следующее определение этой ситуации: «ИИ и ML (машинное обучение) составляют сегодня «экзоскелет» для человека, помогая ему в принятии решений». Он подчеркнул, что модели ИИ используются для реализации простых в интеллектуальном смысле ИТ-систем, но в нетривиальных ситуациях по-прежнему нужен человеческий, а не машинный ум.

Действительно,  ИИ самостоятельно никого не может уволить. В недавнем нашумевшем скандале с увольнением 147 сотрудников компании Xsolla само решение принимал руководитель организации, ИИ лишь предоставил ему отчёт с данными измерений рабочей активности сотрудников по ряду метрик. ИИ также не может самостоятельно писать стихи, прозу и новостные сообщения. Он лишь реализует те программные описания и словари, которые заранее задал ему человек.

Модератор круглого стола вице-президент Ассоциации банков России Анатолий Козлачков предложил яркую аналогию, отталкиваясь от основ римского права: «В Древнем Риме раб назывался “говорящий инструмент”. В наше время таким “рабом” в услужении человека является искусственный интеллект».

 

ПРОСМАТРИВАЕТСЯ СЛЕДУЮЩИЙ УРОВЕНЬ

Но уже просматривается следующий уровень реализации интеллектуальных ИТ-систем, когда результаты работы ИИ будут встраиваться в бизнес-цепочки конкретных действий, осуществляемых автоматически. Вся история эволюции корпоративной информатизации в сторону сквозной (end-to-end) автоматизации (с участием интеллектуальных механизмов на различных участках маршрута) приводит именно к этому состоянию: решение, которое автоматически примет специализированный ИИ на одном этапе, повлияет на выполнение задач на всех последующих участках.

Никакого самостоятельного принятия решений в смысле субъекта права на этом уровне по-прежнему не предвидится, но появляется фактор ответственности за решение, принятое ИИ.

На самом деле в таких ситуациях ИИ принимает решение чисто математически — делает вывод на основании имеющихся данных. И такое положение вещей обусловливает ряд важных аспектов интеллектуальных систем.

Беспристрастность. В правила принятия решений для ИИ человек может внести предвзятые суждения. Уже набили оскомину примеры из американской действительности, когда заранее заданные правила поиска кандидатов на вакантные рабочие места смещены в сторону людей с определённым цветом кожи. Однако возможны и менее одиозные ситуации. Например, правила, которые описывают корреляцию между активностью сотрудника в компании (участие в совещаниях, выступления и комментарии на внутреннем портале) и его личной эффективностью,  могут быть смещены так, что в кадровый резерв руководства попадут более говорливые сотрудники, а не те, кто действительно работает эффективно.

Прозрачность хода получения результата. Прозрачность всех шагов по пути достижения финального суждения обеспечивает объяснимость полученного результата. «Должна быть обеспечена объяснимость результатов. Не интерпретируемость, а именно объяснимость полученного решения», — подчеркивает Валерий Лях.

На настоящий момент прозрачность — одна из главных «болевых точек» систем ИИ. Такая система неспособна объяснить полученный результат, поскольку он является следствием множества операций оптимизации на совокупности данных. Объяснительный функционал, в принципе, может быть реализован в системах логического интеллекта, но с целью упрощения систем этого не делается.

 

ЗАВТРА НАЧИНАЕТСЯ СЕГОДНЯ

Например, сегодня биржевые роботы работают именно в качестве «экзоскелета» человека в терминологии Валерия Ляха. Но развитие финансовой сферы, в которой действуют всё более умные программные роботы, приводит регуляторов к необходимости получать доступ к исходному коду биржевых роботов, чтобы контролировать происходящие процессы.

Нужен контроль регулятора за тем, чтобы ИИ-система работала добросовестно, отмечает Валерий Лях: «Необходимо гарантировать, что действия таких программ не вызовут перекосов на рынке, создавая, например, преимущества для отдельных участников». Более того, множество таких программ, работающих одновременно, могут создавать волатильность на рынке. Это проблема не сегодняшнего, а завтрашнего дня, но уже сегодня их необходимо учитывать, занимаясь разработкой новых правил регулирования на финансовом рынке.

 

НЕ ЭТИКА, А УГОЛОВНОЕ ПРАВО

Созданием таких правил сегодня заняты все развитые страны. С чьей-то лёгкой руки они получили название этических принципов взаимодействия ИИ и человека, хотя этический принцип там, по сути, один — верховенство человека над умной машиной. На самом деле вопросы причинения ущерба, связанного с применением ИИ, должны рассматриваться никак не в этическом русле, а в русле уголовного права.

 

ПРИНЦИПЫ ПРОТИВ ИНТЕРЕСОВ

Все обсуждаемые тезисы и подходы скорее относятся к вопросам регулирования. И все эти вопросы сегодня находятся в стадии активной разработки. Но уже намечен ряд основополагающих принципов, по которым сложился международный консенсус.

  • Лица, ответственные в компаниях за ИИ-решения, должны иметь знания в области ИИ.
  • Модели ИИ не должны быть чёрными ящиками с результатом, который не может быть объяснён.
  • Используемые данные должны быть понятными, прозрачными и интерпретируемыми всеми сторонами, использующими ИИ-решения. В силу этого требования, в частности, не рекомендуется использовать сведения из соцсетей.
  • «Этическое» поведение ИИ-систем, понимаемое как использование только достоверных данных и точных методов их обработки.

Возникает вопрос: насколько реализуемы принципы создания ИИ-систем, сформированные в русле международного консенсуса, для практических внедрений в разных странах? Ильдар Бегишев, заслуженный юрист, преподаватель Казанского инновационного университета имени В. Г. Тимирясова, предупреждает, что необходимо создавать собственную российскую систему правового регулирования взаимоотношений общества и ИИ и там отразить все вопросы правовой субъектности ИИ. «Глобальные ИТ-гиганты, предлагая свои концепции регулирования, ставят во главу угла свои интересы и лишь потом — интересы людей и государства».

Правда, как считает Игорь Ашманов, президент компании «Крибрум», член Совета при Президенте РФ по развитию гражданского общества и правам человека, от этого недостатка не свободен сегодня и проект кодекса этики искусственного интеллекта, который разрабатывается в нашей стране. По мнению эксперта, нынешний  вариант кодекса «заточен» под интересы Сбера, «Яндекса» и других крупных компаний, которые занимаются его разработкой.

Так что признание факта, что ИИ — никакой не субъект права, проще нашу жизнь не делает. Пусть он и не субъект, но регулировать его активность точно необходимо.

Смотрите также