«Если звёзды зажигаются, значит, это кому-то нужно!» Форум «Банки России — XXI век» — о киберфизической безопасности «искусственного интеллекта»

21 сентября, 2021

«Если звёзды зажигаются, значит, это кому-то нужно!» Форум «Банки России — XXI век» — о киберфизической безопасности «искусственного интеллекта»

Одним из мероприятий Форума «Банки России — XXI век» стал Круглый стол «Человек и искусственный интеллект: единство и борьба противоположностей».

При этом пока даже не существует канонического определения «искусственный интеллект» (ИИ). И возможно его просто так и не будет, если в недалёком будущем исчезнет благодаря лезвию Оккама само понятие ИИ.

Но для начала попытаемся не «раскачивать лодку», собранную из сомнительных аксиом для удержания на плаву понятия ИИ, а извлечь крупицы полезной информации из комментариев и реплик экспертов упомянутого Круглого стола. Полезной, в первую очередь, с точки зрения совершенствования наших представлений об информационной безопасности эпохи цифровой трансформации.

Предложение одного из экспертов считать ИИ чем-то, связанным с технологиями машинного обучения на основе Больших Данных, не встретило возражений.

И одним из первых нюансов ситуации, связанной с таким представлением об ИИ, было обсуждение корректности той информации, что «скармливается» ИИ для обретения им «умности». В целом эксперты согласились с тем, что, например, информация из социальных сетей, нередко идущая на «корм», заслуживает специального названия, для которого даже был предложен термин «мнения» для подчёркивания её отличия от «данных». Последние появляются результатами объективных исследований процессов по общепризнанным обоснованным методикам. Тогда как «мнения» – это оценки, имеющие субъективный «вкусовой» характер. И в связи с этим результаты обучения одной и той же платформы ИИ на основе данных и «мнений» могут разниться.

Следующий момент, который не позволяет безоговорочно доверять результатам «мыслительного» процесса ИИ, обуславливается субъективностью процесса программирования платформ ИИ. Ведь ИИ – это не результат биологических игр «двойных спиралей», а нередко сшивка на «живую нитку» разнообразных библиотек, натасканных из закоулков Всемирной Сети. И в этом продукте могут быть не только просто ошибки, но и ошибки добросовестные, основанные на несовершенстве базовых представлений пусть даже и квалифицированных программистов о том, как работает интеллект естественный.

Удивительно, но после обнародования этих неопровержимых соображений в ходе дальнейшего обсуждения из экспертной среды прозвучали реплики с сетованиями на излишнюю строгость проверки финансовых приложений ИИ на предмет возможного нарушениями ими не только интересов клиентов финансового рынка, но и дестабилизации самого этого рынка.

Тогда как упомянутые рассуждения свидетельствуют о том, что возможно назрел вопрос о правовом закреплении ограничений использования продуктов на основе машинного обучения в практической деятельности.

В пользу этого говорят первые человеческие жертвы автономных транспортных средств на дорогах. И уже не единичные жертвоприношения в экономике из-за работы, например, биржевых роботов.

Говорить об ограничениях тем более уместно, что по результатам исследования IBM, озвученных на Круглом столе, уровень доверия к ИИ оценивается как «низкий».

А о том, что такие ограничения должны быть законодательными, следует из того, что изначальной целью Круглый стол «Человек и искусственный интеллект: единство и борьба противоположностей» было названо обсуждение перспектив введения в оборот правосубъектности ИИ,

О содержании центрального вопроса мероприятия было заявлено на открытии Круглого стола ещё до обмена мнениями. При этом, как это уже было много раз на мероприятиях, соприкасающихся с темой ИИ, никто не взял на себя смелость сразу же заявить об абсурдности обсуждения правосубъектности программного обеспечения.

Это позволил себе сделать лишь в ходе скомканного (из-за дефицита времени) подведения итогов дискуссии Игорь Ашманов, член Совета при Президенте РФ по развитию гражданского общества и правам человека. Эта «выходка» была бы вполне в духе рекомендаций советского разведчика Исаева об особой запоминаемости слов, произнесённых в конце разговора, если бы и до этого много раз на протяжении ряда лет профессионалами в сфере ИТ уже не произносились слова о надуманности напыщенного термина и тщетности ожиданий проявления ИНТЕЛЛЕКТА от (что бы кто ни говорил) вычислительного АЛГОРИТМА.

Но несмотря на это на протяжении последних нескольких лет наблюдаются попытки государственного регулирования искусственного интеллекта, как в России, так и в других странах мира. Распоряжением Правительства Российской Федерации от 19 августа 2020 г. № 2129-р была утверждена Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года.

И эта концепция предусматривает (предусматривает, Карл!), пусть и в общих чертах, действия в интересах совершенствования правового режима регулирования систем искусственного интеллекта и робототехники.

Не имеет смысла скрывать, что эти идеи находят определённый отклик в среде профессиональных юристов. Тем более что работа эта сулит не только новые возможности для проведения новых экспериментов по привлечению постулатов римского права эпохи рабовладения для регулирования экономики современного классового общества эпохи «уберизации», но и финансирование соответствующих работ.

Но наиболее трезвомыслящие юристы вполне обоснованно указывают на возможность использования уже существующих механизмов регулирования деятельности физических и юридических лиц, эксплуатирующих средства и оборудование повышенной опасности.

И действительно, лезвие Оккама не утратило своей эффективности!

 

BIS Journal — главный медиапартнёр Международного банковского форума «Банки России — XXI век».

Смотрите также