
28 августа спикер Госдумы Вячеслав Володин в своём Telegram-канале сообщил: всё чаще из СМИ становится известно о случаях, когда искусственный интеллект вместо помощи людям, оказавшимся в сложной ситуации, предлагает им решения совершенно иного плана, и это, к сожалению, стало приводить к печальным последствиям.
«Несколько громких эпизодов произошли в США и связаны с одной конкретной нейросетью. Теперь её разработчики, чтобы исправить ситуацию, планируют интегрировать в неё функцию родительского контроля, возможность добавить в чат-бот контакт доверенного лица для связи в чрезвычайных ситуациях и прямой вызов экстренных служб», — рассказал Володин.
Правильно было бы, по его словам, не дожидаясь трагедий, внедрить такие механизмы создателям и других нейромоделей: «Происшедшее показывает — излишняя цифровизация, отсутствие контроля могут нести опасность и вред. Далеко не на все вопросы можно и нужно искать ответы в нейросетях. Искусственный интеллект — это набор алгоритмов, инструментов и баз данных. Он не бывает полностью объективен и, как оказалось, может содержать в себе скрытые угрозы. Важно помнить об этом, пользуясь такими сервисами в жизни».
Парламентарий добавил, что вопрос внедрения технологий ИИ и цифровизации будет обсуждаться Госдумой в ноябре: «Отдельное внимание и контроль — безопасности и защите граждан от негативных последствий использования нейросетей».