«Сбер» утвердил принципы этики разработки и применения технологий ИИ внутри своей экосистемы.

 

Принцип № 1. «Контролируемость и управляемость систем ИИ» (Secure AI)

Разработка и применение технологий ИИ в Сбере являются безопасными, управляемыми и контролируемыми в максимальной возможной степени.

Сбер учитывает возможные риски, связанные с безопасностью технологий ИИ, и не допускает их выхода из-под контроля или причинения системой ИИ вреда человеку.

Внедрение ИИ в Сбере никогда не является самоцелью, а применяемые технологии должны пользоваться доверием клиентов, сотрудников и общества.

 

Принцип № 2. «Прозрачность и предсказуемость функционирования технологий ИИ» (Explainable AI)

Сбер несёт ответственность за применение систем ИИ в своей деятельности. Сбер стремится обеспечивать максимальную прозрачность, внутренний контроль и предсказуемость процесса и результатов их работы.

Технологии ИИ применяются Сбером с соблюдением законодательства, в том числе требований конфиденциальности, и с уважением к частной жизни человека, а также к коммерческой тайне. При работе с технологиями ИИ обеспечивается безопасность данных, а системы ИИ никогда не используются для незаконной обработки персональной информации граждан или информации корпоративных клиентов Сбера.

 

Принцип № 3. «Стабильность и надёжность систем ИИ» (Reliable AI)

Сбер обеспечивает стабильность и надёжность функционирования систем ИИ.

Сбер обеспечивает необходимый уровень технического оснащения и создаёт условия наибольшего благоприятствования для разработки и внедрения надёжных систем ИИ в Сбере.

Сбер реализует высочайший уровень гарантий всех прав и свобод человека при применении ИИ, поддерживая применение технологий ИИ исключительно на законных основаниях.

 

Принцип № 4. «Ответственное применение ИИ» (Responsible AI)

При внедрении ИИ в центре внимания Сбера всегда находится потребность клиентов и сотрудников, а технологии ИИ должны использоваться для улучшения клиентского опыта.

Сбер принимает во внимание и ответственно относится ко всем опасениям, которые возникают в связи с применением технологий ИИ.

 

Принцип № 5. «Непредвзятый ИИ» (Fair AI)

Технологии ИИ применяются Сбером справедливо и объективно на равных для всех условиях.

Сбер стремится к тому, чтобы технологии ИИ приносили пользу для развития человечества.

 

Обозначенные принципы обязательны к исполнению для всех участников экосистемы и разработаны с учётом требований Национальной стратегии развития ИИ на период до 2030 года.

«Технологии искусственного интеллекта, как и любые другие, несут с собой не только возможности, но и риски. Утверждая этические принципы разработки и применения технологий ИИ и создавая механизмы для их реализации, мы действуем в русле лучших мировых практик и в соответствии с Национальной стратегией развития ИИ. Этот вопрос масштабный и непростой, поэтому наши правила и принципы будут совершенствоваться, конкретизироваться. Мы открыты к мнению экспертного сообщества, которое будем учитывать при обновлении наших принципов. Для целого ряда этических проблем, возникающих при использовании ИИ, мы пока не нашли ответов даже с учётом изучения лучшего мирового опыта в этой сфере, поэтому наши принципы, безусловно, будут совершенствоваться по мере того, как человечество будет находить соответствующие решения. Особенно я хочу отметить, что это принципы Сбера и мы их никому за пределами нашей группы не навязываем, более того, не считаем эти принципы идеальными, и другим компаниям необязательно использовать их в своей деятельности», – отметил Герман Греф.

1 марта, 2021

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.01.2026
Apple уводит своих фанатов в тень
30.01.2026
Более 80% этичных хакеров сегодня использует ИИ
30.01.2026
Компании «СПБ» и QRate объединяют усилия для развития квантовых коммуникаций
30.01.2026
«Мы увидели целую индустрию паспортов умерших, на которых оформляют карты»
30.01.2026
Дуров и Маск не сошлись в подходах к конфиденциальности данных
29.01.2026
Пять главных ИИ-рисков по версии Anthropic
29.01.2026
OpenAI будет отсекать ботов с помощью биометрии
29.01.2026
Дуров: Нужно быть полным идиотом, чтобы поверить в безопасность WhatsApp в 2026 году
29.01.2026
Штрафы за нарушение правил эксплуатации объектов КИИ достигнут полумиллиона рублей
29.01.2026
Британцев накажут за «неспособность предотвратить мошенничество»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных