Власти КНР обозначили правила для компаний, предоставляющих услуги и контент с использованием ИИ. Директива направлена на «обеспечение безопасности, этики и соответствия социалистическим ценностям Китая» и уже вступила в силу.

Теперь компании должны маркировать произведённый ими ИИ-контент, разработать чёткий механизм рассмотрения жалоб на него, а также использовать только законные данные для обучения ИИ-моделей. И не должны подстрекать к свержению социалистической системы, сепаратизму и нанесению ущерба национальному имиджу.

Эти правила касаются только технологий, доступных пользователям — не разработок научных институтов. Надзор за соблюдением директивы — среди прочих ведомств — будут осуществлять Управление киберпространства Китая и Национальная комиссия по развитию и реформам.

Пекин осознает потенциальные риски, связанные с использованием ИИ, и пытается установить баланс между госконтролем и стимулированием инноваций.

17 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

16.03.2026
Google: Хакеры предпочитают атаковать облако через стороннее ПО
16.03.2026
МВД РФ регистрирует на 12% меньше киберпреступлений
16.03.2026
Ограничение проводного интернета — прецедент или «показалось»?
16.03.2026
NETSCOUT: Разгром одной «теневой» платформы уже слабо влияет на общую картину
16.03.2026
«Про работу Telegram через мобильный интернет можно забыть»
16.03.2026
OpenAI планирует запустить ИИ-генератор видео
13.03.2026
Администрация Трампа представила новую киберстратегию для США
13.03.2026
Mimecast назвала инсайдеров критической угрозой для бизнеса
13.03.2026
Интеграция ITAM и ITSM становится управленческой необходимостью
13.03.2026
Пейджер, бумажная карта… огниво? Чем закупаются москвичи на фоне шатдауна

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных