Microsoft задумалась о создании агентства для надзора за ИИ

Компания Microsoft предложила властям США создать специальное агентство, которое будет заниматься разработкой стандартов, обеспечивающих безопасность, этичность и ответственность при применении искусственного интеллекта в различных сферах жизни.

Эксперты корпорации утверждают, что недавний запрет ChatGPT в Италии показывает необходимость создания такого регулятора. Они видят в будущем агентстве черты Федеральной комиссии по торговле (FTC) или Федеральной комиссии по связи (FCC), которые регулируют рынки потребительских товаров и телекоммуникаций соответственно.

«Мы думаем, что нужно создать новое агентство по ИИ, которое будет иметь полномочия устанавливать правила для разработчиков и пользователей ИИ, проводить проверки и наказывать за нарушения», — заявил президент Microsoft Брэд Смит. Ранее о подобных инициативах говорили, например, Google и IBM.

30 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

17.04.2025
В России полюбили самозапреты
17.04.2025
Google надеется на тёплый приём на тайваньской земле
17.04.2025
Более 500 спикеров, реверс-инжиниринг в Кибергороде и концерт Uma2rman: как пройдёт Positive Hack Days в этом году
17.04.2025
У нас есть Apple Pay дома. МКБ первым оседлал «Волну»
17.04.2025
Discord присмотрится к подданным Британской Короны. Пристально
17.04.2025
Премия для этичных хакеров Pentest award 2025 открыла приём заявок
16.04.2025
Импортозамещение или налог? Скоро крупному бизнесу предстоит выбрать
16.04.2025
Финразведка проверит все «подозрительные» криптокошельки
16.04.2025
«Андроиды» обгоняют «яблочников» на треке физической безопасности гаджетов на целый день
16.04.2025
Костин рассказал на Data Fusion о роли нейросетей и «прайвеси»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных