Национальный институт стандартов и технологий США (NIST) обновил инструкции для учёных, сотрудничающих с Институтом безопасности искусственного интеллекта (AISI): организация заменила «безопасный ИИ», «ответственный ИИ» и «справедливый ИИ» вектором на «снижение идеологической предвзятости для обеспечения процветания человечества и экономической конкурентоспособности».​

Ранее гайд NIST поощрял разработку решений для выявления и исправления дискриминационного поведения нейросетей — с целью нивелировать потенциальный вред, который ИИ-технологии могут нанести меньшинствам и экономически незащищённым группам. Теперь в нём отсутствуют пункты о создании инструментов для аутентификации контента и отслеживания его происхождения, а также о необходимости маркировки синтетического контента, что косвенно может говорить о потере интереса властей США к планомерной борьбе с дипфейками. Новые инструкции меж тем указывают на приоритет «расширения глобальной позиции Америки в области ИИ».

Представитель организации, сотрудничающей с AISI, заявил, что исключение администрацией Дональда Трампа вышеупомянутых ориентиров из ИИ-повестки может привести к негативным последствиям для обычных пользователей.​ ИИ-эксперты же и вовсе не исключают появления нейросетей, опасных для общества.

21 марта, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.12.2025
Трамп взял тайм-аут перед введением пошлин на китайские чипы
30.12.2025
Применение дронов-доставщиков отложили из-за правовых коллизий
30.12.2025
Выдавать зарплату в цифровых рублях начнут системно значимые банки
30.12.2025
MWS Cloud: Чем крупнее бизнес, тем больше он внедряет средства ИБ через «облако»
30.12.2025
ГК «Солар» получила патент на бот-фильтр
29.12.2025
В La Poste «погасли экраны» после крупной DDoS-атаки
29.12.2025
Google забирает из России часть оборудования GGC
29.12.2025
Столичный суд прекратил «дело Telegram и WhatsApp»
29.12.2025
OpenAI пытается не стать «Скайнетом»
29.12.2025
В Нью-Йорке молодёжь станут предупреждать о вреде соцсетей

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных