
Национальный институт стандартов и технологий США (NIST) обновил инструкции для учёных, сотрудничающих с Институтом безопасности искусственного интеллекта (AISI): организация заменила «безопасный ИИ», «ответственный ИИ» и «справедливый ИИ» вектором на «снижение идеологической предвзятости для обеспечения процветания человечества и экономической конкурентоспособности».
Ранее гайд NIST поощрял разработку решений для выявления и исправления дискриминационного поведения нейросетей — с целью нивелировать потенциальный вред, который ИИ-технологии могут нанести меньшинствам и экономически незащищённым группам. Теперь в нём отсутствуют пункты о создании инструментов для аутентификации контента и отслеживания его происхождения, а также о необходимости маркировки синтетического контента, что косвенно может говорить о потере интереса властей США к планомерной борьбе с дипфейками. Новые инструкции меж тем указывают на приоритет «расширения глобальной позиции Америки в области ИИ».
Представитель организации, сотрудничающей с AISI, заявил, что исключение администрацией Дональда Трампа вышеупомянутых ориентиров из ИИ-повестки может привести к негативным последствиям для обычных пользователей. ИИ-эксперты же и вовсе не исключают появления нейросетей, опасных для общества.