ИИ-вендоры договорились ограничивать технологию, когда это необходимо

На прошедшем в Южной Корее AI Safety Summit 16 лидеров рынка ИИ-разработок (Google, Microsoft, OpenAI, IBM и другие) приняли новые обязательства по безопасности передовых технологий искусственного интеллекта. Среди прочего, документ предполагает обязательства подписантов деактивировать собственные ИИ-решения в случае потенциального опасного воздействия последних.

Компании договорились публиковать свои методики оценки рисков, связанных с их ИИ-моделями, описывать допустимые уровни потенциальной опасности и принимаемые меры при превышении этих уровней. В ситуации, когда снижение рисков ниже установленного порога невозможно, участники договора должны будут прекратить разработку и внедрение соответствующих моделей и систем.

Также подписанты обязались:

  • делиться друг с другом информацией;
  • проводить тестирование своих передовых ИИ-моделей;
  • инвестировать в ИБ и предотвращать внутренние угрозы для не выпущенных технологий;
  • поощрять обнаружение уязвимостей независимыми исследователями;
  • маркировать созданный с помощью нейросетей контент;
  • приоритизировать исследования социальных рисков, связанных с ИИ.

Остальные детали соглашения обсудят на ИИ-саммите в начале 2025 года.

В рамках того же AI Safety Summit вендорами, чиновниками стран G7, Сингапура и Австралии, а также представителями международных организаций — ООН и ОЭСР — была принята Сеульская декларация. В ней говорится о важности обеспечения совместимости между системами управления искусственным интеллектом, основываясь на риск-ориентированном подходе — для максимизации преимуществ технологии и нивелирования рисков, сопряжённых с ней.

22 мая, 2024

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.06.2025
Всё связать до 1 июля: «симку», биометрию, «Госуслуги»
30.06.2025
Нейросетям поставили задачу усовершенствовать бюджетный процесс
30.06.2025
Draugnet послужит демократизации отчётности по киберугрозам
30.06.2025
Россиян превращают в дропперов особо изощрённым способом
30.06.2025
Банк России сдал нулевой срез по цифровому рублю
30.06.2025
Половина безопасников хочет приостановить развёртывание GenAI
27.06.2025
«Корыстные цели и низкий уровень правовой культуры». Телеком-лицензии — только в чистые руки
27.06.2025
США опасаются усиления иранских кибератак после авиаударов
27.06.2025
«Можно было бы просто запретить импорт отдельных сегментов». «Аквариус» — о вечном
27.06.2025
ИИ позволяет бороться с телефонными мошенниками, сохраняя тайну связи

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных