В OpenAI сообщили о резком повышении производительности своих моделей, что изменило внутреннее планирование компании. Согласно новому отчёту, оценка возможностей с использованием задач типа «захват флага» показала улучшение с 27% на GPT-5 в августе 2025 года до 76% на GPT-5.1-Codex-Max в ноябре.

Эксперты предупредили, что некоторые системы в будущем могут достичь «высокого» уровня возможностей в решении большого круга задач, начиная от сложных операций по вторжению и заканчивая разработкой эксплойтов нулевого дня. Осознание того, что новые модели несут «высокий» риск кибербезопасности, подводит к необходимости сосредоточиться на базовой защите, считает соучредитель и гендиректор ThreatAware Джон Эбботт: «Угрозы старой школы в сочетании с масштабом и точностью, обеспечиваемыми ИИ, представляют собой особенно опасную комбинацию».

В компании заявили, что готовят многоуровневые системы защиты, направленные на усиление оборонительных результатов. Главная цель — укрепить позиции групп безопасности, которые по-прежнему находятся в меньшинстве и испытывают нехватку ресурсов. Для управления рисками двойного назначения вендор разработал стратегию, основанную на следующих компонентах:

  • контроль доступа, усиление инфраструктуры, анализ исходящего трафика и мониторинг;
  • обучение, которое направляет модели в сторону от вредоносных запросов, сохраняя при этом их полезность для обучения и защиты;
  • системные инструменты обнаружения, способные блокировать или перенаправлять небезопасную активность;
  • комплексная проверка на проникновение внешними специалистами.

Со слов представителей OpenAI, они координируют свои действия с мировыми экспертами для улучшения практического применения защитного ИИ, а также готовят программу доверенного доступа для соответствующих пользователей.

Ещё один проект, Aardvark, уже находится в закрытом бета-тестировании. Этот агентный ИБ-исследователь сканирует кодовые базы, выявляет уязвимости и предлагает исправления. Помимо этого, был создан Совет по рискам на передовых рубежах для консультирования по вопросам ответственного использования технологий и дальнейшего сотрудничества в улучшении стратегий по смягчению последствий в масштабах всей экосистемы.

 

Усам Оздемиров

16 декабря, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.01.2026
Apple уводит своих фанатов в тень
30.01.2026
Более 80% этичных хакеров сегодня использует ИИ
30.01.2026
Компании «СПБ» и QRate объединяют усилия для развития квантовых коммуникаций
30.01.2026
«Мы увидели целую индустрию паспортов умерших, на которых оформляют карты»
30.01.2026
Дуров и Маск не сошлись в подходах к конфиденциальности данных
29.01.2026
Пять главных ИИ-рисков по версии Anthropic
29.01.2026
OpenAI будет отсекать ботов с помощью биометрии
29.01.2026
Дуров: Нужно быть полным идиотом, чтобы поверить в безопасность WhatsApp в 2026 году
29.01.2026
Штрафы за нарушение правил эксплуатации объектов КИИ достигнут полумиллиона рублей
29.01.2026
Британцев накажут за «неспособность предотвратить мошенничество»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных