7 августа OpenAI официально представила модель GPT‑5. От предыдущих релизов она отличается тем, что это интегрированная система с динамической маршрутизацией, многоступенчатой безопасностью и адаптацией под конкретные задачи.

Релиз гласит: новая LLM работает лучше, чем OpenAI o3, на 50-80% сокращая количество выходных токенов по всем возможностям, включая визуальное мышление, агентное кодирование и решение научных задач. Одно из ключевых направлений применения «пятёрки» — это программирование и автоматизация инженерных задач. По итогам внутренних тестов можно сказать, что модель создаёт сложные приложения за один промпт и не теряется в длинном контексте.

GPT‑5 полностью готова к производственному применению в масштабах крупного бизнеса, заверяет вендор. LLM встраивается в операционные процессы, автоматизирует рутинные задачи, даёт обоснованные рекомендации на базе юридических текстов и финансовых отчётов, переводит сложные документы, структурирует и суммирует десятки таблиц отчётов, email-цепочек и других входов в формате RAG, а также генерирует SQL-запросы и пишет unit-тесты.

OpenAI испытывала пятую версию и в условиях задач типа Capture the Flag: тесты на проникновение, реверс-инжиниринг, криптоанализ и эксплуатацию уязвимостей. Новинка, как сообщается, показала результаты, сравнимые с GPT‑4.5, но с превосходящим уровнем безопасности и фильтрации вредных действий. Она не допускает генерации инструкций по созданию вредоносных скриптов, обходит провокационные запросы и не вовлекается в обсуждение эксплойтов.

GPT‑5 Thinking официально отнесена к категории High Capability — обладающей потенциальным риском при злоупотреблении. В связи этим, разработчиками применено техническое сдерживание (фильтрация вредоносных токенов, распознавание опасных цепочек рассуждений, запрет на вывод чувствительных инструкций), политическое сдерживание (доступ к API предоставляется только через закрытую Trusted Access Program), системное сдерживание (модель физически ограничена в генерации информации, касающейся синтеза опасных веществ) и редтиминг — более 400 независимых специалистов провели свыше 9000 часов тестирования в условиях вредоносных сценариев.

Меж тем две разные компании независимо друг от друга уже протестировали свежую LLM и сумели взломать её за сутки. По словам участников команды SPLX (ранее — SplxAI), исходный вариант GPT-5 «практически непригоден для корпоративного использования из коробки», и даже внутренний слой подсказок OpenAI «содержит значительные пробелы». Так, безопасникам удалось провести атаку обфускации StringJoin, в которой дефисы вставлялись между каждым символом.

Другая компания, NeuralTrust, использовала комбинацию собственного джейлбрейка и базового сторителлинга, по итогу заключив: «Атака успешно помогла новой модели предложить пошаговое руководство по созданию коктейля Молотова». В контролируемых испытаниях «пятёрка» выдавала запрещённые инструкции даже без явного запроса, добавили исследователи: «Этот прототип выявляет критический недостаток систем безопасности, которые проверяют запросы изолированно, показывая, как многоходовые атаки могут обходить фильтры с одним запросом и детекторы намерений, используя весь контекст разговора».

14 августа, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

20.02.2026
ИИ сегодня — это ненадёжный лазерный дальномер. Что?
20.02.2026
Дилемма МФО: смена статуса или идентификация силами партнёров
20.02.2026
«Абонента нужно допустить в сеть, а потом разбираться, что у него с историей поведения»
20.02.2026
Роскомнадзор vs. Telegram. Партия продолжается
20.02.2026
Посредникам на крипторынке не потребуется банковская лицензия (?)
19.02.2026
Телеком покроет ущерб по заведомо мошенническим звонкам
19.02.2026
Европарламент закрывает депутатские гаджеты от ИИ
19.02.2026
Набиуллина: Предупреждения для клиентов — это важно
19.02.2026
«Цифровая свобода является приоритетом для Госдепартамента»
18.02.2026
Интернет-рубильник всё ближе к реальности

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных