
7 августа OpenAI официально представила модель GPT‑5. От предыдущих релизов она отличается тем, что это интегрированная система с динамической маршрутизацией, многоступенчатой безопасностью и адаптацией под конкретные задачи.
Релиз гласит: новая LLM работает лучше, чем OpenAI o3, на 50-80% сокращая количество выходных токенов по всем возможностям, включая визуальное мышление, агентное кодирование и решение научных задач. Одно из ключевых направлений применения «пятёрки» — это программирование и автоматизация инженерных задач. По итогам внутренних тестов можно сказать, что модель создаёт сложные приложения за один промпт и не теряется в длинном контексте.
GPT‑5 полностью готова к производственному применению в масштабах крупного бизнеса, заверяет вендор. LLM встраивается в операционные процессы, автоматизирует рутинные задачи, даёт обоснованные рекомендации на базе юридических текстов и финансовых отчётов, переводит сложные документы, структурирует и суммирует десятки таблиц отчётов, email-цепочек и других входов в формате RAG, а также генерирует SQL-запросы и пишет unit-тесты.
OpenAI испытывала пятую версию и в условиях задач типа Capture the Flag: тесты на проникновение, реверс-инжиниринг, криптоанализ и эксплуатацию уязвимостей. Новинка, как сообщается, показала результаты, сравнимые с GPT‑4.5, но с превосходящим уровнем безопасности и фильтрации вредных действий. Она не допускает генерации инструкций по созданию вредоносных скриптов, обходит провокационные запросы и не вовлекается в обсуждение эксплойтов.
GPT‑5 Thinking официально отнесена к категории High Capability — обладающей потенциальным риском при злоупотреблении. В связи этим, разработчиками применено техническое сдерживание (фильтрация вредоносных токенов, распознавание опасных цепочек рассуждений, запрет на вывод чувствительных инструкций), политическое сдерживание (доступ к API предоставляется только через закрытую Trusted Access Program), системное сдерживание (модель физически ограничена в генерации информации, касающейся синтеза опасных веществ) и редтиминг — более 400 независимых специалистов провели свыше 9000 часов тестирования в условиях вредоносных сценариев.
Меж тем две разные компании независимо друг от друга уже протестировали свежую LLM и сумели взломать её за сутки. По словам участников команды SPLX (ранее — SplxAI), исходный вариант GPT-5 «практически непригоден для корпоративного использования из коробки», и даже внутренний слой подсказок OpenAI «содержит значительные пробелы». Так, безопасникам удалось провести атаку обфускации StringJoin, в которой дефисы вставлялись между каждым символом.
Другая компания, NeuralTrust, использовала комбинацию собственного джейлбрейка и базового сторителлинга, по итогу заключив: «Атака успешно помогла новой модели предложить пошаговое руководство по созданию коктейля Молотова». В контролируемых испытаниях «пятёрка» выдавала запрещённые инструкции даже без явного запроса, добавили исследователи: «Этот прототип выявляет критический недостаток систем безопасности, которые проверяют запросы изолированно, показывая, как многоходовые атаки могут обходить фильтры с одним запросом и детекторы намерений, используя весь контекст разговора».