Новая политика использования ChatGPT запретила чат-боту давать персонализированные юридические и медицинские консультации: анализировать рентгеновские и МРТ-снимки, фото травм и так далее.

Теперь ИИ от OpenAI ограничивается лишь общей информацией — в образовательных целях, без диагностики и назначений. Не работает даже проверенный метод, когда нейросеть просят рассмотреть гипотетическую ситуацию — алгоритм защищается и отправляет к специалисту с лицензией.

Вендор пока не комментировал эти изменения, но, вероятно, они продиктованы желанием избежать правовых рисков, ведь использование ИИ-моделей для вышеописанных целей сегодня регулируется слабо. Глава OpenAI Сэм Альтман ранее предупреждал, что на диалоги с ChatGPT не распространяются законы об адвокатской и врачебной тайне, что значит, суд может потребовать у компании раскрыть переписку, которая затем будет использована как доказательство.

1 ноября, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

19.12.2025
НСПК — о едином пространстве для проведения транзакций
19.12.2025
Пентагон видит в ISACA глобальный орган по контролю за ИБ-стандартами
19.12.2025
«Слишком жёсткие правила могут замедлить темпы внедрения ИИ»
19.12.2025
«Здесь востребованы люди, которые умеют совмещать системное мышление с прикладной инженерией»
19.12.2025
NCSC стремится внедрить передовые методы защиты в цепочки поставок
18.12.2025
Эксперт: Продление жизни карт «Мир» грозит ростом скамерской активности
18.12.2025
ИИ-разработчики сами боятся утратить навыки из-за засилья нейросетей
18.12.2025
Max берёт возможный максимум
18.12.2025
ЛК: Геймерам угрожает новый инфокрад
18.12.2025
NCSC будет бороться со скамерами на основе «иллюзии обмана»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных