Новая политика использования ChatGPT запретила чат-боту давать персонализированные юридические и медицинские консультации: анализировать рентгеновские и МРТ-снимки, фото травм и так далее.

Теперь ИИ от OpenAI ограничивается лишь общей информацией — в образовательных целях, без диагностики и назначений. Не работает даже проверенный метод, когда нейросеть просят рассмотреть гипотетическую ситуацию — алгоритм защищается и отправляет к специалисту с лицензией.

Вендор пока не комментировал эти изменения, но, вероятно, они продиктованы желанием избежать правовых рисков, ведь использование ИИ-моделей для вышеописанных целей сегодня регулируется слабо. Глава OpenAI Сэм Альтман ранее предупреждал, что на диалоги с ChatGPT не распространяются законы об адвокатской и врачебной тайне, что значит, суд может потребовать у компании раскрыть переписку, которая затем будет использована как доказательство.

1 ноября, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

01.11.2025
OpenAI пытается нивелировать правовые риски
01.11.2025
«Максу» банки предпочитают собственные каналы связи
31.10.2025
Европол призывает объединиться в борьбе со спуфингом
31.10.2025
Взлом JLR может привести к краху экономики Британии (?)
31.10.2025
Банк ДОМ.РФ зафиксировал рост случаев мошеннических действий против миллениалов
31.10.2025
Роскомнадзор хочет демонтировать институт согласий
31.10.2025
Регистрация новых пользователей в Telegram и WhatsApp ограничена
31.10.2025
Servicepipe зафиксировал рост спроса на резервные DNS на фоне участившихся атак на DNS-инфраструктуру
30.10.2025
«К2Тех»: Бесперебойная связь остаётся приоритетом для держателей ЦОДов
30.10.2025
Бизнес обяжут импортозаместить ПО?

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных