
Гендиректор OpenAI Сэм Альтман рассказал о распространяющейся практике обращения пользователей к ChatGPT как к психотерапевту. Топ-менеджер напомнил, что в отличие от бесед с живым специалистом, такое общение не защищено законом.
«Так что, если вы поговорите с ChatGPT о самых сокровенных вещах, а потом будет какой-нибудь судебный иск или что-то в этом роде, от нас могут потребовать предоставить эту информацию», — предупредил Альтман.
«В настоящее время, если вы обратитесь к психотерапевту, юристу или врачу с целью обсуждения своих проблем, это будет рассматриваться как информация, не подлежащая разглашению — как врачебная тайна. Мы пока не определились, как быть в случае общения с ChatGPT», — добавил он.
Глава OpenAI считает, что на взаимодействие с чат-ботом должна распространяться та же концепция конфиденциальности, что и на разговор с психотерапевтом: «Ещё год назад никто не придавал этому значения, но теперь, я полагаю, это серьёзный вопрос: как нам следует воспринимать законы, связанные с этой темой?».
В архитектуре ChatGPT не предусмотрено двойное шифрование, как, например, в WhatsApp или Signal, и сотрудники OpenAI при желании могут прочесть переписку пользователя с ботом — такая возможность им предоставлена для отладки ИИ-модели и отслеживания неправомерного использования технологии. При этом политика вендора гласит: чаты безвозвратно удаляются в течение 30 дней, если только компания не обязана хранить их по «правовым причинам или из соображений безопасности».