Резиденты Сети смогут спрятать свои данные от больших языковых моделей?

OpenAI позволила владельцам сайтам закрывать индексацию от ChatGPT — в файле Robots.txt можно поставить «стоп» на поискового робота GPTBot или заблокировать его IP-адрес.

В компании уточнили, что просканированные ботом страницы могут использоваться для обучения ИИ-моделей, чтобы «расширить их возможности и безопасность».

Эксперты The Verge считают, что описанная функция может быть первым шагом, позволяющим пользователям ограничить использование своих данных для обучения больших языковых моделей.

Весной ресурсы Stack Overflow и Reddit объявили, что будут брать плату с ИИ-разработчиков, чьи нейросети обучаются на данных с этих форумов. Тогда OpenAI разрешила отключать историю чатов ChatGPT, чтобы бот не учился на ответах.

8 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

27.02.2026
В ReliaQuest объяснили, как безопасникам превзойти в скорости хакеров
27.02.2026
Эксперт — о важности киберполиса для организаций
27.02.2026
Создатели Claude обвинили конкурентов в массовой краже данных
27.02.2026
Новое окно возможностей для «Сбера» — «ЦОД в пробирке»
27.02.2026
РКН постановил удалить 35,5 тысяч инструкций по обходу блокировок
27.02.2026
FinCore 2026: на пути от пилотных AI-агентов к банковскому AI-ядру
26.02.2026
Скамеры меняют предпочтения — SMS-коды им больше не нужны
26.02.2026
ИИ-вендоров обяжут раскрывать «учебные материалы»?
26.02.2026
РКН: Будьте бдительны, мошенники не дремлют
26.02.2026
Российские банкиры претерпевают от действий инсайдеров заметно чаще остальных

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных