Резиденты Сети смогут спрятать свои данные от больших языковых моделей?

OpenAI позволила владельцам сайтам закрывать индексацию от ChatGPT — в файле Robots.txt можно поставить «стоп» на поискового робота GPTBot или заблокировать его IP-адрес.

В компании уточнили, что просканированные ботом страницы могут использоваться для обучения ИИ-моделей, чтобы «расширить их возможности и безопасность».

Эксперты The Verge считают, что описанная функция может быть первым шагом, позволяющим пользователям ограничить использование своих данных для обучения больших языковых моделей.

Весной ресурсы Stack Overflow и Reddit объявили, что будут брать плату с ИИ-разработчиков, чьи нейросети обучаются на данных с этих форумов. Тогда OpenAI разрешила отключать историю чатов ChatGPT, чтобы бот не учился на ответах.

8 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

12.05.2026
«Большинство компаний находится в зоне иллюзорной безопасности»
12.05.2026
Cisco: Файлы ИИ-моделей перестали быть статическими активами
12.05.2026
CISA обозначило пределы изоляции для критической инфраструктуры
12.05.2026
Российские абоненты будут получать коды в «Максе»
12.05.2026
«Мамонт» не вымер — он ищет жертв постарше
12.05.2026
NGENIX расширил зарубежное присутствие с запуском нового узла в Казахстане
11.05.2026
«Не стоит использовать комбинацию, которую предложила нейросеть»
11.05.2026
Геймеры — следующие? РКН обратил внимание на крупных игроделов
11.05.2026
ИИ не только работает за вас, но и тратит вашу зарплату
11.05.2026
Ивенты с «высокой цифровой нагрузкой» всё чаще требуют Wi-Fi

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных