Резиденты Сети смогут спрятать свои данные от больших языковых моделей?

OpenAI позволила владельцам сайтам закрывать индексацию от ChatGPT — в файле Robots.txt можно поставить «стоп» на поискового робота GPTBot или заблокировать его IP-адрес.

В компании уточнили, что просканированные ботом страницы могут использоваться для обучения ИИ-моделей, чтобы «расширить их возможности и безопасность».

Эксперты The Verge считают, что описанная функция может быть первым шагом, позволяющим пользователям ограничить использование своих данных для обучения больших языковых моделей.

Весной ресурсы Stack Overflow и Reddit объявили, что будут брать плату с ИИ-разработчиков, чьи нейросети обучаются на данных с этих форумов. Тогда OpenAI разрешила отключать историю чатов ChatGPT, чтобы бот не учился на ответах.

8 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

23.01.2026
Аналитики IANS констатируют «переломный момент» в роли CISO
23.01.2026
CRIL: Хактивисты используют протесты в цифровой сфере как оружие
23.01.2026
Промсектор внедряет ИИ осторожнее, но глубже
23.01.2026
Минцифры готовит кадровый резерв из «сеньоров»
23.01.2026
Мнение: Блокировок счетов будет только больше
23.01.2026
АБД, HFLabs и Privacy Advocates выпустили аналитический доклад о технологиях обезличивания
22.01.2026
Кибербезопасники из Mandiant применяют мягкий шантаж
22.01.2026
«На данный момент у Max нет никаких явных преимуществ»
22.01.2026
Центральный университет и ЛК второй раз подготовят российскую ИБ-сборную
22.01.2026
Эксперты Gartner объявили об эре «нулевого доверия» из-за краха моделей ИИ

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных