Резиденты Сети смогут спрятать свои данные от больших языковых моделей?

OpenAI позволила владельцам сайтам закрывать индексацию от ChatGPT — в файле Robots.txt можно поставить «стоп» на поискового робота GPTBot или заблокировать его IP-адрес.

В компании уточнили, что просканированные ботом страницы могут использоваться для обучения ИИ-моделей, чтобы «расширить их возможности и безопасность».

Эксперты The Verge считают, что описанная функция может быть первым шагом, позволяющим пользователям ограничить использование своих данных для обучения больших языковых моделей.

Весной ресурсы Stack Overflow и Reddit объявили, что будут брать плату с ИИ-разработчиков, чьи нейросети обучаются на данных с этих форумов. Тогда OpenAI разрешила отключать историю чатов ChatGPT, чтобы бот не учился на ответах.

8 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

19.12.2025
НСПК — о едином пространстве для проведения транзакций
19.12.2025
Пентагон видит в ISACA глобальный орган по контролю за ИБ-стандартами
19.12.2025
«Слишком жёсткие правила могут замедлить темпы внедрения ИИ»
19.12.2025
«Здесь востребованы люди, которые умеют совмещать системное мышление с прикладной инженерией»
19.12.2025
NCSC стремится внедрить передовые методы защиты в цепочки поставок
18.12.2025
Эксперт: Продление жизни карт «Мир» грозит ростом скамерской активности
18.12.2025
ИИ-разработчики сами боятся утратить навыки из-за засилья нейросетей
18.12.2025
Max берёт возможный максимум
18.12.2025
ЛК: Геймерам угрожает новый инфокрад
18.12.2025
NCSC будет бороться со скамерами на основе «иллюзии обмана»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных