Резиденты Сети смогут спрятать свои данные от больших языковых моделей?

OpenAI позволила владельцам сайтам закрывать индексацию от ChatGPT — в файле Robots.txt можно поставить «стоп» на поискового робота GPTBot или заблокировать его IP-адрес.

В компании уточнили, что просканированные ботом страницы могут использоваться для обучения ИИ-моделей, чтобы «расширить их возможности и безопасность».

Эксперты The Verge считают, что описанная функция может быть первым шагом, позволяющим пользователям ограничить использование своих данных для обучения больших языковых моделей.

Весной ресурсы Stack Overflow и Reddit объявили, что будут брать плату с ИИ-разработчиков, чьи нейросети обучаются на данных с этих форумов. Тогда OpenAI разрешила отключать историю чатов ChatGPT, чтобы бот не учился на ответах.

8 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.04.2026
Google отдаёт предпочтение универсальным моделям в ИБ-сфере
29.04.2026
Банк России: Не-предприниматели под новые критерии не подпадут
29.04.2026
Телеком — о введении лимита на VPN-трафик
29.04.2026
ИИ обходится дороже живых айтишников, но те всё равно не расслабляются
29.04.2026
В NCSC уверены: лучше работать вообще без метрик, чем с плохими
29.04.2026
«ИНН паспорт не заменит в силу несколько более упрощённой природы»
29.04.2026
К Лаборатории кибербезопасности Servicepipe присоединяется ITOREX
28.04.2026
«Суверенность» ИИ-моделей более не фактор?
28.04.2026
НСФР: Фактически для нас установлен незаконный квазиналог
28.04.2026
«Зрелые» компании уже включают деградацию связи в сценарии непрерывности

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных