Резиденты Сети смогут спрятать свои данные от больших языковых моделей?

OpenAI позволила владельцам сайтам закрывать индексацию от ChatGPT — в файле Robots.txt можно поставить «стоп» на поискового робота GPTBot или заблокировать его IP-адрес.

В компании уточнили, что просканированные ботом страницы могут использоваться для обучения ИИ-моделей, чтобы «расширить их возможности и безопасность».

Эксперты The Verge считают, что описанная функция может быть первым шагом, позволяющим пользователям ограничить использование своих данных для обучения больших языковых моделей.

Весной ресурсы Stack Overflow и Reddit объявили, что будут брать плату с ИИ-разработчиков, чьи нейросети обучаются на данных с этих форумов. Тогда OpenAI разрешила отключать историю чатов ChatGPT, чтобы бот не учился на ответах.

8 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

09.04.2026
Александр Пушкин («Перспективный мониторинг»): «Даже корректно настроенный WAF не способен полностью блокировать все атаки на веб-ресурс»
09.04.2026
Хакеры атакуют американских поставщиков CNI
09.04.2026
Anthropic запускает Glasswing, чтобы бороться с критическими уязвимостями
08.04.2026
Рынок говорит: Кибербез — обязательная часть цифрового бизнеса
08.04.2026
Кибербезопасность в строительстве и ЖКХ станет одной из ключевых тем на Форуме ГосСОПКА
08.04.2026
Платформа Venom Stealer поставила на поток непрерывную кражу данных
08.04.2026
На FINNEXT 2026 обсудили, как ИИ-агенты и экосистемы меняют финрынок
08.04.2026
От адаптации к изобретению: подведены итоги 3-й ежегодной Премии FINNEXT
07.04.2026
Безопасники выявили опасную уязвимость в ChatGPT
07.04.2026
Власти Камбоджи хотят искоренить киберпреступность и работорговлю

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных