Резиденты Сети смогут спрятать свои данные от больших языковых моделей?

OpenAI позволила владельцам сайтам закрывать индексацию от ChatGPT — в файле Robots.txt можно поставить «стоп» на поискового робота GPTBot или заблокировать его IP-адрес.

В компании уточнили, что просканированные ботом страницы могут использоваться для обучения ИИ-моделей, чтобы «расширить их возможности и безопасность».

Эксперты The Verge считают, что описанная функция может быть первым шагом, позволяющим пользователям ограничить использование своих данных для обучения больших языковых моделей.

Весной ресурсы Stack Overflow и Reddit объявили, что будут брать плату с ИИ-разработчиков, чьи нейросети обучаются на данных с этих форумов. Тогда OpenAI разрешила отключать историю чатов ChatGPT, чтобы бот не учился на ответах.

8 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

03.04.2026
Proofpoint: Скамеры активизируются в налоговый сезон
03.04.2026
Константин Карасёв (R-Vision): «Наиболее болезненный для многих вопрос — разрыв между скоростью атак и скоростью внутренних процедур»
02.04.2026
Проиранские хакеры взломали имейл директора ФБР
02.04.2026
«СерчИнформ FileAuditor» расширил контроль файловых серверов на Linux
02.04.2026
«Билайн»: «Белые списки» — вынужденная мера
02.04.2026
Великий телеком-переход. Кто уйдёт с рынка связи РФ
02.04.2026
В Google считают, что постквантовая эпоха ближе, чем кажется
01.04.2026
Глава NCSC объяснил безопасникам преимущества вайб-кодинга
01.04.2026
В SentinelOne раскрыли, как хакеры обходят корпоративные системы идентификации
01.04.2026
Юбилейный форум «Данные + ИИ»: честный разговор лидеров о реальной ценности технологий

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных