Резиденты Сети смогут спрятать свои данные от больших языковых моделей?

OpenAI позволила владельцам сайтам закрывать индексацию от ChatGPT — в файле Robots.txt можно поставить «стоп» на поискового робота GPTBot или заблокировать его IP-адрес.

В компании уточнили, что просканированные ботом страницы могут использоваться для обучения ИИ-моделей, чтобы «расширить их возможности и безопасность».

Эксперты The Verge считают, что описанная функция может быть первым шагом, позволяющим пользователям ограничить использование своих данных для обучения больших языковых моделей.

Весной ресурсы Stack Overflow и Reddit объявили, что будут брать плату с ИИ-разработчиков, чьи нейросети обучаются на данных с этих форумов. Тогда OpenAI разрешила отключать историю чатов ChatGPT, чтобы бот не учился на ответах.

8 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

20.03.2026
Предприятия ТЭК опасаются обмениваться данными. Поможет общий ЦОД
20.03.2026
Хакеры ослепляют ИИ-ассистентов кастомными шрифтами
20.03.2026
В Госдуме просят разъяснить принципы «белого списка»
20.03.2026
ФБР обратилось к геймерам за помощью в поимке скамеров
20.03.2026
DarkSword — на службе госхакеров и поставщиков шпионского ПО
20.03.2026
Кибердом стал партнёром премии ЦИПР Диджитал — 2026
20.03.2026
На «Тех-Френдли Викенд» выступят Владимир Сурдин, Алексей Семихатов и Даниил Трабун
19.03.2026
Блокировка Telegram приоткрыла форточку для «Ютюба»?
19.03.2026
Российские LLM — самые суверенные, традиционные и духовно-нравственные
19.03.2026
Файлы Эпштейна были взломаны хакером, проникшим в ФБР

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных