Google: Безопасное прерывание может быть полезным для контроля над роботом, который ведёт себя неправильно

Демис Хассабис, глава отдела искусственного интеллекта Google DeepMind, заявил на фестивале Future of Everything, что через несколько лет может появиться ИИ человеческого уровня. До того многие эксперты предполагали, что такая технология появится не ранее, чем через десятилетия.

Хассабис спрогнозировал появление AGI (Artificial general intelligence) — искусственного общего интеллекта, то есть ИИ-систем, способных мыслить превосходящим человека способом. Вместе с тем представитель Google разрабатывает меры предосторожности в этой сфере, чтобы предотвратить возможный вред для человечества.

«Я бы предложил разрабатывать такие технологии AGI осмотрительно, используя научный метод — когда вы стараетесь провести очень тщательные контролируемые эксперименты, чтобы понять, что делает базовая система», — сказал он.

Ранее специалисты DeepMind, говоря о рисках, связанных с ИИ, достигшего человеческого уровня, предлагали иметь под рукой аварийный выключатель: «Безопасное прерывание может быть полезным для контроля над роботом, который ведёт себя неправильно и может привести к необратимым последствиям».

5 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.12.2025
Трамп взял тайм-аут перед введением пошлин на китайские чипы
30.12.2025
Применение дронов-доставщиков отложили из-за правовых коллизий
30.12.2025
Выдавать зарплату в цифровых рублях начнут системно значимые банки
30.12.2025
MWS Cloud: Чем крупнее бизнес, тем больше он внедряет средства ИБ через «облако»
30.12.2025
ГК «Солар» получила патент на бот-фильтр
29.12.2025
В La Poste «погасли экраны» после крупной DDoS-атаки
29.12.2025
Google забирает из России часть оборудования GGC
29.12.2025
Столичный суд прекратил «дело Telegram и WhatsApp»
29.12.2025
OpenAI пытается не стать «Скайнетом»
29.12.2025
В Нью-Йорке молодёжь станут предупреждать о вреде соцсетей

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных