Учёные из Германии и США после некоторых расчётов пришли к выводу, что контролировать «сверхчеловеческий» ИИ будет невозможно.

Утверждается, что для этого необходимо создать модель поведения робота и провести её анализ. Однако, считают исследователи, и это невозможно, даже если понять цели искусственного интеллекта и методы их достижения. Принципы вроде «не причинять вреда человеку» здесь неприменимы, так как сценарии, которые может разработать крайне развитый ИИ, непредсказуемы.

Плюс, снова встаёт проблема, озвученная когда-то Аланом Тьюрингом. Его тезис заключался в том, что невозможно заранее установить, завершит ли компьютерная программа свою работу с результатом или будет его искать бесконечно. Таким образом, человек не может быть уверен, завершит ли работу программа, написанная с целью предотвращения вреда, который робот в состоянии причинить миру.

Как итог, учёные предлагают ограничить возможности ИИ, отсоединив его от некоторых сегментов интернета или специфических сетей. Но это автоматически уменьшит потенциальную полезность ИИ, добавляют они. И ставят вопрос: если мы не собираемся использовать ИИ для решения задач, выходящих за рамки человеческих возможностей, тогда зачем нам его создавать?

16 июня, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.12.2025
Трамп взял тайм-аут перед введением пошлин на китайские чипы
30.12.2025
Применение дронов-доставщиков отложили из-за правовых коллизий
30.12.2025
Выдавать зарплату в цифровых рублях начнут системно значимые банки
30.12.2025
MWS Cloud: Чем крупнее бизнес, тем больше он внедряет средства ИБ через «облако»
30.12.2025
ГК «Солар» получила патент на бот-фильтр
29.12.2025
В La Poste «погасли экраны» после крупной DDoS-атаки
29.12.2025
Google забирает из России часть оборудования GGC
29.12.2025
Столичный суд прекратил «дело Telegram и WhatsApp»
29.12.2025
OpenAI пытается не стать «Скайнетом»
29.12.2025
В Нью-Йорке молодёжь станут предупреждать о вреде соцсетей

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных