Учёные из Германии и США после некоторых расчётов пришли к выводу, что контролировать «сверхчеловеческий» ИИ будет невозможно.

Утверждается, что для этого необходимо создать модель поведения робота и провести её анализ. Однако, считают исследователи, и это невозможно, даже если понять цели искусственного интеллекта и методы их достижения. Принципы вроде «не причинять вреда человеку» здесь неприменимы, так как сценарии, которые может разработать крайне развитый ИИ, непредсказуемы.

Плюс, снова встаёт проблема, озвученная когда-то Аланом Тьюрингом. Его тезис заключался в том, что невозможно заранее установить, завершит ли компьютерная программа свою работу с результатом или будет его искать бесконечно. Таким образом, человек не может быть уверен, завершит ли работу программа, написанная с целью предотвращения вреда, который робот в состоянии причинить миру.

Как итог, учёные предлагают ограничить возможности ИИ, отсоединив его от некоторых сегментов интернета или специфических сетей. Но это автоматически уменьшит потенциальную полезность ИИ, добавляют они. И ставят вопрос: если мы не собираемся использовать ИИ для решения задач, выходящих за рамки человеческих возможностей, тогда зачем нам его создавать?

16 июня, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

05.12.2025
Топ-менеджеров больше всего тревожат дезинформация и киберугрозы
05.12.2025
Россияне стали реже отменять самозапрет на кредиты
05.12.2025
Банк России снимет лимиты на перевод средств за границу
05.12.2025
Минцифры представило третий шатдаун-сет
05.12.2025
В «Госуслуги» только через Max?
04.12.2025
Мнение: РКН пытается изменить пользовательские привычки в пользу доверенных российских сервисов
04.12.2025
Хакеры взломали 120 тысяч камер ради порноконтента
04.12.2025
Roblox, FaceTime… кто завтра?
04.12.2025
А следующий — Snapchat (но не Telegram?)
04.12.2025
«1С-Битрикс» пригласила багхантеров для участия в публичной программе

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных