«Умного человека ничем не испортишь. Даже искусственным интеллектом»

BIS Journal №3(58)2025

26 сентября, 2025

«Умного человека ничем не испортишь. Даже искусственным интеллектом»

Несомненно, одной из самых горячих тем в цифровизации сегодня является искусственный интеллект (ИИ). Однако для того, чтобы объективно взвесить все риски, связанные с данным направлением ИТ, нужно хорошо представлять себе особенности тех математических методов, на которых базируются современные технологии ИИ. О том, что происходит в этой области, — наша вторая беседа с академиком РАН Игорем Шереметом.

 

НАЧНЁМ С НАЧАЛА

— Игорь Анатольевич, давайте начнём с самого начала: какие виды информационных технологий охватывает понятие «искусственный интеллект»?

— Я стал интересоваться различными аспектами построения систем, способных выполнять те или иные функции, которые принято считать интеллектуальными, пожалуй, с 1973 года. Будучи первокурсником, я купил книгу Джеймса Слэйгла «Искусственный интеллект» — тогда она только что вышла в издательстве «Мир». А уже в 1977 году группа выпускников, которую я возглавлял, защитила дипломные проекты, посвящённые различным компонентам спроектированной нами системы аналитических преобразований на ЭВМ. Можно сказать, что это был микровариант известных тогда систем — американской MATHLAB (не путать с широко используемой сегодня платформой MATLAB, Matrix Laboratory, для работы с матрицами) и советской «АНАЛИТИК», разработанной под руководством академика Виктора Михайловича Глушкова для ЭВМ серии «МИР». Нам была доступна ЭВМ ЕС-1022 (мейнфрейм с перфокарточным вводом; алфавитно-цифровые дисплеи ЕС-7927 стали массово поставляться где-то года с 1978). И на ней удалось создать систему, которая могла дифференцировать, приводить подобные члены, подставлять значения вместо переменных с последующим упрощением выражений и даже брать интегралы по частям с использованием таблицы интегралов. При этом сами формулы хранились не в обратной польской записи, как в упомянутой системе «АНАЛИТИК», а в схеме Канторовича, что обеспечивало простую и эффективную реализацию всех необходимых преобразований. Конечно, никакого развития эта учебная работа не получила, но благодаря ей нам удалось постичь некоторые базовые принципы построения интеллектуальных систем, которые в дальнейшем неоднократно использовались при решении серьёзных и ответственных прикладных задач.

— Это напоминает Wolfram Alpha — известную базу знаний и набор вычислительных алгоритмов. Создатель Wolfram Alpha Стивен Вольфрам также говорит о создании «вычисляемых знаний», которые связывают между собой символические описания и соответствующие вычислительные процедуры.

— Система Wolfram Alpha появилась на свет гораздо позже — в 2009 году. И это один из множества вариантов создания систем ИИ на базе определённой теоретической модели. В моей жизни было несколько этапов, в рамках которых мне довелось разрабатывать различные универсальные теоретические модели из сферы ИИ и руководить созданием ряда прикладных систем, которые в англоязычных источниках принято называть knowledge-based (то есть основанными на знаниях). Они предназначались для комплексной интерактивной аналитической обработки гетерогенных информационных потоков в темпе их поступления от распределённых источников и с использованием больших объёмов накапливаемых гетерогенных (опять-таки!) данных. По сути, это knowledge-based OLAP.

 

ИСТОКИ ОВЕРХАЙПА

— С нейронными сетями в каких-либо их ипостасях приходилось встречаться?

— Конечно. Однако следует сказать, что нейронные сети в рамках всего комплекса исследований в области искусственного интеллекта были всё это время достаточно маргинальным направлением — оно приносило определённый практический эффект в ряде конкретных задач обработки зрительных образов, аудиограмм и радиосигналов, да и некоторых оптимизационных задач. И этот эффект был следствием использования нейросетей как природоподобной модели вычислений с массовым параллелизмом, то есть как компьютеров с нетрадиционной архитектурой и своеобразными технологиями конструирования. Поэтому резкий всплеск популярности нейросетей и их перемещение в центр общественного внимания как «цифрового двойника» естественного интеллекта стали для меня некоторой неожиданностью: сегодня де-факто нейросети с глубоким обучением — это мейнстрим в сфере ИИ. Более того, под влиянием оверхайпа, равного которого ни одно направление исследований и разработок в сфере ИИ никогда не имело, произошёл сдвиг в сознании всего человечества. По существу, в массовом сознании «искусственный интеллект» и «нейронные сети» — это синонимы.

— У Вас есть объяснение этого феномена?

— Насколько я могу судить, истоки этого оверхайпа уходят в 2012–2015 годы. В 2012 году вышла в свет статья Алекса Крижевски, Ильи Суцкевера и их научного руководителя Джеффри Хинтона, в которой были описаны принципы построения 8-слойной свёрточной нейросети AlexNet. Эта сеть, будучи обученной на тестовой базе данных ImageNet из примерно 1,2 млн изображений, которые соотносились с тысячей классов, решала с ошибкой на уровне 15% задачу классификации изображений на фотографиях с высоким разрешением. При этом считалось, что человек решает эту задачу с ошибкой 5%. В 2015 году появилась 152-слойная нейросеть ResNet, разработанная четырьмя китайскими специалистами из Microsoft, которая на этом же тесте достигла уровня 3%, то есть превзошла человека в точности распознавания. И вот это событие было воспринято не столько научной, сколько околонаучной общественностью как доказательство превосходства нейросетевой парадигмы над всеми остальными направлениями исследований и разработок в области искусственного интеллекта, которые были известны в то время.

Однако наибольший всплеск интереса к нейросетям и настоящий взлёт их планетарной популярности наблюдается с 2017 года, когда были предприняты первые попытки использования нейросетей для работы с массивами текстов и появились большие языковые модели (Large Language Models, LLM), а затем и большие мультимодальные модели (Large Multi-modal Models, LMM). По мере распространения нейроимитаторов текстового, аудио- и видеоконтента (их принято именовать генеративными предобученными трансформерами, GPT) и агрессивного, силового, я бы сказал даже оголтелого, маркетинга росла убеждённость массового пользователя в том, что это и есть искусственный интеллект, способный решать любые задачи не хуже, а то и лучше человека. А массовый пользователь — это экономическая основа успешности ключевых акторов любого сегмента ИТ-рынка.

Результат налицо: например, капитализация основного производителя графических процессоров для нейросетей NVIDIA только за 2023 г. выросла на порядок, точнее в 11 раз (!). Думаю, в аналогичной пропорции выросла прибыль производителей чипов памяти…

Видимо, в рамках журнального интервью нет необходимости углубляться в анализ очевидных базовых ограничений и смысловых нестыковок, присущих нейросетевой парадигме (именно в части нейросетей с глубоким обучением). Гораздо продуктивнее поразмышлять с общенаучных позиций о структуре исследований и разработок в сфере ИИ и его перспективах в обозримом будущем.

 

О КЛАССИФИКАЦИИ ИИ

— Логично. Тогда нужно дать научную классификацию различных проявлений искусственного интеллекта.

— Как мне представляется, естественный интеллект, присущий любому носителю сознания, имеет три уровня — перцептивный, вербальный и конклюзивный (от английского conclusion — умозаключение; не путать с термином «инклюзивный», который соотносится с доступностью, или распространённостью, различных систем и сервисов ИИ). На перцептивном уровне осуществляется онлайн-обработка потоков информации от сенсоров (органов чувств); при этом в каждый конкретный момент времени формируются первичные образы наблюдаемых объектов и реализуется их идентификация, то есть соотнесение с различными характерными признаками, классами, категориями и взаимосвязями между ними. Наблюдаемые объекты и ситуации могут некоторым образом именоваться и, в более широком смысле, отображаться в речь и текст, и это уже вербальный уровень. Однако глубокая интерпретация и в конечном итоге понимание происходящего с последующей генерацией осмысленного отклика на него выполняются на конклюзивном уровне (при этом в процессе интерпретации могут использоваться не только лексемы и фонемы с вербального уровня, но и непоименованные образы непосредственно с перцептивного уровня).

Для моделирования перцептивного уровня достаточно давно и во многих случаях успешно применяется модель нейросети, предложенная ещё в 1943 году американскими нейрофизиологом Уорреном Маккаллоком и математиком Уолтером Питтсом и использованная в 1957 году Фрэнком Розенблаттом в качестве базовой модели для проектирования перцептрона. Имманентным свойством этой модели является обучение (хотя правильнее было бы сказать — настройка) сети посредством обучающих выборок (training data sets) — множеств пар «вход-выход», обеспечивающих вычисление весов связей между нейронами для последующего применения нейросети к поступающим на её вход наборам сигналов в режиме реального анализа.

 

КУДА ВЕДЁТ GEN AI?

— Что нового добавили создатели LLM к классической модели перцептрона и механизма обучения нейросети?

— Большие языковые/мультимодальные модели — это не что иное, как попытка распространить сферу применения нейросетей с глубоким обучением на вербальный уровень, опираясь на весьма странный способ обучения нейросети — прогон всех доступных текстов на конкретном языке с целью извлечения из них информации о допустимых словосочетаниях разной длины и о допустимых разноразмерных текстовых окрестностях каждого слова. Это крайне примитивное лингво-алгоритмическое решение получило глобальное распространение и стало экономически прибыльным для дизайнеров и реселлеров его технических реализаций. Но не столько в качестве средства перевода с одного языка на другой, где оно выглядело бы достаточно естественным, сколько для целого ряда других приложений. А объединяет эти приложения одно общее свойство — отсутствие жёстких требований к качеству и достоверности информации в отклике системы.

Можно согласиться с утверждением, что LLM/LMM достаточно полно отображают синтаксис и поверхностную семантику разговорного языка. Однако претензии апологетов этого направления на решение их девайсами практически любых интеллектуальных задач представляются явно завышенными. BERT-, GPT- и DeepSeek-подобные устройства демонстрируют лишь то обстоятельство, что для прохождения теста Тьюринга, то есть для поддержания беседы на разговорном языке, тестируемому чат-боту совершенно не обязательно подниматьcя до конклюзивного уровня. Забавными выглядят громкие анонсы успешной сдачи чат-ботами экзаменов по дисциплинам четвёртого курса медицинского вуза, которыми ликующие промоутеры LLM/LMM пытаются доказать достижение их изделиями уровня человеческого интеллекта. На самом деле они доказывают лишь то, что, не обладая вообще никакими знаниями, а всего лишь имея доступ к текстам, смысла которых человек, сдающий экзамен, вообще не понимает, можно сдавать экзамены и получать высокие оценки. Ведь для того, чтобы понимать, нужно выходить на конклюзивный уровень, то есть владеть как минимум базовыми понятиями и набором причинно-следственных связей (ПСС) для генерации новых фактов из известных. А зачем, если можно обойтись и без них? И вот это уже настоящий провал…

— Почему?

— Именно здесь находятся истоки прогрессирующей тотальной депрофессионализации и становления имитократии — власти людей-фейков, которые имеют все формальные признаки наличия у них специальных знаний, необходимых для выполнения ими соответствующих специальных функций и принятия решений, между прочим, влияющих на судьбы и жизни других людей. Однако на самом деле упомянутые люди-фейки упомянутыми специальными знаниями, мягко говоря, не обременены и уже только поэтому являются источником перманентной опасности для управляемых ими социотехнических систем (СТС).

Спрос на услуги по настройке ChatGPT в России за последний год вырос в 3,6 раза (!). Мне приходилось слышать, что 87% российских школьников используют чат-боты для выполнения домашних заданий. Трудно подтвердить или опровергнуть достоверность этой цифры, но то, что такого рода технологии довольно быстро получают массовое распространение, — непреложный факт. Причём не только в школах, но и в вузах, и в науке. Сколько рефератов, статей и, наверное, даже диссертаций в области гуманитарных наук пишется чат-ботами, оценить невозможно. Впору разрабатывать и повсеместно внедрять средства тестирования текстов не только на плагиат, но и на «ботогенность». Впрочем, генерация текстов нейроимитаторами и есть по существу алгоритмизованный плагиат!

 

ТАК ВОТ ТЫ КАКОЙ, НАСТОЯЩИЙ ИИ

— А как Вы оцениваете тот факт, что сегодня в сознании массового пользователя AI = ML/DL?

— Знаете, меня всегда интересовало, как и кем придумываются термины, которые потом используются специалистами в области информационных технологий по всему миру. Возьмём, например, понятие «интернет вещей». Вообще-то, вещь — это пассивный ресурс, нечто лишённое активности: шкаф, тетрадь, портфель и т. д. Но то, что обозначает аббревиатура IoT, — это на самом деле сеть сетей, объединяющая устройства, которые реализуют некоторые разумные активные функции. Поэтому называть этот объект следовало бы «интернет устройств» (Internet of Devices, IoD). Но весь мир повторяет: Internet of Things…

Или «естественный язык». Для кого и для чего он естественный? Естественный язык для строгого описания физических процессов — это язык дифференциального и интегрального исчисления в сочетании с узкопрофессиональной лексикой. Для описания химических процессов — язык формул химических веществ и уравнений химических реакций в сочетании с несколько иной, но также специфической лексикой. И так далее. А то, что стали в 60–70-е годы прошлого века называть Natural Language, — это не что иное, как разговорный (Conversational) язык.

Что же касается «AI and ML», то всем понятно, что ML — это один из процессов, присущих AI. И говорить «AI and ML» — это то же самое, что говорить «зоология и изучение жизни рыб». Но это ещё полбеды. В словосочетании «машинное обучение» о чём идёт речь, кто кого обучает? Возьмите машинное доение: там машина доит корову или корова доит машину? Очевидно, что верен первый вариант, значит, machine learning — это процесс, когда машина (компьютер) обучает человека! Но весь мир почему-то интерпретирует этот термин с точностью до наоборот: человек обучает машину! По крайней мере, так считалось до появления нейроимитаторов. Но сегодня мы видим не меньше оснований для инвертированной интерпретации термина ML/DL — машина обучает человека!

Обучает тот, кто больше знает, того, кто знает меньше; тот, кто умнее, того, кто глупее (если, разумеется, последнему хочется стать умнее). Вот мы, собственно, и пришли к «власти компьютеров над людьми»…

Я только что вернулся с международной конференции по цифровому образованию (2025 World Digital Education Conference), которая проходила в китайском городе Ухань. В ней приняло участие порядка 4000 специалистов из 70 стран. Я участвовал в работе форума «Искусственный интеллект и образование», и из всего, что я там увидел и услышал, мне особенно запомнился доклад заместителя министра высшего образования, науки и технологии Индонезии под ярким названием Education in the Era of AI: Teaching Humans how to THINK, то есть «Образование в эру ИИ: обучение людей ДУМАТЬ». Презентация доклада завершалась слайдом с портретом Алана Тьюринга и вопросом из его исторической статьи от октября 1950 года: «Can machines think?». Но в данном случае вопрос звучал так: «Can YOU think?». (В скобках заметим, что Индонезия сегодня — восьмая экономика мира, четвёртая страна по численности населения в 280 млн человек, с динамично развивающейся наукой и техносферой).

 

НЕ О «ВОССТАНИИ МАШИН»

— Но это же не привычная страшилка о восстании машин и порабощении ими человечества?

— Это о том, что растёт поколение людей, которых в англоязычных странах именуют NEET (Non-Employed, Educated and Trained), то есть не работающие, не образованные и не обученные. И самое страшное — ровно то, о чём говорилось в упомянутом мною докладе — не умеющие думать! Потерявшие главный Божий дар — способность мыслить. Вся их жизнь проходит по существу виртуально и состоит в бесконечном пережёвывании информационного потока из интернета. Это тёмная обратная сторона распространения интернет-зависимости людей, крайней формой которой стало общение с разговорным ИИ на основе LLM/LMM. Именно отсюда начинается тотальное оглупление человечества и возникают вполне оправданные опасения относительно возможности получения искусственным интеллектом управления над социумом.

Мы создали и продолжаем развивать техносферу, которая делает жизнь людей всё более комфортной. Однако эта техносфера для поддержания её в работоспособном состоянии требует от социума разнообразных специальных знаний и перманентных интеллектуальных усилий, на которые значительная его часть, отвыкшая думать, может оказаться неспособной. В итоге техносфера может перейти в режим необратимого саморазрушения, которое, в свою очередь, приведёт к деградации, а то и гибели социума…

Иными словами, ИИ на стадии «суперинтеллекта», как любят говорить околонаучные евангелисты нейросетевой парадигмы, может получить управление над социумом совсем не потому, что этот «суперинтеллект» превзошёл хотя бы средний интеллектуальный уровень людей, а потому, что последний понизился настолько, что люди вследствие собственной интеллектуальной лени стали функционировать под управлением наипримитивнейших и непредсказуемых программно-аппаратных объектов, изготовленных опять-таки далеко не самыми толковыми и грамотными инженерами. Которые, очевидно, решали одну-единственную задачу — максимизировать прибыль от массового внедрения своих незатейливых изделий.

 

ХИНТОН ПРОТИВ АЛЬТМАНА

Собственно, в этом, на мой взгляд, лежит корень разногласий Д. Хинтона с С. Альтманом и причина ухода Хинтона из Google в 2023 году Джеффри Хинтон как Учёный с большой буквы и ответственный человек, безусловно, хорошо понимает, к чему ведёт массовое распространение LLM/LMM и чат-ботов на их основе. Мне его поступок вполне понятен. С некоторыми людьми из нейросетевого комьюнити действительно достаточно сложно общаться по причине их фанатичной убеждённости в том, что нет такой задачи, которую не решила бы обученная на примерах «вход — отклик» нейросеть, а все другие направления ИИ — просто никому не нужная схоластика. Ведь нейросеть — это «цифровой двойник» человеческого мозга, и этим всё сказано!..

Однако этот «двойник» не способен качественно решать даже рутинные офисные задачи. Как показало недавнее исследование, проведённое британскими специалистами, лучшая из протестированных нейросетей справилась лишь с 24% таких задач, тогда как остальные участники эксперимента показали себя ещё хуже (1,7% и ниже).

— Кстати, нейрофизиологи сегодня предлагают гораздо более сложные модели человеческого мозга, чем классический перцептрон, который положен в основу всех современных нейросетей любой глубины…

— Конечно! Модель нейрона МакКаллока — Питтса стала достоянием мирового научного сообщества в 1943 году, когда ещё не было универсальных ЭВМ с архитектурой фон Неймана, а он, напомним, анонсировал её в 1946 году. Так что авторы ограничили интеллектуальные возможности нейрона пороговой функцией от суммы уровней его входных сигналов. Однако в наши дни известно, что нейрон благодаря наличию в нём пока ещё плохо изученных микротубул реализует гораздо более сложные функции, и, перефразируя известный постулат, можно утверждать, что нейрон ещё более неисчерпаем, чем атом. Во всяком случае, можно предположить, что это весьма нетривиальный компьютер.

А если говорить о мозге в целом, то он состоит не только из 86 млрд таких компьютеров и триллиона связей между ними, но и из глиальных клеток, реализующих функции памяти. Этого хранилища информации в модели МакКаллока — Питтса нет — от слова совсем, — и нейроматематикам приходится придумывать разные модификации базовой модели, типа, например, рекуррентных нейросетей, чтобы отобразить хотя бы наличие факта запоминания.

Кстати, относительно недавно кто-то из учёных заметил, что в настоящее время на Земле функционирует примерно такое же количество различных вычислительных устройств — 86 миллиардов, и в этом смысле вся наша планета является моделью человеческого мозга. Тогда что представляет собой функционирование этой мегасети устройств — «планетарного мозга» — с позиций нейросетевой парадигмы? Подаём на вход некоторых из упомянутых устройств единичные сигналы, измеряем интенсивность трафика между этими и связанными с ними устройствами, и, применяя пороговую функцию, определяем, какие из них будут «активированы», то есть сформируют единичные сигналы на своих выходах. И далее по всей планете. А что есть в этом случае «глубокое обучение»? Да просто вычисление значений интенсивностей трафика в соединениях между устройствами. Аналогия, думаю, понятна. Она со всей очевидностью показывает, что триллион синаптических связей между нейронами — это не более чем коммуникационная инфраструктура для информационного обмена между ними, и приписывать ей иное, более широкое, участие в функционировании мозга вряд ли уместно.

К тому же несостоятельность эксплуатируемых сегодня подходов к моделированию интеллектуальных функций на основе искусственных нейросетей МакКаллока — Питтса становится более чем очевидной, если сопоставить энергопотребление человеческого мозга (20–21 Вт) и нейросетевых компьютеров, реализующих LLM/LMM (мегаватты), не говоря уже об их габаритах, растущих по мере возрастания числа элементов нейросети, то есть её «интеллектуальных» возможностей.

Уместно заметить, что в наши дни 25% электроэнергии, вырабатываемой энергосистемой США, потребляется центрами обработки данных. Конечно, ЦОДы реализуют массу других функций, и применение больших языковых/мультимодальных моделей пока не главная из них, но совершенно бессмысленный вклад переработки огромных массивов текстов для обучения чат-ботов в эту непостижимую цифру, несомненно, растёт… Как и вклад майнинга криптовалют, коих в мире уже более 8000… Вот и Илон Маск высказался в том смысле, что распространение ИИ уже в 2025 году может быть ограничено в связи с нехваткой электроэнергии…

Но Сэм Альтман и его паства не оставляют усилий, направленных на развитие своего коммерческого успеха...

 

ЧТО ВМЕСТО НЕЙРОСЕТИ?

— Если настоящий интеллект появляется только на конклюзивном уровне, то в чём заключается его принципиальное отличие от вербального уровня, на котором функционируют нейросети и LLM/LMM?

— Приведу очень простой пример. Задаём чат-боту вопрос: сколько лет Овечкину? В базе чат-бота есть уйма текстов с упоминанием знаменитого хоккеиста, относящихся к различным датам. В одном тексте он значится двадцатилетним, в другом — ему 35 лет и т. д. Что ответит бот? А что угодно… Что извлечёт его совершенно непрозрачный недетерминированный алгоритм генерации ответов из накопленной базы («корпуса») текстов и какие слова в него подставит. В лучшем случае выберет биографическую статью из «Википедии». Вот это и есть вербальный уровень, на котором работает бот. Я уж не говорю о нередких случаях так называемых галлюцинаций, когда бот начинает говорить вообще не пойми о чём — во всяком случае, не о том, что интересует его собеседника…

— А как эта задача решалась бы на конклюзивном уровне?

— Если бы эта задача решалась на конклюзивном уровне, то отбирались бы тексты, в которых содержится дата рождения Александра, фиксировался текущий момент времени, и из этих двух значений определялась искомая величина. Но для того чтобы это произошло, бот должен обладать соответствующей причинно-следственной связью (ПСС), то есть умозаключением (conclusion), применив которое он мог бы выдать нам правильный ответ. Таким образом, бот, работающий на конклюзивном уровне, должен иметь базу знаний как совокупность ПСС и уметь её применять для получения таких фактов, которые в явном виде в базе текстов отсутствуют. В математической логике подобные процессы именуются дедуктивным выводом.

 

ОБ ИНЖЕНЕРИИ ЗНАНИЙ

— Откуда эта база знаний возьмётся у бота?

— Для начала от людей, ответственных за обучение ботов. Издавна (с 80-х годов прошлого столетия, когда появились экспертные системы) они именуются инженерами знаний (knowledge engineers). Однако как раз необходимость их участия в обучении всегда считалась специалистами по нейросетям слабым местом систем с базами знаний (БЗ): сначала нужно знания получить от экспертов (этот этап принято назвать knowledge acquisition, то есть приобретение, или извлечение, знаний), да ещё с поправкой на субъективность полученных знаний, их неполноту, недостоверность, противоречивость и так далее. В то же время для обучения нейросети вообще никаких людей не требуется: достаточно направить на входы и выходы сети обучающую выборку и через какое-то время получить готового оракула, способного решить любую задачу из рассматриваемого класса.

Правда, здесь сразу возникает ключевой вопрос: до какой степени использованная выборка репрезентативна с точки зрения применения обученной нейросети в будущем? Иными словами, выборки от сегодняшнего и от завтрашнего дня одинаковы (или хотя бы похожи, что бы под этим ни понималось)? А если нет, то для чего нужно такое обучение и такая нейросеть?!

Похоже, в нейросетевом сообществе не принято оперировать такими ключевыми понятиями инженерии знаний, как интенсионал и экстенсионал базы знаний. Интенсионал — это совокупность ПСС, то есть собственно БЗ. А экстенсионал — это совокупность фактов, которые можно получить из некоторого исходного множества фактов (базы данных), применяя ПСС к ним и новым фактам, полученным на предыдущих шагах применения упомянутых ПСС (неважно, делается это человеком или системой логического вывода, СЛВ). Иными словами, экстенсионал — это множество фактов, каждый из которых можно в явном виде или в результате некоторых цепочек рассуждений получить от системы с конклюзивным ИИ. Сформулировав и передав системе запрос с указанием, какого рода факты нас интересуют, мы получим ровно те элементы экстенсионала, которые соответствуют запросу (в общем случае таковых может быть несколько). При этом за каждым таким фактом будет находиться обосновывающая его цепочка рассуждений (то есть применённых ПСС), которая может быть предоставлена автору запроса для объяснения, почему этот факт имеет место. Нейросеть же не рассуждает, а просто выдаёт вам отклик на обращение, и понять, почему он именно такой, а не другой — это ваша проблема…

Как ребёнка учат перемножению целых чисел? Дают базу фактов, называемую таблицей умножения (1 × 1 = 1, 1 × 2 = 2, …, 9 × 9 = 81), и совокупность правил (то есть ПСС), позволяющих перемножать числа любой длины на основе этих фактов. Таким образом, в рассматриваемом случае экстенсионал — это множество фактов вида x × y = z, где x, y и z — целые числа. А как будут учить умножению в рамках нейросетевой парадигмы? Построят нейросеть с m+n двоичными входами и k двоичными выходами (здесь m, n и k — число двоичных разрядов максимальных допустимых значений x, y и z). И начнут подавать на вход и выход обучающие триплеты, выбранные некоторым случайным образом. Что будет способна выдать нам по запросам сеть, обученная на миллиарде таких триплетов? Как бы странно это ни прозвучало, но я не убеждён, что результатом подачи на вход обученной таким образом сети чисел 80 и 12 будет появление на её выходе числа 960…

При этом в инженерии знаний вопросы самообучения интеллектуальных систем, естественно, также рассматриваются, но это делается на корректном фундаменте индуктивного вывода, целью которого является формирование новых причинно-следственных связей, исходя из фактов и ПСС, уже имеющихся в базе знаний. Это направление ассоциируется в массовом сознании с Data Mining.

Естественно, по мере развития теории и практики нейросетей от множества иллюзий, возникших на волне оверхайпа, пришлось избавляться. Сначала появилось «обучение с учителем», затем «обучение с подкреплением», и наконец — промпт-инженеры (prompt engineers), которые, как сказано в «Википедии», «используют знания в области лингвистики, логики и машинного обучения для структурирования входных данных таким образом, чтобы добиться от модели высокой точности, когерентности и предсказуемости». В общем, от чего ушли, к тому и вернулись…

 

БИБЛИОТЕКАРИ И КОУЧИ

Вот только эффективность и ценность инженера знаний на порядки выше, ибо он выполняет гораздо более нужную работу, чем компенсация примитивизма и «косоватости» базовой лингво-алгоритмической платформы, которая, что ни делай, в силу заложенных в неё сомнительных базовых принципов умнее и полезнее не станет. Инженер знаний, загружая и корректируя ПСС, реально используемые для интеллектуальной обработки входных информационных потоков и обслуживания потребителей результатами этой обработки, перманентно поддерживает интеллект системы в состоянии, адекватном текущим запросам потребителей и особенностям первичных сведений, поступающих от их источников.

Иными словами, промпт-инженер — это библиотекарь, тогда как инженер знаний — это коуч, время от времени корректирующий логику функционирования опекаемой им системы посредством локальной коррекции её базы знаний. При этом фронтенд-библиотекарь — по определению «узкое горло» системы, которая в силу этого принципиально не способна вести обработку достаточно интенсивного потока запросов. Сколько таких специалистов нужно, чтобы подобную обработку реализовать? Сколько им нужно платить? И какова будет полная стоимость владения такой системой? Это все вопросы, не предполагающие практически приемлемых ответов. С другой стороны, бэкенд-коуч никоим образом не лимитирует возможности системы по обработке входного потока просто потому, что он в ней не участвует, ограничиваясь далеко не столь частыми операциями коррекции базы знаний в офлайне.

Как говорится, почувствуйте разницу: люди, обучая друг друга (родители — ребёнка, учитель — ученика, преподаватель — студента и т. д.), передают знания в виде фактов и более или менее общих причинно-следственных связей. При этом человек всю свою жизнь старается вывести из имеющихся у него ПСС новые, более общие, универсальные, инвариантные к особенностям непредсказуемых ситуаций будущего. И в этом, собственно, заключается суть мозговой активности человека. А обучение посредством обучающих выборок — это уровень формирования условных рефлексов наподобие опытов с собакой Павлова. То есть простейших ПСС типа «стимул — реакция».

Кстати, в связи с промпт-инженерами вспомнился забавный случай. Стартап под названием BuilderAI анонсировал создание нейросети Natasha, способной разрабатывать любые программы по заказу пользователей. За восемь лет своего существования эта компания привлекла 500 млн долл., причём среди её инвесторов оказался даже Microsoft. Всё бы ничего, только при ближайшем рассмотрении Natasha оказалась софтверхаусом из более чем 700 программистов, которые и разрабатывали требуемые программы. То есть естественный интеллект выдавал себя за искусственный. Сколько ещё таких «нейросетей» на нашей планете? Это история про человеческую наивность, манипулируемость и некритичность мышления. То есть снова о том, как люди теряют навыки мышления…

 

О МАТЕМАТИКЕ НАСТОЯЩЕГО ИИ

— Наверное, для организации функционирования реально интеллектуальной системы важно учитывать, что упомянутые Вами запросы потребителей к базе знаний и первичные сведения зачастую подвержены изменениям?

— Я уже упоминал в начале нашего разговора, что на одном из этапов моей профессиональной деятельности мне пришлось заниматься созданием систем класса knowledge-based OLAP. Именно в силу крайне изменчивых условий функционирования объектов, для которых разрабатывались эти системы, и, как следствие, вариативности логики обработки поступающей информации реализация упомянутой логики в виде «жёстких», то есть не модифицируемых на местах эксплуатации программ, была практически невозможна. С другой стороны, те модели представления знаний (фреймы, семантические сети, продукции, клаузулы Хорна и т. п.) и принципы построения интеллектуальных («экспертных») систем на их основе, которые в то время (80-е годы прошлого века) были известны, находились заведомо далеко по своим возможностям от требуемого уровня. (Апологеты GenAI называют этот ИИ «слабым», и здесь с ними можно согласиться.) К тому же повсеместно использовавшиеся тогда реляционная модель данных и реляционные СУБД не обеспечивали работу с неформализованными данными: текстовыми, битовыми, мультимедийными.

В этой ситуации я взял на себя смелость разработать и реализовать совершенно «перпендикулярный» подход к моделированию данных и знаний, взяв за основу логические формализмы, оперирующие строками символов — системы Поста и формальные грамматики Хомского. При этом база данных представляла собой множество фактов — строк (текстов), структура которых задавалась базой метаданных — множеством контекстно-свободных порождающих правил. А база знаний, представлявшая собой совокупность расширенных продукций Поста, обеспечивала формирование новых фактов из имеющихся в базе данных и полученных на предыдущих шагах логического вывода. При этом разработанные методы сокращения избыточного перебора в процессе вывода (включая ассоциативный доступ к фактам) исключали комбинаторный взрыв по мере роста объёма баз данных и знаний и обеспечивали обработку входного потока сообщений в темпе их поступления.

 

SIEM КАК ПРИМЕР

— Каких результатов в моделировании ИИ удалось в результате достичь?

— Оценивая то, что было тогда сделано, можно сказать, что была предпринята вполне успешная попытка разработать интеллектуальную технологию, охватывающую единой универсальной моделью представления знаний конклюзивный и вербальный уровни ИИ.

В пользу практичности и универсальности предложенного тогда математического аппарата и основ его реализации свидетельствует его успешное применение в такой, казалось бы, далёкой от исходных областей применения сфере, как системы SIEM (Security Information and Event Management).

SIEM — это системообразующее средство обеспечения кибербезопасности, обеспечивающее выявление на ранней стадии признаков подготовки и проведения сложных кибератак на основе комплексной интеллектуальной обработки потоков сообщений от локальных средств защитного периметра (межсетевых экранов, антивирусов, IDS/IPS, DLP и т. п.). При этом база знаний системы SIEM, во-первых, отображает логику анализа alarm-сигналов и фрагментов сетевого трафика (битовых и/или текстовых строк) от упомянутых средств в жёстком реальном времени. А во-вторых, оперативно корректируется инженером знаний по мере поступления от инженеров по анализу угроз и белых хакеров выявленных ими причинно-следственных связей, которые позволяют вскрыть вторичные глубокие признаки и состояние ведущейся атаки.

Скажу откровенно: более сложного и при этом практически ценного приложения ИИ я не знаю. Это как раз тот случай, когда искусственный интеллект должен превосходить и реально превосходит естественный. Причём интеллект не среднего человека и тем более не NEET-а, а самый что ни на есть изощрённый, носителем которого являются киберпреступники, обладающие просто эзотерическими знаниями в области хакинга и фантастической изобретательностью. И это превосходство ИИ есть величайшее благо для социума! Именно так и должно строиться взаимодействие искусственного и естественного интеллекта.

 

РОЛЬ ИИ В РЕАЛЬНОЙ ЭКОНОМИКЕ

— Каким образом эти представления о функционировании ИИ находят отражение в реальных процессах создания интеллектуальных систем в нашей стране?

— Важно, что в последние годы в нашей стране много и громко говорится о технологической независимости. Однако до сих пор эти дискуссии, да и практические действия также сосредоточиваются на замещении импортной элементной базы и программного обеспечения аналогами отечественного производства, вкупе с призывами выйти на лидирующие позиции по ключевым направлениям научных исследований.

Мне представляется, что основой технологической независимости России должна быть её интеллектуальная независимость. А это подразумевает в первую очередь рациональное целеполагание, то есть выбор реально значимых для нашего общества на данном этапе его существования направлений исследований и точек приложения драгоценного и, скажем прямо, не очень многочисленного интеллектуального ресурса.

У нас, к сожалению, нередко решающую роль в упомянутом выборе играет своеобразный научный снобизм, то есть, по сути, некритичное копирование структуры исследований и разработок, реализуемых в США. Этот снобизм подпитывается оценкой эффективности работы российских учёных на основе индексов Хирша и иных наукометрических показателей, отражающих их вклад в развитие научных направлений, реализуемых в западных странах. Помимо того, что эти направления могут быть для нашей страны, мягко говоря, не особенно актуальны, они ещё и могут быть откровенно бессмысленными и тупиковыми даже для самих упомянутых западных стран.

— А западная модель бизнес-ориентированности передовых разработок эффективна для сферы ИИ и всей области ИТ?

— Бизнес-ориентированная модель спонсирования разработок в ИТ-секторе, которая применяется сегодня, — это, по существу, краудфандинг, что предполагает наличие массового покупателя этих разработок. Поэтому на ИТ-рынке процветают те компании, которые могут путём активного силового воздействия на массовое сознание приобрести указанного массового покупателя. Пример LLM/LMM и, как его иллюстрация, «нейросети» Natasha в этой части особенно показателен.

Другой не менее показательный пример — блокчейн. Промоутеры этой технологии некоторым образом сумели внедрить в массовое сознание восприятие её как чего-то сверхбезопасного и сверхэффективного, сыграв на желании части населения иметь неконтролируемые правоохранительной системой доходы в криптовалюте. А в результате получилось с точностью до наоборот!

 

БЛОКЧЕЙН КАК ЕЩЁ ОДИН ВИД ОВЕРХАЙПА

— Поясните, пожалуйста!

— Смотрите. Взломать систему обеспечения кибербезопасности банка — дело практически нереальное даже для киберпреступников экстра-класса. В то же время получить доступ к терминальному устройству клиента этого банка (установить на этом устройстве свой «троян») — задача хотя и не простая, но вполне решаемая. Как правильно говорят банковские киберсекьюрити, деньги крадут не у банка, а у его клиентов. Однако, даже решив эту задачу, злоумышленник получит доступ к банковским счетам только одного клиента, чьё устройство он поставил под контроль. Но если злоумышленник поставил под контроль устройство одного из участников блокчейна, то он получил доступ ко всему блокчейну, то есть ко всем переводам криптовалюты между его участниками (как к истории, так и к текущим операциям в реальном времени)!

А с другой стороны, правоохранительным органам для получения полного контроля над операциями в криптовалюте всех членов подозрительного социума, использующих блокчейн, достаточно внедрить в него одного-единственного инсайдера. «Большой секрет для маленькой такой компании», каковым он замышлялся изобретателями биткойна, при попытке его некритичного распространения на более-менее многочисленные и по определению незамкнутые социумы на деле оказался совсем не секретом, а наоборот. Я уже не говорю про совершенно бессмысленную репликацию одной и той же базы данных на устройствах всех участников блокчейна.

— Почему это действие Вы считаете бессмысленным?

— Очевидно, что никто из этих участников не будет наращивать память своего терминала до бесконечности. А значит, он будет сливать всю цепочку операций блокчейна в облако, то есть в некоторое централизованное хранилище с непрозрачной системой администрирования и управления, где эта цепочка с весьма ненулевой вероятностью может стать достоянием лиц, внешних по отношению к участникам блокчейна. То есть опять, как и в случае появления профессии промпт-инженера LLM/LMM, — от чего ушли, к тому и пришли, только ещё хуже… В абсолютном выигрыше снова только производители памяти для систем хранения данных... Но ведь реально на это ведутся миллионы людей. И всё это под названием «системы распределённых реестров» на базе всё того же некритичного восприятия популярных за рубежом направлений технологического развития массово проникло в российскую информационную инфраструктуру.

Я уже не говорю о вопросах кибербезопасности с точки зрения установки на упомянутых миллионах интернет-терминалов бесплатного freeware-софта, реализующего доступ ко всем расхайпованным сервисам. Что этот софт в реальности делает, к каким ресурсам получает доступ, никто никогда не проверяет и проверять не будет. А потом изумляемся терабайтным DDoS-штурмам сервисных порталов и изощрённой скрытой инфраструктуре APT-атак с прокси-цепочками из десятков скачков, скрывающих источники этих атак…

 

КТО И КАК ЛОВИТ РЫБКУ В ВОДАХ ИИ

— Это приносит большие дивиденды родине этих технологий?

— Я бы не сказал… Сами американцы, в первую очередь законодательная власть, бьют тревогу относительно состояния своего научно-технологического сектора — того, что они именуют STEM (Science-Technology-Engineering-Mathematics). По их оценкам, США уже давно не в лидерах мирового рейтинга STEM, и способов вернуть их на лидирующие позиции пока не видно. В индексе готовности к внедрению передовых технологий (Frontier Technologies Readiness Index), опубликованном в 2025 году Конференцией ООН по торговле и развитию (UNCTAD), США на втором месте после Китая по уровню исследований и разработок (R&D), на четвёртом месте по уровню развития информационных и коммуникационных технологий (ICT) и, что уж совсем плохо, на 17-м месте в мире по уровню обученности персонала (Skills Rank) и уровню готовности промышленности (Industry Rank).

Деньги и комфортные условия для работы талантливых учёных и инженеров теперь могут предложить многие страны, а население США всё больше и больше состоит из NEET-ов. Всем известно, чем закончилась попытка перенести производство широкой номенклатуры чипов из Китая на территорию США: оказалось, что специалистов, способных решить эту задачу, в Штатах попросту нет (более чем убедительное подтверждение семнадцатых мест в упомянутых Skills Rank и Industry Rank). И введя заградительные пошлины на китайские товары, американский президент их очень быстро отменил в части комплектующих для производимых в США компьютеров, смартфонов и телекома, ибо в ином случае их стоимость выросла бы до величин, исключающих их приобретение массовым покупателем. Это, кстати, к вопросу об американской системе целеполагания, предсказательного моделирования и оценки последствий принятия политических решений на высшем уровне.

Сложившаяся благодаря распространению социальных сетей и мессенджеров американская «экономика внимания», которую правильнее называть «экономикой созерцания», предполагает переток финансовых средств от массового потребителя интернет-контента к наиболее ловким и удачливым его изготовителям (не хочется называть их производителями, ибо никакого производства там нет) и массовое перемещение населения из реального в виртуальный мир, в котором те же NEET-ы и существуют. Известный лозунг Make America great again! — это, с одной стороны, признание того, что Америка сейчас вообще-то не great, а с другой — не очень понятно, как они смогут это сделать с неуклонно тупеющим населением.

Буквально сегодня по новостным лентам разлетелось сообщение о том, что «нейросеть GPT-4 способна в 64% случаев более убедительно отвечать на вопросы оппонентов в социально-политических дебатах и аргументировать свою позицию с учётом воззрений оппонента, чем реальные пользователи глобальной сети». В общем, в США дело явно идёт к тому, что нейроимитатор (AI Being) в обозримом будущем примет участие в президентских выборах, в ходе предвыборных дебатов победит своих оппонентов из числа людей (Human Beings) и будет избран президентом Соединённых Штатов… Это крайняя форма имитократии и есть ровно то самое «восстание машин», о котором Вы упомянули в одном из своих предшествующих вопросов. Однако истоком этого «восстания» является совсем не нейросетевой «суперинтеллект», а человеческая, мягко говоря, инфантильность.

 

О НЕЗАВИСИМОСТИ

К сожалению, мы со своим сформированным за последние тридцать с лишним лет нашей истории провинциальным отношением ко всему американскому продолжаем следовать за США в кильватере, хотя без устали говорим о своём стремлении к научно-технологической независимости. Однако понимаемая таким образом независимость — это в ряде случаев не более чем копирование российскими специалистами далеко не самых нужных нашей стране и не самых качественных зарубежных технологий и образцов техники.

 

О КИТАЕ

— Китай можно рассматривать как пример правильного понимания интеллектуальной независимости на уровне целой страны?

— Да. Именно китайские учёные и инженеры на практике показывают, что такое интеллектуальная независимость страны. Мне вспоминается российско-китайский форум по цифровой экономике 2023 года, где мне довелось быть спикером на пленарном заседании наряду с профессором Гун Ке, исполнительным директором Китайского института стратегии развития искусственного интеллекта нового поколения. Его доклад имел ошеломляющий подзаголовок: From Chat — to AI, from AI — to Real Economy. И здесь все понятия правильно расставлены по своим местам. Сегодняшним чат-ботам очень далеко до «настоящего» ИИ, а ему, в свою очередь, — до задач реальной экономики. И хотя в номинации Chat непонятно откуда взявшийся китайский продукт DeepSeek мгновенно посрамил Сэма Альтмана и его распиаренные изделия, попутно заметно уронив капитализацию NVIDIA, понятно, что это далеко не мейнстрим для практического приложения многочисленного и рафинированного интеллектуального ресурса китайской науки. Хотя, заметим, по количеству публикаций и патентов в области нейросетей учёные из КНР традиционно в лидерах мировых рейтингов. А упомянутый DeepSeek — это как бы побочный продукт эволюции: «Хотите чат-бот? Можем и такое. Нет проблем. И заодно замкнём на себя немалые финансовые потоки краудфандинга разработок чат-ботов».

В таком же русле развития несколько раньше TikTok — китайская альтернатива Instagram и Facebook — продемонстрировал лавинообразное распространение по территории США и совершенно не случайно был признан американским конгрессом угрозой их национальной безопасности.

Китайский сегмент мировой ИТ-индустрии мне знаком не понаслышке. С 2024 года я являюсь почётным членом (Fellow) Китайской компьютерной федерации (China Computer Federation, CCF) и приглашённым профессором-руководителем (Chair Professor) Харбинского политехнического университета — фактически китайской Бауманки. В русле этой деятельности делюсь с китайскими коллегами знаниями в области интеллектуальных технологий поддержки значимого для развития китайской экономики программно-целевого планирования с обратной связью. В первую очередь речь идёт о разрабатываемой мною с 2005 года теории рекурсивных мультимножеств и её приложениях к задачам системного анализа, исследования операций, цифровой экономики, а в последнее время и к естественным наукам (в частности, инжинирингу химических реакций). Данная теория — это не что иное, как математическая основа указанных технологий.

 

…И О РОССИЙСКОЙ НАУКЕ

— Почему это так заинтересовало Ваших учёных коллег из Китая?

— Насколько я могу судить, мой подход заинтересовал коллег обратной методологией разработки ассистивного ИИ, предназначенного для оптимизации управления большими социотехническими системами, то есть, по существу, для реализации обратного перехода «from Real Economy — to AI». Иными словами, не испытывать методом проб и ошибок, какая из вновь появляющихся моделей и технологий ИИ окажется наиболее пригодной для применения в процессах управления экономикой, а разработать технологию, изначально ориентированную на решение задач планирования и управления в больших системах. Причём разработать, начиная с математического аппарата и модели представления знаний и до уровня решения на их основе задач предсказательного моделирования, то есть прогноза последствий от принятия тех или иных управленческих решений.

Так вот. Взяв мультимножества в качестве базовой модели данных и распространив на неё логику разработки расширенных систем Поста, оперирующих строками символов, удалось сконструировать простой в освоении и применении, гибкий и универсальный математический аппарат — мультимножественные грамматики и метаграмматики. Мультимножество отличается от множества наличием в нём повторяющихся элементов. Например, рубль и юань — это множество из двух различимых объектов, тогда как три рубля и пять юаней — это мультимножество из двух мультиобъектов, каждый из которых состоит из своего количества неразличимых объектов. Мультимножества — это естественный язык для представления наборов (комплектов, коллекций) разнородных ресурсов и в конечном итоге ресурсных баз социотехнических и технических систем. Мультимножественные грамматики — столь же естественный язык для представления технологических баз таких систем, то есть множеств входящих в их состав устройств, перерабатывающих входные наборы ресурсов в выходные. Экстенсионал мультиграмматической базы знаний — это множество наборов ресурсов, которые может произвести технологическая база системы, имея её исходную ресурсную базу. Заказ — это набор ресурсов, который нам необходим. Система логического вывода, приняв заказ, формирует множество возможных способов получения выходного мультимножества, то есть возможных производственных цепочек, каждая из которых обеспечивает получение требуемого набора ресурсов. Указав, какими ресурсами мы располагаем, мы получим от СЛВ, по существу, план (целевую программу) работы социотехнической системы по выполнению заказа, которое в данном конкретном случае и есть цель её функционирования. Эта базовая технология может применяться в огромном количестве постановок, модификаций и содержательных интерпретаций для решения широкого круга интеллектуально сложных практических задач большой размерности. При этом все они решаются посредством дедуктивного вывода, то есть применением неизменной базы знаний, соответствующей неизменной технологической базе СТС.

Мультимножественные метаграмматики — инструмент индуктивного вывода, то есть, с практической точки зрения, решения задач синтеза социотехнических систем (например, киберфизических производств), способных выполнять требуемые функции в заданных условиях. При этом в процессе вывода база знаний изменяется, что обеспечивает планирование процессов производства средств производства и последующего применения последних, без ограничений на количество уровней. Например, один 3D-принтер печатает другой, тот — третий — и т. д., а любой из этих принтеров может печатать финальные изделия определённых классов либо их комплектующие. СЛВ обеспечивает порождение всех таких производственных цепочек, а значит, и вариантов построения производственной системы, и селекцию тех из них, которые соответствуют требованиям, указанным в заказе.

Применение мультимножеств в качестве базовой модели данных мультиграмматического фреймворка (МГФ), среди прочих позитивных последствий, позволяет отказаться от древнего матрично-векторного исчисления как математической основы экономических моделей и в перспективе радикально повысить качество макроэкономического планирования и прогнозирования. До настоящего времени межотраслевые балансы рассчитываются посредством операций над матрицами «затраты — выпуск». А теперь попробуйте составить матрицу размерностью хотя бы тысяча на тысячу (для российской экономики это, мягко говоря, не предел), а потом определить на её основе искомые значения модели Леонтьева и оцените, сколько для этого потребуется времени и вычислительных ресурсов. Да ещё с поправкой на хендмейд-ошибки в упомянутых матрицах, которые потом с большим трудом обнаруживаются и исправляются, после чего расчёты необходимо повторять. Насколько мне известно, в Советском Союзе с его высочайшей, уникальной культурой программно-целевого планирования удалось достичь размерности 350 × 350.

МГФ таких проблем в принципе не создаёт, а для проведения необходимых расчётов на практических размерностях (то есть порождения мультимножеств, удовлетворяющих поставленным ограничениям) не нужны никакие суперкомпьютеры. Это позволяет, в частности, легко реализовать перепланирование в случае выявления недостижимости первоначально определённых целей в рамках выполняемого плана (такое возможно в силу изменения текущего состояния технологической и/или ресурсной базы СТС). Либо обоснованно переопределять цели, если их достижение в силу изменившихся условий никакими планами достичь невозможно. Это и есть программно-целевое планирование с обратной связью на основе предсказательного интеллектуального моделирования последствий принимаемых решений и доказательного целеполагания.

 

ПРЕИМУЩЕСТВА ОK AI

Мультиграмматический фреймворк гармонично и эффективно сочетает в себе достоинства технологий конклюзивного ИИ и классической теории оптимизации. Это есть математический фундамент для создания искусственного интеллекта, основанного на объективных знаниях (Objective-Knowledge-based AI, то есть OK AI), в отличие от ИИ, основанного на субъективных знаниях (Subjective-Knowledge-based AI, то есть SK AI) и поэтому наследующего недостатки rules-based экспертных систем 80-х годов, о которых я говорил ранее, и современных нейроимитаторов. В чём преимущество OK AI?

Во-первых, причинно-следственные связи, вносимые в базу знаний, являются верифицированными и юридически значимыми. Во-вторых, система логического вывода, обеспечивающая применение ПСС, также имеет совершенно однозначную, математически строго определённую, а не эвристическую логику. Подобно алгоритмам поиска оптимальных решений в задачах математического программирования. В результате решения, получаемые системами OK AI, как и в классической теории оптимизации, являются доказательно оптимальными и не нуждаются в дополнительном анализе и верификации, что существенно сокращает длительность цикла управления.

С позиций практической реализации и массового применения МГФ — это базовый инструментарий для реализации стека цифровой экономики, от BI до APS/MES. Система логического вывода МГФ естественным образом реализуется на базе мультиагентной модели вычислений и обладает очевидным потенциалом для создания на её основе линейки дешёвых отечественных RISC-компьютеров с нетрадиционной архитектурой и максимально возможным параллелизмом. Я бы мог ещё много говорить об МГФ и его перспективах при соответствующем отношении, но, пожалуй, это выходит за рамки нашего интервью.

— Спасибо! Ну, и пару слов в заключение?

— В заключение скажу лишь одно: умного человека ничем не испортишь. Даже искусственным интеллектом.

 

Вопросы задавала  Елена Покатаева, обозреватель BIS Journal

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

26.09.2025
Selectel обещает вознаграждение за починку Open-Source-софта
26.09.2025
«Неон» перегорел за неделю. Сервис не сумел защитить проданные ему слепки
26.09.2025
Банк России: Мошенники покупают «крипту» на краденные деньги
26.09.2025
Gartner Research предложила три способа борьбы с дипфейками
25.09.2025
«Крипта» вытесняет алмазы в вопросе незаметного перемещения капитала
25.09.2025
В тройку лидеров вошли два чат-бота и их маленький помощник
25.09.2025
Хакеры вооружились ИИ для генерации поддельных CAPTCHA
25.09.2025
RedNovember атакует оборонные структуры и аэрокосмические агентства по всему миру
25.09.2025
Переводы свыше 30 тысяч рублей — только по звонку
25.09.2025
Scoring Day 2025: бизнес готовит фундамент для «космического» ИИ

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных