Пожалуй, только дети и неисправимые мечтатели ожидают от прихода нового календарного года неожиданных чудесных изменений. Однако, похоже, в области искусственного интеллекта случилось именно это — завершается история, за развитием которой следил буквально весь мир. Что приходит ей на смену? Об этом очередной разговор с Игорем Шереметом, академиком РАН.
— Игорь Анатольевич, давайте подведём главные итоги развития мировой индустрии искусственного интеллекта (ИИ) в 2025 году. В первую очередь, что происходило с генеративным ИИ (GenAI), к которому, без сомнения, в последнее время приковано внимание как обывателей, так и профессионалов-математиков, а также государственных мужей в разных странах мира?
— Конец 2025 года стал, без сомнения, знаковым периодом для мировой отрасли GenAI. Интересно, что целый ряд важных событий произошёл в 20-х числах ноября. Кратко перечислю их.
Во-первых, достоянием гласности стали экономические параметры компании OpenAI — мирового флагмана генеративного искусственного интеллекта: убыток за третий квартал 2025 года — 11,5 млрд долл., выручка за первое полугодие — 4,3 млрд долл., то есть глубокий финансовый минус. И это при том, что затраты на создание дата-центров для поддержки больших языковых моделей (LLM) оцениваются на уровне 400 млрд долл. в год. Неудивительно, что ситуацию с этим строительством всё чаще стали называть «большим пузырём искусственного интеллекта». Это второй знаковый момент в истории GenAI. Более того, сам Сэм Альтман, сооснователь и генеральный директор OpenAI, в интервью агентству Bloomberg 21 августа 2025 года сказал: «Является ли искусственный интеллект пузырём? Ответ положительный». Чуть позже Джеффри Безос, основатель интернет-компании Amazon, создатель и владелец аэрокосмической компании Blue Origin, также подтвердил это мнение: «Искусственный интеллект — это своего рода промышленный пузырь».
Третий важный аспект — поведение крупнейших инвесторов в отношении развития GenAI. Так, в ноябре 2025 года Питер Тиль, считающийся одним из самых грамотных, толковых и прибыльных инвесторов в сфере высоких технологий, продал свои акции компании NVidia. Напомню, что этот человек — инвестор таких компаний, как SpaceX, Airbnb и Spotify, а ещё учредитель широко известной в узких силовых кругах США компании Palantir, которая занимается технологиями интеллектуального анализа больших данных. Ну, и ещё Питер Тиль входит в круг серьёзных спонсоров американских консервативных политиков, в том числе президента США Дональда Трампа. Так вот, этот бизнесмен очень высокого полёта избавился от принадлежавших ему акций NVidia… Кстати, то же сделал SoftBank — одна из крупнейших в мире финансовых структур (японского происхождения), которая в течение многих лет и весьма успешно занимается инвестициями в высокие технологии. По сути, это ведущий банк во всём мире среди тех, кто занимается инвестициями в хайтек. То есть эти финансисты также посчитали, что инвестиции в Nvidia, связанные с ожиданием бурного роста индустрии дата-центров для LLM, больше не будут прибыльными.
Точка перелома: не только в бизнесе, но и в технологиях Gen AI
— С экономикой GenAI ситуация более-менее понятна. А что думают учёные-математики, которые с таким увлечением развивают технологии во всём мире?
— Четвёртая группа знаковых событий в сфере GenAI как раз связана с именами самых видных профессионалов в этой области. Один из них — Илья Суцкевер. Тот самый Суцкевер, который вместе с Алексом Крижевски и будущим нобелевским лауреатом Джеффри Хинтоном опубликовал в 2012 году статью Image Net Classification with Deep Convolutional Neural Networks, которая сегодня входит в список самых цитируемых за всю историю науки. Там они описали нейросеть AlexNet, которая распознавала статические графические образы гораздо лучше других решений компьютерного зрения. Авторы предложили свой оригинальный подход к анализу изображений на основе больших наборов данных, мощной вычислительной инфраструктуры на базе графических процессоров (GPU) и новой архитектуры нейросети. Именно эта модель обработки данных нейросетью положила начало эпохе глубокого машинного обучения (Deep Learning).
А в конце 2025 года Суцкевер заявил в своих интервью и статьях, например, в журнале Gerwin в конце ноября, о том, что эпоха «масштабирования ИИ» (Age of Scaling), базирующаяся на простом наращивании вычислительных мощностей и объёмов данных, закончилась. Её сменяет новая «эпоха исследований» (Ageof Research), наступает период фундаментальных исследований в области создания суперинтеллекта. Этим, собственно, и намерена заняться основанная им новая компания, которая так и называется — SSI, что означает Safe Super Intelligence. И это будет не классическая коммерческая хайтек-компания, ориентированная на бизнес, а команда исследователей, сосредоточенная на развитии фундаментальной математической науки.
Масла в огонь подлил и Ян Лекун, ещё одна влиятельная фигура в мире генеративного ИИ, в недавнем прошлом — главный научный сотрудник компании Meta по искусственному интеллекту. С начала января он работает в основанной им новой компании Advanced Machine Intelligence Labs. Расставание с компанией Meta было достаточно громким и скандальным. В ноябре 2025 года Лекун громко объявил о том, что LLM — это тупиковая ветвь искусственного интеллекта, он считает большие языковые модели принципиально ошибочными. Дальше последовали скандалы с манипулированием бенчмарками GenAI-моделей компании Meta, волна увольнений из подразделения ИИ, публичные взаимные обвинения Лекуна и Цукерберга.
Но, оказывается, проблемы накопились не только в компании Meta. Днём 24 ноября 2025 года Сэм Альтман, глава OpenAI, разослал всем сотрудникам циркулярное письмо, в котором оповестил, что компанию ждут тяжёлые времена, возможно падение выручки до 10% в следующем году. Однако он призвал сотрудников не предаваться унынию, поскольку отныне OpenAI будет заниматься суперинтеллектом…
Общий знаменатель — будущий суперинтеллект
— А что вместо GenAI?
— Интересно, что следующим этапом в развитии искусственного интеллекта после завершения «эпохи GenAI» все упомянутые профессионалы и бизнесмены от ИИ видят создание суперинтеллекта. Правда, у каждого из них — собственное представление о том, как этот суперинтеллект будет выглядеть.
Так, Илья Суцкевер (и его компания SSI) полагает, что суперинтеллектуальная программная система не только обладает энциклопедическими знаниями (это уже вроде бы достигнуто), но и способна «обучаться» новым знаниям в такой же манере, как это делает человек. С той лишь разницей, что у этой компьютерной системы не будет биологических ограничений в осваивании новых знаний и умений, свойственных мозгу человека. То есть она сможет бесконечно масштабироваться, но не в части вычислительной производительности, а в отношении «масштабирования знаний».
Компания Яна Лекуна Advanced Machine Intelligence Labs также делает ставку на дальнейшее развитие способностей компьютерной системы к обучению: она будет использовать не только тексты, но и другие типы данных (включая видео и пространственные данные) для того, чтобы понять, как устроен тот физический мир, в котором действует умная программная система. С этой целью такая система получит навыки самостоятельных рассуждений, планирования и анализа изменения данных во времени, а не в режиме диалога с человеком, как это происходит сегодня. Сам Ян Лекун называет этот подход продвинутым машинным интеллектом (Advanced Machine Intelligence, AMI), что отражено в названии компании.
Что именно подразумевает под будущим суперинтеллектом Марк Цукерберг, пока не раскрывается. Правда, можно сделать некоторое предположение, если учесть, что 24 ноября 2025 года произошло ещё одно знаковое событие: президент США подписал указ о запуске проекта The Genesis Mission. Там он с присущим Дональду Трампу пафосом говорит о том, что Америка начинает новую эпоху в искусственном интеллекте. И те прорывы, которые планируется совершить в рамках этой инициативы, сопоставимы с Манхэттенским ядерным проектом.
— Как будут выглядеть эти прорывы в ИИ?
— Речь идёт о том, что будут получены прорывные результаты за счёт обучения того, что в указе называется domain-specific foundation models, то есть проблемно ориентированных фундаментальных моделей. Эти модели будут обучаться на тех огромных наборах данных (датасетах), которые есть в распоряжении различных американских научных коллективов и сообществ. И в результате валом пойдут прорывы и открытия…
То есть в американском Белом доме тоже понимают, что сегодняшний генеративный искусственный интеллект — это пузырь. Но публику нужно убеждать в победной траектории американских высоких технологий, а значит, нельзя допустить, чтобы этот пузырь лопнул у всех на глазах, и поддержать государственным финансированием. Очень похоже, что OpenAI уже нацелилась на этот «кусок пирога», и Сэм Альтман в своём письме имел в виду именно тот суперинтеллект, который описан в проекте The Genesis Mission.
Кстати, можно уже наблюдать движение в данном направлении. В январе OpenAI объявила, что очередная версия их продукта ChatGPT решила несколько задач Эрдёша.
Напомню, что Пол Эрдёш — это талантливый «странствующий» математик венгерского происхождения. В пору своей активной научной деятельности во второй половине XX века он, подобно Давиду Гильберту в начале этого же века, сформулировал целый список математических проблем, которые в то время не поддавались решению учёных умов. И вот с осени 2025 года, в том числе в январе 2026 года, модели OpenAI начали находить решения математических проблем из этого списка Эрдёша. Видите, как всё красиво складывается?! Президент США 24 ноября 2025 года подписал указ о создании суперинтеллекта, а уже к январю 2026 года ChatGPT решил ряд фундаментальных проблем, над которыми безрезультатно бились лучшие умы человечества…
Тут и китайцы активизировались: опять-таки в ноябре 2025 года компания DeepSeek представила свою модель DeepSeekMath-V2, которая ориентирована на решение сложных математических задач.
— Суперинтеллект The Genesis Mission в действии?
— Для непосвящённого человека это, действительно, может выглядеть как суперинтеллект: люди ведь не могли решить задачу, а нейросеть — смогла. Но на самом деле и DeepSeek, и ChatGPT — это не более чем инструменты, которые помогают в работе людям-математикам.
Если внимательно почитать текст указа о запуске The Genesis Mission, можно увидеть, что речь там идёт, во‑первых, об огромном инфраструктурном проекте American Science and Security Platform — не случайно его исполнителем назначено Министерство энергетики США. Это министерство должно создать экспериментальную платформу искусственного интеллекта. Она объединит в единую сеть суперкомпьютеры национальных лабораторий, квантовые и другие экспериментальные установки, облачные среды для ИИ-решений, а также соберёт вместе массивы научных данных в рамках единой системы совместных научных исследований. На основе этой платформы будут создаваться и функционировать различные инструменты цифрового моделирования, теоретические модели из разных областей науки, будет обеспечиваться многоуровневый доступ к данным.
В списке индустриальных партнёров проекта мы видим знакомые имена: Nvidia, AMD, Dell, HPE, Oracle, а также крупных провайдеров облачных сервисов и разработчиков GenAI, например, компанию Anthropic со своим продуктом — семейством LLM чат-ботов Claude.
В качестве приоритетных направлений прорывных исследований с помощью данной платформы названы: энергетика, материаловедение, биотехнологии, квантовые технологии, микроэлектроника и ядерные установки.
Движение к суперинтеллекту по-американски
— Сегодня ИИ преподносится публике как некая сверхидея любого развитого современного государства. Однако похоже, что в разных странах мира эта сверхидея понимается по-разному. Например, наш российский подход, который декларируется на высоких уровнях, предполагает в конечном итоге создание интеллектуальной цифровой экономики. А для США ИИ — это скорее инструмент обеспечения глобального влияния. А Вы как это видите?
— Что касается связки «США и ИИ», здесь нужно принимать во внимание несколько моментов. Прежде всего, безусловно, мессианство — это одна из основ американского менталитета. Лозунг Make America Great Again — это оттуда. И в проекте The Genesis Mission все задачи нацелены на глобальное доминирование США в области ИИ: они начинаются с укрепления национальной безопасности, обеспечения энергетического превосходства, повышения производительности труда и уходят в технологическое превосходство Америки и её глобальное стратегическое лидерство. Как говорится, написано чёрным по белому. Это определяет другие отличительные черты реализации сверхидеи США в области ИИ.
Для одной из этих черт у меня есть отличное название — термин, который я встретил в одной из публикаций: «рекламный балаган Альтмана». В самом деле, этот балаган на тему GenAI реально накрыл планету Земля! Иначе нельзя: мир должен верить в мессианскую идею глобального превосходства американского ИИ. И поэтому продолжается поток публикаций о том, что то одна, то другая GenAI-модель решила неразрешимую ранее проблему математики и т. п. И это вторая отличительная особенность движения США в области ИИ.
И, несмотря на то что Ян Лекун громко заявляет: «LLM — это тупиковая ветвь искусственного интеллекта», а Илья Суцкевер призывает заканчивать с бесконечным масштабированием LLM и соответствующим наращиванием количества GPU в дата-центрах, этот развесёлый пиар продолжается. Сэм Альтман, руководитель OpenAI: «Мы построим центр обработки данных на 10 ГВт!» «А мы построим дата-центр на 5 ГВт!» — вторит ему Марк Цукерберг. Это третья отличительная особенность развития ИИ в США: позиции руководителей бизнеса и ведущих учёных могут быть диаметрально противоположными.
— Как же они совмещаются в головах людей?
— Всё достаточно просто. Бизнес в США — это отдельная история, уходящая корнями в рыночное саморегулирование. И возможности интеллектуальной обработки данных каждая компания использует как хочет. Но вот незадача — бизнеса на GenAI не получилось. Поставщики GenAI-услуг не смогли предложить рынку ни одного такого суперсервиса, который смог бы обеспечить возврат тех огромных инвестиций, что уже вложены в инфраструктуру LLM. И они не появятся, это сегодня уже понятно: бизнес не смог получить от GenAI никакого нового качества: сотрудник тратит время не на собственную работу по подготовке нужного документа, а на проверку той чуши, которую ему выдаёт чат-бот… В результате корпоративный спрос на сервисы LLM практически сошёл на нет: 95% корпоративных пользователей отказываются от них. И именно эти сервисы относятся к генеративному искусственному интеллекту и завершающемуся этапу развития ИИ, в отличие от следующей ступени — суперинтеллекта, где ИИ-инструментами будут пользоваться учёные и нести в остальной мир новые прорывные технологии и услуги. Теперь миру будут «продавать» следующий блестящий фантик — The Genesis Mission, «Манхэттенский проект» в сфере ИИ…
— А что Вы скажете о только что объявленном намерении И. Маска создать орбитальный дата-центр из миллиона спутников?
— Маску очень хочется стать первым в истории человечества триллионером… А если серьёзно, то это опять-таки вложения в инфраструктуру ИИ. То есть еще больший пузырь… Я не обсуждаю великое множество технических проблем, которые предстоит решить для достижения этой сверхамбициозной цели уровня «Звездных войн» Рейгана. Здесь приходят на ум слова нашего замечательного телеведущего Н. Н. Дроздова: «Давайте не будем им мешать и просто понаблюдаем за ними»… Не увидим ли мы за орбитальным дата-центром уши упомянутых «Звездных войн», только на новой системотехнической и технологической основе?
А что у нас?
— Кстати, Министерство энергетики Российской Федерации также озаботилось созданием новых энергетических мощностей для центров обработки данных, где должны запускаться ИИ-решения. Этому вопросу недавно было посвящено специальное заседание Совета Федерации «Актуальные вопросы развития российских вычислительных мощностей». Там замминистра энергетики России Пётр Конюшенко сообщил, что до 2030 года необходимо создать дополнительные энергомощности для обслуживания задач ИИ на уровне 2–2,5 ГВт, и далее они должны наращиваться приблизительно на 20% ежегодно. И под эгидой Минэнерго РФ уже создана соответствующая рабочая группа, куда вошли представители госвласти, энергетических и хайтек-компаний.
— Знаете, я наблюдаю за тем, что происходит в области GenAI в нашей стране и мире, со смешанным чувством. С одной стороны, приятно, что всё, что я говорил в предыдущих интервью, сбывается. С другой стороны, я слышу разговоры о том, что надо выделить триллионы рублей на строительство новых электростанций, которые будут питать новые грандиозные центры обработки данных, начинённые мириадами графических процессоров, которые реализуют сервисы LLM.
И это несмотря на то, что ТАМ технологии генеративного ИИ списываются в утиль: в указе Launching The Genesis Mission аббревиатура LLM не встречается ни разу! Там есть domain specific foundation models (DSFM). Но это вовсе не domain specific LLM! Любая (!) фундаментальная математическая модель, разработанная для той или иной предметной области, может относиться к множеству DSFM. Мы по привычке, укоренившейся с 90-х годов прошлого века, наступаем на те же грабли, с которых Америка уже уходит, и выступаем промоутерами тупикового технологического направления…
В каком-то недавно опубликованном рейтинге степени внедрения искусственного интеллекта, который, надо полагать, формировался из цифр степени охвата населения стран LLM-чат-ботами, Россия находится где-то в районе 160-го места. По-моему, ниже Кении. Поверьте, это показатель не отсталости, а здравомыслия! И нам совсем не надо стремиться обогнать Кению, как в стайерском забеге на 10 км.
Я поддерживаю обеими руками то, что говорят у нас на высоком уровне про создание интеллектуального фундамента передовой цифровой экономики России, про умную роботизацию отечественной промышленности и т. п. Именно сюда надо бы направлять триллионы рублей, а не в «прожорливые» дата-центры для GenAI и электростанции, обеспечивающие их электропитание и охлаждение.
— Надо сказать, что существенная ограниченность GenAI понятна и российским специалистам в GenAI. Подводя итоги 2025 года, они отмечают, что в части реальных практических применений можно говорить только лишь о создании некоторых кусочков кода.
— К сожалению, понятна эта ограниченность далеко не всем. И у нас наблюдается расслоение как специалистов, так и лиц, принимающих решения, на здравомыслящих и продолжателей хайпа GenAI. И вторых ещё немало, даже в научной среде. «Давайте поручим искусственному интеллекту рецензирование научных статей, направляемых в журналы» — это один из реальных примеров. Есть деятели науки, которые всерьёз считают, что некий сервис GenAI обладает более широкими и глубокими знаниями, чем авторы статей. Значит, ему можно поручить и сами исследования? Ведь написание новых статей — это всего лишь оформление результатов исследований…
Движение к суперинтеллекту по-китайски
— А как обстоит дело с реализацией сверхидеи ИИ в Китае? Вы ведь регулярно бываете там и располагаете соответствующей информацией?
— Знаете, недавно я прочитал интересную статью на эту тему. И там встретилась фраза, которая мне очень понравилась: «Между генерированием слов и деланием дел — большая разница». Речь идёт о том, что объёмы производства промышленных роботов в Китае превышают американские показатели в разы. Американцы, которые занимаются тем самым «генерированием слов» посредством LLM, вряд ли смогут догнать по уровню развития китайские роботизированные производства. В этом они сами признаются после посещения производственных компаний в Китае.
Китай отличает комплексный подход к внедрению технологий ИИ (именно разных технологий ИИ, а не GenAI!). На современном этапе этого процесса наибольшее внимание уделяется киберфизическому промышленному производству, поскольку оно составляет основу конкурентоспособности КНР в мировой экономике. В декабре прошлого года я принимал участие в международной конференции, которая состоялась в Харбине. Вообще-то она была посвящена достаточно узкопрофессиональной теме — интеллектуальному интернету вещей (AI IoT). Но рассуждения экспертов можно описать так: наступает эпоха Post LLM AI, как нужно действовать?
И под эту большую текущую цель — создание китайской промышленности на основе AI IoT — подбираются наилучшие методы и технологии, включая передовые достижения в цифровизации управления. Все самые передовые технологии формирования управленческих решений и организации функционирования больших социотехнических систем там, естественно, реализуются. И всё это делается без какого-либо хайпа и громких публичных заявлений. Мне это известно, поскольку по роду деятельности приглашённого профессора Харбинского политехнического университета я достаточно хорошо ориентируюсь в происходящих процессах.
— То есть китайские товарищи прагматично относятся к технологиям и инструментам ИИ?
— Предельно прагматично, здраво и спокойно. И это видно, в частности, в результатах развития оборонного комплекса и вооружённых Сил КНР. Я присутствовал 3 сентября 2025 года в Пекине на военном параде в честь 80-летия победы над Японией и окончания Второй мировой войны. В числе приглашённых лиц наблюдал парад с трибуны дипкорпуса и видел очень близко всю военную технику, которая участвовала в параде. Это была наглядная демонстрация плодов спокойного, рационального проектирования поступательного развития такого большого современного государства, как Китай.
Там действительно нет того самого «генерирования слов», но есть «делание дел».
О рисках сверхинтеллекта
— Фанаты GenAI любят повторять страшилки о том, что генеративный ИИ, который уже разрешает математические проблемы, неподвластные человеческому уму, вот-вот перехватит управление над человечеством.
— Если Вы верите тому, что сообщает ChatGPT, значит, он уже управляет Вами. И страшилка, которую Вы описали, — это реальность, а не потенциальный риск. Пусть человек на своём рабочем месте, скажем, управленца среднего звена должен создать некий документ. И он строит свою работу на информации, которую получает от ChatGPT. Затем отправляет готовый документ своему начальнику, а он тоже первым делом обращается к ChatGPT. В результате всё приходит к человеку-исполнителю, который должен точно выполнить всё, о чём сказано в документе, имеющем для него силу приказа. Кто в этой истории управляет целыми рабочими процессами? ChatGPT, пресловутый генеративный искусственный интеллект.
И как тут не вспомнить статистику самой компании OpenAI: до 27% ответов ChatGPT — это галлюцинации. Вдумайтесь только! 27%! Мы в технических системах бьёмся за две девятки, три девятки после запятой, а тут 27%, и это нисколько не смущает апологетов передачи управления генеративному ИИ. Кстати, сам Сэм Альтман запретил использовать ChatGPT в медицинских и юридических услугах: сервис, дескать, не дает медицинских и правовых рекомендаций, а просто ведёт беседы о здоровье и правовых аспектах. Стало быть, глава OpenAI что-то знает насчёт того, что ChatGPT на самом деле никакой не интеллект, а статистический аппроксиматор речи.
— Однако в середине января появилась новость о том, что нейросеть Grok от Илона Маска официально станет частью военной платформы GenAI.mil, создаваемой для Министерства войны США. Все 3 млн сотрудников Пентагона всех уровней будут объединены в единый контур мониторинга и управления на основе некоторой «нейростратегии». А есть ещё критические технические системы: атомные электростанции, нефтехимические предприятия со своими рисками промышленных катастроф. Как это согласуется с 27% галлюцинаций?
— Это уже просто конец человечества. Полагаю, что людей, которые в нынешнее время в разных странах настроены принимать решения по продвижению, финансированию и развитию такого рода средств, нужно переориентировать на осмысленные подходы к интеллектуализации таких чувствительных государственных сфер, как госуправление, вооружённые силы, промышленность. Иначе человечество получит техносферу, которая в кратчайшие сроки принесёт ему столько проблем, что поставит его на грань выживания.
— Но ведь человечество давно занимается вопросами безопасности в критически важных сферах?
— Да, это так. Но мы всегда работали в классической парадигме информационной безопасности. Есть корректно функционирующая система, спроектированная на основе адекватных математических и естественнонаучных моделей, которая в отсутствие деструктивных внешних воздействий не то что не является источником угроз использующему ее социуму, но содействует ему в решении стоящих перед ним задач — для этого она и создавалась. Разрабатываемые механизмы и средства нейтрализации упомянутых воздействий направлены на исключение возможности некорректного функционирования системы вследствие деятельности потенциальных злоумышленников (нарушителей). Однако то, что система при отсутствии таковых работает разумно и не во вред пользователям, сомнению не подвергается. И когда кибербезопасники говорят о доверенном (trusted) искусственном интеллекте, то имеют в виду защищенность средств ИИ от деструктивных воздействий на эти средства (а также на их инфраструктуру и обучающие датасеты) на этапах их создания (разработки) и эксплуатации. При этом опять-таки модели и методы, реализуемые указанными средствами, считаются безупречными — «жена цезаря вне подозрений».
В случае LLM ситуация принципиально иная: система спроектирована на основе ущербной теоретической модели и поэтому сама по себе служит источником угроз в глобальном масштабе, хотя авторы ChatGPT, DeepSeek, BERT, Claude, Gemini, Qwen и т. д., вне всякого сомнения, не являются злоумышленниками в смысле упомянутой классической парадигмы, а наоборот, движимы благородной идеей — принести людям ощутимую пользу. Такое положение дел настойчиво требует от нас расширения области понятия «доверенный ИИ» на упомянутые модели и методы. Об этом же говорил мне не так давно президент РАН Г. Я. Красников. И, следуя его рекомендации, мы будем осознанно расширять сферу ответственности нашего научного совета «Информационная безопасность», в который входят специалисты всех отделений РАН, что создает благоприятные исходные условия для рассмотрения вопросов адекватности моделей и методов ИИ применительно к самым разным приложениям.
С другой стороны, одно из направлений деятельности нашего совета — информационно-психологическая безопасность. Число судебных исков к OpenAI растёт, в том числе в связи с психическими заболеваниями и даже суицидами после длительного общения с ChatGPT. Но и это не самое главное. Важно видеть очевидное: человечество никогда не было так легко манипулируемо! Рекламный балаган Альтмана привёл к тому, что аудитория ChatGPT уже достигла 800 млн человек. Представьте себе эту цифру: 800 млн людей, которые доверяют этому сервису решение своих задач! И они не только рисуют с помощью GenAI картинки для личных Telegram-каналов. Они, например, разрабатывают клоны ChatGPT, помогающие писать диссертации и при этом обходить механизмы контроля Диссернет. И не только не понимают, что наносят вред российской науке, но ещё и гордо заявляют об этом, рассылая пресс-релизы. Потому что, с их точки зрения, они создали суперинтеллект, способный создавать тексты диссертаций. Сотрудникам «Диссернет» приходится срочно браться за дело и учиться отлавливать и такие «результаты жизнедеятельности» GenAI.
А сколько студентов используют эти инструменты для изготовления курсовых работ, дипломов? Думаю, эта цифра гораздо ближе к 100%, чем к 0%… Ещё раз хочется повторить мысль из статьи китайского автора: давайте делать дела, а не генерировать слова.
Жизнь после GenAI: как её организовать?
— Давайте… Как Вы полагаете, что стало главной причиной неудачной истории GenAI? Может быть, была сделана ставка не на ту математическую «лошадку»? Впрочем, нейросетевое направление само по себе продолжает развиваться, регулярно появляются новые достижения, скажем, в области видеоаналитики.
— Как всегда, причин несколько. Одна связана с терминологией. На мой взгляд, стоит вообще отказаться от использования термина «искусственный интеллект», поскольку он открывает широчайшие возможности для всевозможных словесных манипуляций и дезориентации человечества. В рамках бытовой, повседневной логики искусственный интеллект — это что-то типа искусственной кожи, то есть тоже человеческий мозг, только сделанный из другого материала.
История с LLM прекрасно нам показала: неадекватные модели приводят к неадекватным результатам. Мы стремимся сделать нечто, подобное природе, и на этом пути создаем множество теоретических и практических моделей, причем, каждая из них природоподобна по-своему и в своей степени адекватна реальному объекту (явлению). Помните, как в фильме Андрея Тарковского «Андрей Рублёв» монах приделал себе крылья и сиганул с колокольни? И пока летел, размахивал этими крыльями и радостно кричал: «Лечу!» И был в этот момент подобен птице — субъекту природы. А с другой стороны, самолёт — он тоже природоподобен, по-своему реализует функцию перемещения по воздуху. А планер — по-своему. А дирижабль — по-своему….
В этом смысле и систолические структуры, и клеточные автоматы природоподобны. И те, и другие — структуры с массовым параллелизмом, как, кстати, и нейросеть. Но начиная с модели перцептрона Розенблатта, считается, что именно модель нейрона МакКаллока-Питтса 1943 года лучше всего описывает то, как реально устроен и функционирует человеческий мозг. А это очень примитивное представление: нейрон есть пороговый элемент, который срабатывает по результатам взвешенного суммирования по всем его входам. Физиологи сегодня говорят о совершенно иных принципах функционирования человеческого мозга, согласно которым нейрон — это весьма нетривиальный компьютер, а функции памяти реализуются глиальными клетками.
Плюс к этому идея, положенная в основу технологии LLM, — тоже очень примитивная: предсказание следующего слова, исходя из предыдущих. Но даже этот примитивный механизм можно было реализовать на любой другой математической и технологической базе, и это могло быть дешевле и эффективнее, но почему-то используется модель нейросети МакКаллока — Питтса, реализация которой приводит к дата-центрам с миллионами графических процессоров. То есть получилось, что на один примитивный подход наложили другой, тоже крайне примитивный, а в результате получили то, что получили... Насколько я понимаю, именно это Джеффри Хинтон пытался объяснить своим молодым коллегам, но это ему не удалось. И в 2023 году он покинул Google. А в 2024-м стал нобелиатом….
— То есть нужны иные математические основания для создания интеллектуальных систем?
— Нужно разрабатывать технологии, ориентированные на те задачи, решение которых мы хотим получить от компьютерных систем. Именно под целевую задачу нужно создавать модель представления знаний, а затем под неё конструировать соответствующую компьютерную архитектуру, которая, в числе прочего, обеспечит минимизацию избыточного перебора при наличии комбинаторных задач. И вот тогда, возможно, мы придём в научных исследованиях к лучшему пониманию того, как работает человеческий мозг.
— А на практическом уровне разработок ИИ от чего следует отталкиваться?
— Как минимум вместо термина «искусственный интеллект» (Artificial Intelligence, AI) использовать более работоспособные и корректные термины: HI (Human Intelligence, человеческий интеллект) и CI (Computer Intelligence, компьютерный интеллект). Мне очень нравится термин «ассистивный», иногда употребляемый в сочетании с «ИИ». Ассистивный, то есть помогающий, содействующий, ИИ-ассистент. А это и есть CI. В рамках такого подхода работу интерактивной интеллектуальной системы можно представить как взаимодействие человеческого интеллекта, который при необходимости формулирует конкретные задачи, и компьютерного интеллекта, который их решает. Естественно, HI постоянно обучает CI (в последнее время среди специалистов по ИИ получил хождение термин Learning-on-the-Job, то есть обучение в процессе работы). И в этом случае удастся избавиться от плутоватого хайпа на тему того, что некая GenAI-модель решила ещё одну проблему Эрдёша. Потому что будет очевидно: проблему решал человек, используя CI в качестве инструмента реализации некоторых функций, которые HI несвойственны. И устроители «рекламных балаганов» перестанут дурачить непосвящённых людей, ставя знак равенства между HI и CI, поскольку будет очевидно: Computer Intelligence по своей структуре, алгоритму функционирования и способам реализации вовсе не претендует на то, чтобы имитировать человеческий интеллект. А служит надёжным и эффективным помощником в решении сложных интеллектуальных задач.
Вот такое сочетание человеческого и компьютерного интеллекта и есть, собственно, суперинтеллект, состоящий из двух гармонично сотрудничающих компонентов: Human Intelligence и Computer Intelligence.
О практической реализации Computer Intelligence
— С этой точки зрения какие технологические основы, на ваш взгляд, наилучшим образом подходят для создания Computer Intelligence? Вряд ли стоит говорить только о классическом ИИ, тем более что он тоже появился на свет не вчера, по возрасту недалеко ушёл от модели нейрона МакКаллока — Питтса…
— В моём понимании все задачи, которые традиционно относились к сфере исследования операций, экономической комбинаторике, — это и есть Computer Intelligence. Потому что человеческому мозгу в принципе не под силу поиск наилучшего решения в большом пространстве решений. Но человек выступает в тандеме с CI как коуч, который, предварительно обучив CI логике поиска решений, формулирует для него комбинаторные задачи.
Отличный пример такого подхода — SIEM-системы в кибербезопасности, которые обеспечивают распознавание кибератак на максимально ранних стадиях их подготовки. Здесь мы видим правильное сочетание человеческого и компьютерного интеллекта: человек закладывает в систему некие умозаключения (причинно-следственные связи), которые позволяют распознавать признаки готовящихся или уже осуществляемых кибератак. А компьютерный интеллект реализует это распознавание в соответствии с теми знаниями, которые он получил от коуча.
В принципе, приблизительно то же самое делает и учёный, занимающийся своим исследованием: формирует цель и логику мысленного эксперимента, а компьютер этот эксперимент реализует, то есть, в конечном итоге, помогает перебирать миллиарды возможных ситуаций и предоставлять результаты перебора, которые удовлетворяют критериям, заданным ученым-организатором эксперимента. Только в этом случае задача исследователя иного уровня — добывание новых знаний.
— Вы упомянули, что один из основополагающих элементов разработки сверхинтеллекта, понимаемого как сочетание Human Intelligence и Computer Intelligence, — это создание модели представления знаний, отвечающей поставленной задаче в её актуальной постановке и с учётом всех известных рисков. На какие наработки прошлого имеет смысл опираться? Системный анализ, исследование операций или только классический логический искусственный интеллект?
— В моём понимании, исследование операций — это одна из наиболее полезных и глубоко разработанных областей применения компьютерного интеллекта. Хотя этот вид математики никогда не причисляли к ИИ в силу того, что там не было логического вывода в явном виде, на самом деле он там есть. Просто те учёные, которые разрабатывали, например, симплекс-метод, задачи исследования операций формулировали, не обращаясь к формализмам математической логики. Только и всего. А на самом деле это один из частных случаев решения комплекса логических задач, которые объединены единственной целью — оптимизация при ограничениях. По сути, это один из языков для решения задач оптимизации в условиях ограничений, который оперирует привычными математическими объектами: векторами и матрицами. В отличие от того ИИ, который реализуется в ранних экспертных системах и называется слабым. А слабый он лишь потому, что оперирует высказываниями, некими вербальными конструкциями, которые могут и не иметь прямого отображения в виде математических объектов.
Но и там, и там есть аксиоматика — правила вывода, применение которых обеспечивает построение новых объектов, начиная от аксиомы, соответствующей исходным данным, — и в итоге получение решения задачи, если оно существует. И все они составляют пространство Computer Intelligence, где есть сегменты и исследования операций, и системного анализа, и много других научных направлений. В частности, популярная сегодня технология мультиагентных систем, которая, впрочем, известна с 80-х годов прошлого века. Но все это, подчеркну еще раз, базируется на своих специфических моделях представления знаний. Как бы странно ни прозвучало, но, в частности, языки дифференциального исчисления и представления химических реакций — именно такие модели. А их фундаментом в конечном итоге является математическая логика, на которую опирается инженерия знаний как область исследований и практической деятельности, направленная на создание и применение эффективных средств CI и интерфейсов HI-CI.
— Итак, любая модель представления знаний непосредственно связана с решаемой задачей. Давайте возьмём для примера задачу интеллектуального управления цифровой экономикой страны. Что можно взять из прошлого научного опыта, а что нужно создавать впервые?
— Чудес не бывает! Нужно создавать проблемно ориентированный CI, предназначенный для решения экономических задач. При этом, как мы уже выяснили, есть полезный вариант компьютерного интеллекта, который называется исследованием операций. Но изначально этот математический аппарат был создан на архаичной матрично-векторной основе с сопутствующими ограничениями, в первую очередь в части размерности матриц. Разрабатывая новую модель представления знаний для решения сложных задач предсказательного моделирования и управления в больших социотехнических системах — мультимножественные грамматики и метаграмматики — я как раз и пытался совместить в одном инструментарии достоинства исследования операций и инженерии знаний.
— Что достигается в результате?
— В рамках одной модели представления знаний может работать и инженер на конкретном объекте, и математик из профильного НИИ, занимающийся макроэкономическими исследованиями.
Поскольку все решаемые задачи описываются в системе понятий предметной области, больше не нужно возиться с огромными матрицами. Скажем, нужно произвести пять автомобилей, четыре самолёта и два корабля, и далее все изделия раскрываются — опять же в терминах производства — до уровня самого последнего чипа в бортовой системе управления. База знаний, наряду с этим, включает сведения о возможных производителях каждого конкретного изделия (субэлемента, компонента), стоимостных и временных параметрах их производственных циклов, текущей и перспективной загрузке, а также о текущем состоянии ресурсной базы системы. А система логического вывода, или интерпретатор знаний (inferenceengine), обеспечивает построение рационального плана работы системы по выполнению заказа и движения финансовых средств в пределах кооперации. Этот план в современной экономической терминологии есть не что иное, как смарт-контракт.
Рациональность предложенного подхода подтверждается его применимостью не только к экономическим, но и к естественнонаучным задачам (например, из области инженерии химических реакций), что делает его основой для создания истинно интеллектуальных систем сквозного планирования деятельности больших производственных систем — от «руды» до сбыта высокотехнологичной готовой продукции на основе доступной логистической инфраструктуры.
— Получается современный инструмент моделирования народно-хозяйственных процессов?
— Нет, это не только моделирование. Моделирование здесь — не самоцель, а средство. Это средство планирования функционирования любой социотехнической системы: есть цель, ресурсы, и система построит маршрут достижения этой цели с учётом имеющихся ресурсов. А опора на данные реально имеющихся ресурсов даёт возможность реализовать ситуационное реагирование на воздействие разного рода непредсказуемых внешних факторов.
Собственно, это то, что в экономической теории называется программно-целевым планированием с обратной связью. Но на базе проблемно ориентированного Computer Intelligence для области экономики актуализация базы знаний и пересчёт ресурсов, планов, процессов осуществляется весьма оперативно. То есть трудоёмкость тех действий, которые сегодня называются обучением искусственного интеллекта и являются критической точкой ИИ, при таком подходе может быть радикально уменьшена.
А это значит, что Computer Intelligence действительно становится реальным помощником Human Intelligence, опираясь при этом на точные, верифицированные, юридически значимые данные и знания о том, что происходит с субъектами экономики. В этом контексте мне очень импонирует активность руководителя фонда «Кристалл роста» А. С. Галушки, который предпринимает серьезные усилия по воссозданию в современных российских реалиях и на новой технологической основе процессов программно-целевого планирования в нашей стране. Возможно, на пересечении этих двух потоков интеллектуальной энергии — «Кристалла роста» и моей — возникнет синергия, которая и обеспечит давно ожидаемый рывок России в светлое будущее
— Суперинтеллект в действии?
— Не будем вступать в гонку броских лозунгов. Надежный и эффективный компьютерный интеллект для решения социально значимых задач.
Вопросы задавала Елена Покатаева
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных