Большие языковые модели (Large Language Model, LLM) ворвались в нашу жизнь около двух лет назад, когда у них появился удобный диалоговый интерфейс, и название сервиса ChatGPT стало именем нарицательным. Более того, в общественном сознании сформировалось представление: большая языковая модель — это и есть тот самый общий искусственный интеллект (Artificial General Intelligence, AGI), потому что «она знает всё».
Дополнительную неразбериху вносят сами разработчики ML/DL/GenAI-решений, утверждая, что искусственная нейронная сеть (ИНС) реализует работу человеческого мозга, а раз количество параметров ИНС больше, чем нейронов в мозге человека, следовательно, её интеллектуальные возможности выше человеческих. Короче, хайп в его чистом гипертрофированном виде. Давайте разбираться.
А это вообще интеллект?
Учёные философы на протяжении веков пытались добиться научного описания таких понятий, как mind (разум), intelligence (интеллект), сonsciousness (cознание), cognition (познание), sentience (разумность), psyche (психика), self-awareness (самосознание), а также их взаимоотношений с физическим мозгом (brain). Академик Константин Анохин, директор Института перспективных исследований мозга МГУ им. М. В. Ломоносова, подчёркивает, что главная сложность научного описания мозга, разума и их взаимоотношений заключается в парадоксальности проблематики: нужно формализованно определить соотношение между материальным и идеальным. Продолжая развивать российское направление науки о мозге в русле работ И. П. Павлова, И. М. Сеченова, П. К. Анохина, он предложил гиперсетевую теорию мозга и ввёл понятие когнитома, описывающего головной мозг человека как когнитивную гиперсеть.
Фактически это дальнейшее расширение теории функциональных систем, над которой работал его великий дед П. К. Анохин. Он был уверен: «Каждый поведенческий акт, приносящий какой-то результат, большой или малый, неизбежно формируется по принципу функциональной системы». Объединение функциональных систем на основе современного математического подхода гиперсети позволяет представить разум человека в виде многоуровневой структуры. А сознание — это трафик в ней, отмечает Константин Анохин (рис. 1).
Рис. 1. Так выглядит когнитом — когнитивная гиперсеть головного мозга в русле гиперсетевой теории мозга К. В. Анохина
Источник: Лекция К. В. Анохина, 2015 г.
Современная нейросеть глубокого обучения (Deep Learning, DL) устроена совершенно по-другому: эта вычислительная структура всегда нацелена на решение единственной задачи. Она состоит из входного и выходного слоя нейронов, между которыми расположено нескольких скрытых слоёв вычислительных нейронов. Каждый слой получает данные со всех нейронов предыдущего слоя и применяет к своим элементам некоторую функцию активации (softmax), которая, собственно, задаёт конкретную архитектуру конкретной сети. Значение каждого выходного нейрона отражает уверенность системы в том, что входные данные соответствуют одному из вариантов результата (сумма всех значений вероятностей выходного слоя равна единице) (рис. 2).
Рис. 2. Пример распознавания изображения для трёх классов животных
Источник: Дмитрий Макаров. Лекция «Основы нейронных сетей»
Все нейроны соседних слоёв связаны друг с другом, при этом очень важным элементом является вес конкретной связи, ведь именно он влияет на значение нейрона последующего слоя. Фактически обучение сети — это и есть процесс формирования конкретных весов связей нейронов, который отражает специфические черты обучающего датасета и, соответственно, формирует архитектуру конкретной сети. Иными словами, система связанных нейронов нейросети — это стохастическая динамическая система, изменения в которой носят случайный характер.
LLM — это один из видов многослойной нейросети, в котором используется обучающий набор текстовых данных большого объёма. По сути, это попытка выйти за границы возможностей, жёстко определяемых обучающим датасетом и архитектурой сети в пространство большего количества решаемых задач. Но платить за это приходится упрощением целевой задачи, которую решает нейросеть, — она всего лишь предсказывает следующее слово на основе имеющихся текстов. В силу вероятностного характера формирования ближайшего похожего результата большие модели получили шутливое прозвище «стохастический попугай».
«Это имитация интеллекта», — так охарактеризовал текущий прорыв в нейросетевых технологиях профессор Константин Воронцов, заведующий кафедрой математических методов прогнозирования ВМК МГУ, в интервью ресурсу «Системный Блокъ». А британский писатель, журналист и специалист по теории видеоигр Стивен Пул называет системы, генерирующие тексты и изображения (ChatGPT, Midjourney и им подобные), «гигантскими машинами плагиата», ведь они просто занимаются перекомбинированием тех словесных описаний и изображений, которые ранее были созданы людьми.
Большие модели: количество переходит в качество?
LLM — это, действительно, очень большие модели. Для того чтобы увидеть масштабность задачи, приведём наглядный пример. Для решения простой для человека задачи — распознавание одной рукописной цифры — воспользуемся для анализа изображения матрицей размером 28×28, то есть входной слой нейросети составят 784 нейрона, содержащие различные числа от 0 до 1. В выходном слое будет 10 нейронов (результирующие цифры от 0 до 9), а два скрытых слоя по 16 нейронов будут описывать различные признаки конкретных цифр типа: кружок сверху, вертикальная палочка, кружок снизу и т. д. Поскольку все нейроны соседних слоёв связаны друг с другом, то для обучения такой сети используется 13 тыс. параметров (рис. 3).
Рис. 3. Нейросеть, способная распознать одну рукописную цифру: 784 нейрона на входе и вероятность того, что изображение соответствует одной из десяти цифр, — на выходе.
Источник: https://proglib.io/p/neural-network-course
Понятно, что поиск весов связей нейронов становится весьма сложной математической задачей в реальных ситуациях, где гораздо выше и размерность входных данных, и количество скрытых слоёв, где формируются признаки исследуемой ситуации. Сегодняшние LLM имеют десятки и сотни миллиардов параметров и уже берут «высоты» свыше триллиона параметров. Например, бета-версия GPT-3 (разработка лаборатории OpenAI), которая вышла в июне 2020 г., имела 175 млрд параметров, 96 слоёв нейронной сети и была обучена на 570 Гб текстовой информации (библиотеки Common Crawl, «Википедия», датасеты с книгами, тексты с сайтов WebText). Размер обученной модели составлял около 700 Гб, а максимальный размер запроса при этом — 2048 токенов (по сути, морфологических языковых единиц). Через полгода компания Google представила языковую модель на 1 трлн параметров. Китайская модель WuDao 2.0 использует 1,75 трлн параметров, а GPT-4 — 1,76 трлн (по экспертным оценкам).
Как отмечают аналитики «Яков и Партнёры» в своём исследовании «Искусственный интеллект в России — 2023: тренды и перспективы», на текущий момент самая маленькая GPT-модель от OpenAI, доступная разработчикам, содержит 350 млн параметров и обучена на 40 Гб текстовых данных (Ada). Она способна выполнять базовые задачи понимания естественного языка и генерации данных — классификацию, анализ настроения (sentiment analysis), суммаризацию текста и простой диалог.
Необходимость оперировать с такими гигантскими объёмами данных привела к появлению разнообразных вариантов, увеличивающих производительность и результативность работы сети: свёрточные, рекуррентные, генеративно-состязательные нейросети (они дали мощный импульс генерации изображений) и многие другие, включая модели-трансформеры, которые положены в основу математики больших моделей. Аббревиатура GPT подразумевает Generative Pre-trained Transformer и означает наличие специфического механизма «внимания» (attention): он даёт возможность обнаруживать и фиксировать связи и иерархические отношения между словами одного предложения.
Превращение больших объёмов текстов в данные нейросети — ещё одно большое направление научных исследований. Например, важный элемент LLM — технологии эмбеддинга, предназначенные для обработки естественного языка (Natural Language Processing, NLP). Их задача — преобразование некоторой языковой конструкции в числовой вектор, с которым далее работает нейросеть. В простейшем случае для того, чтобы перевести слово в цифровую форму, можно просто сопоставить ему номер в некотором словаре. Владимир Крылов, д. т. н., консультант Artezio в своей статье «Что такое эмбеддинги и как они помогают искусственному интеллекту понять мир людей» («Наука и жизнь», апрель 2019 г., https://www.nkj.ru/open/36052/) приводит пример. Если взять для этих целей толковый словарь Д. Н. Ушакова, то длина такого вектора составит 85 289 элементов — столько слов содержит данный словарь. Тогда любому предложению на русском языке нужно будет поставить в соответствие кортеж таких 85 289-мерных векторов и перевести лингвистические отношения между словами в формат математических операций над числовыми векторами. Это очень упрощённая постановка задачи, но она показывает её масштаб и обусловливает огромный пласт научно-исследовательских работ. В их числе — методы, которые сегодня олицетворяют мейнстрим математических методов передовых больших нейросетей с глубоким обучением:
Таким образом, мир сегодняшних LLM, как текстовых, так и мультимодальных, способных работать с мультимедийными данными, — это большой «котёл», в котором «варятся» многочисленные новые математические методы обработки данных в больших нейронных сетях. Показательный пример: исследователи команды AGI NLP в SberDevices в процессе работы над генеративными подходами к исправлению орфографии создали методологию коррекции орфографии, выпустили открытую библиотеку SAGE, а также датасеты и семейство генеративных моделей, обученных для задачи исправления орфографии. Из этого «котла» постоянно извлекаются новые и новые большие модели.
Согласно данным исследования Artificial Intelligence Index Report 2024, проведённого Стэнфордским университетом, только в 2023 г. выпущено 149 LLM, причём 65,7% из них — открытые: LlaMa, Mistral и Mixtral, Falcon и Llama 2. Отмечается, что открытая модель Stable Diffusion, которая генерирует изображения по текстовым описаниям, достигла относительного паритета с проприетарными Midjourney и DALL-E. Так что активное развитие открытых LLM — это, безусловно, знаковое явление, означающее радикальную демократизацию возможностей по разработке новых моделей. И они уже начинают работать на ноутбуках!
Мультимодальные модели нового поколения, как, например, проприетарные GPT-4V (OpenAI), Gemini (Google), а также с открытым исходным кодом вроде LLaVa или Qwen-VL, способны и заниматься обработкой изображений, и вести диалог на естественном языке. В начале года Google и OpenAI открыли доступ к моделям Lumiere и Sora с функцией преобразования текстового описания в видео.
Большие модели — большие ожидания
На графике трендов новых технологий, который аналитики Gartner обновляют в августе каждого года, генеративный интеллект подобрался к вершине пика ожиданий. Весь Рунет наводнён рекламными текстами, утверждающими, что с помощью генеративного ИИ сегодня «можно легко стать высокооплачиваемым аналитиком данных», а также решать любые профессиональные вопросы на своём рабочем месте, оформив доступ с чужеземного виртуального телефонного номера к американскому облаку с LLM (рис. 4).
Рис. 4. Цикл хайпа новых технологий по Gartner
Однако завышенные ожидания наталкиваются на принципиальные ограничения. Так, большим моделям свойственны все «наследственные болезни» ML/DL: непрозрачность вывода (отсутствие объяснительных возможностей), а также вероятностный, а не точный характер результата. Механизм декодера, который отвечает за генерирование продолжения текста на основе эмбеддингов, а также их весов и параметров после вычислений, также занимается вычислением вероятностей возможных следующих слов и определяет наиболее вероятные из них. Это означает ограниченность собственно генеративных возможностей. Более того, на масштабе больших моделей это приводит к эффекту «галлюцинации» модели: она не умеет фиксировать состояние «не знаю» и обязательно находит (это может выглядеть как «придумывание») ответ, который в данных условиях даёт наилучший показатель вероятности.
«Поскольку мы никогда не сможем предусмотреть все ситуации, с которыми столкнётся система в ходе эксплуатации, имеет смысл разработать модель, которая могла бы моделировать собственную неуверенность в ответе, уметь говорить „нет“», — говорит Иван Бондаренко, научный сотрудник лаборатории прикладных цифровых технологий НГУ.
Ещё одну особенность лидирующих LLM подметили учёные из федеральной политехнической школы Лозанны: на примере Llama 2 они выяснили, что нейросеть «думает» в основном на английском языке, даже если запросы приходят на других языках. Это ограничивает возможности адаптации модели к культурным и лингвистическим особенностям различных лингвистических групп пользователей GenAI. «С LLM повторяется старая история с претензиями к поисковым алгоритмам, в которые было заложено специфическое ранжирование выдачи: кто и какие алгоритмы закладывает в ИИ, как это вообще контролировать, насколько можно доверять выдаваемым нейросетью ответам?» — рассказывает Алексей Северов, к. э. н., ИТ-архитектор, эксперт в области корпоративной цифровой трансформации. И ещё один вариант дежавю: проблемы с использованием персональных данных для обучения больших моделей. В разных странах мира возникают скандалы, связанные с несанкционированным использованием больших массивов данных для обучения больших нейросетей. Возможно, прогнозируют эксперты, история с регулированием персональных данных пойдёт на очередной круг.
Большие модели — много применений?
Соотношение текущих возможностей и ограничений LLM находит отражение в возможностях практического использования больших моделей.
Номер 1 в этом списке — развлекательные сервисы: создание виртуальных персонажей, генерация голоса, реконструкция 3D по одному или нескольким изображениям, анимирование и генерация рекламных видеороликов, мультимедийных спецэффектов — всё то, что так броско выглядит в глазах широкой общественности и при этом не требует гарантий результата (рис. 5).
Рис. 5. Компания Friflex создаёт с помощью Midjourney визуальное оформление корпоративных медиаканалов
Второе направление практических применений LLM — это те области цифровизации бизнеса, где до сих пор ощущались ограничения в сфере работы с корпоративным контентом. В первую очередь речь идёт о разнообразных виртуальных помощниках работников и клиентов. Действительно, этим цифровым сущностям всегда остро не хватало контента для поддержания содержательного разговора: данных из корпоративных информационных систем, если речь идёт об общении коммерческой компании со своим клиентом, либо общих знаний о мире, если речь идёт о «болталке про всё».
Интересно, что для создания таких текстовых моделей не требуются именно крупномасштабные LLM, достаточно нишевых «знаний» о конкретной области деятельности. Мы видим, как в этом году разработчики корпоративных систем начали встраивать генеративные ИИ-модели в свои продукты. Так, компания Directum реализовала функционал генерации аннотаций, внутренних документов, исходящих писем и ответов на входящие. «Инфосистемы Джет» всего за один месяц обзавелись сервисом на основе языковой модели YandexGPT для автоматизации работы своего сервисного центра. CraftTalk встроила в свою платформу корпоративной базы знаний рабочее место оператора со встроенной функцией GPT-ассистента. Модуль Naumen GPT, предназначенный для системы управления знаниями в клиентском сервисе, стал первым продуктом класса GenAI в экосистеме продуктов компании Naumen.
Логичный вариант применения LLM — контактные центры. Система мониторинга качества обслуживания SferaGPT компании «Авантелеком» умеет оценивать телефонные разговоры и давать рекомендации с помощью генеративной нейронной сети. А компания 3iTech завершает работу над продуктом 3i LLM, который, в частности, поможет улучшить работу по контролю качества работы корпоративных контактных центров. «Заказчики давно хотят понимать естественную речь не по жёстким сценариям, как это делалось всегда, а без всяких сценариев»,— замечает Алексей Любимов, генеральный директор 3iTech. Компания реализует платформенный подход к использованию LLM: это позволит легко создавать разнообразных ассистентов, которые будут владеть актуальной корпоративной информацией.
Ещё один возможный вариант применения множества LLM — робототехнические системы. Например, команда из Sber Robotics Lab занимается реализацией синергии LLM и технологий робототехники: роботы получат системы, которые смогут мгновенно обрабатывать большие массивы данных, получаемых из различных сенсоров. А британский стартап Wayve получил инвестиции в размере 1,05 млрд долл. на создание Embodied AI — GPT-модели для вождения, которая учится на примерах из окружающей среды (рис. 6).
Рис. 6. Как LLM могут обеспечить прорыв в робототехнике
Источник: Доклад Полины Федотовой, главного инженера-разработчика Sber Robotics Lab на конференции YaTalks, декабрь 2023 г.
Возможно, что именно создание нишевых моделей станет главным направлением коммерческого применения GenAI в формате разнообразных ИИ-агентов, реализующих отдельные профессиональные навыки. Тогда крупные корпоративные информационные системы будут иметь вид мультиагентных систем, состоящих из взаимодействующих между собой ИИ-агентов. Возможно, модельный подход станет новой парадигмой создания прикладного программного обеспечения.
Степан Гершуни, директор по венчурному капиталу Cyber • Фонд, уверен, что сегодня мир вступает в эпоху программного обеспечения 3.0: системы автономных ИИ-агентов смогут писать код, взаимодействовать с внешними инструментами, совершенствоваться и участвовать в одноранговой цифровой экономике, взаимодействуя с людьми-пользователями и другими автономными агентами (рис. 7).
Рис. 7. На пути в мир программного обеспечения 3.0. Источник: Cyber • Фонд
Ещё один вариант применения LLM — умный помощник в интеллектуальной деятельности человека. Правда, о написании реальных дипломных работ всерьёз говорить всё-таки не приходится. Как рассказывает Мария Ушанкова, руководитель направления «Программная инженерия» государственного университета «Дубна», с прошлого года действует сервис «Антиплагиат», проверяющий проверку текстов на присутствие частей, сгенерированных нейросетями. Однако и без этой помощи преподаватель легко находит результаты «труда» нейросети, говорит эксперт: «Пока что нейросетям сложно даётся конкретика. Налить воды в текст — это пожалуйста. Но написать что-то осмысленное по конкретной теме, да ещё с подробностями им пока удаётся плохо».
Денис Душенев, пентестер из компании Compliance Control, рассказывает в своей статье «ChatGPT: ещё один инструмент пентестера» на ресурсе anti-malware.ru, что модель СhatGPT вполне может помочь специалисту в написании разнообразных скриптов: «Если вы хотите решить свою проблему через поиск в интернете или задав вопрос на профильном форуме, попробуйте сперва узнать решение у ChatGPT. Есть хорошие шансы того, что чат-бот позволит сэкономить ваше время».
Участники профессионального сообщества AGI Russia высказываются о практических возможностях LLM достаточно строго: «По сути, на практике, казалось бы, безграничное пространство возможностей упирается лишь в переводчик, корректор текста, справочное бюро по технической документации и помощник в написании кода. Тянет ли это на революцию? Едва ли. Это некая более умная комбинация Google + Wiki с пониманием, что количество ошибок может быть неприемлемо высоким». Они подчёркивают: «GenAI не только не улучшает работу, а скорее ухудшает с точки зрения качества данных и скорости работы. В рамках анализа данных Excel + SQL + Python решают задачи на порядки быстрее, чем хвалёный GenAI».
Большой проблемой LLM является отсутствие контроля верификации выходных данных: фактически любой сгенерированный GenAI контент должен рассматриваться как недостоверный, фейковый. А это означает затраты дополнительных ресурсов на проверку фактов. Зато в области когнитивных противоборств эти технологии достигли впечатляющих успехов на ниве создания пропагандистских информационных пакетов. Как отмечает Елена Ларина, ведущий аналитик Института системно-стратегического анализа, член сообщества практиков конкурентной разведки, в своей статье «Новая среда обитания» (журнал «Свободная мысль», № 3, 2021), начиная со второй половины 2019 г. для этих целей стали активно использоваться так называемые киберписатели, созданные в виде приложения GPT-2, а затем GPT-3.
Большие модели — большие перспективы для киберпреступников?
Хайп по поводу LLM обусловливает появление нового поколения «тёмных ИТ»: в стремлении попробовать разрекламированные инструменты сотрудники пользуются услугами GenAI из зарубежных облаков, порой отправляя туда корпоративные сведения. А безграничное доверие к нейросети в части написания кода может привести к тому, что в сгенерированное ПО могут попасть вредоносные элементы.
В целом удобный диалоговый инструмент ChatGPT-моделей — обоюдоострое оружие, которое с равной старательностью служит хакерам всех расцветок. В исследовании учёных из университета штата Иллинойс, которое было опубликовано в феврале, приведены доказательства того, что большие языковые модели можно использовать для взлома веб-сайтов в полностью автоматическом режиме с помощью инструментов для доступа к API, автоматизированного веб-сёрфинга и планирования на основе обратной связи (рис. 8).
Рис. 8. Схема использования автономных LLM-агентов для взлома веб-сайтов.
Источник: securitylab.ru
Кроме того, киберпреступники уже сегодня активно апробируют методы воздействия на информационные системы, базирующиеся на LLM. Исследователи отмечают, что на практике встречаются атаки на системы обработки естественного языка (NLP) типа «чёрного ящика», для которых вообще не используется никакая информация о структуре нейросети. Ещё один вариант злонамеренного поведения — воздействие на сами нейросети, которые могут спровоцировать их некорректное или прямо вредоносное поведение в нужный момент. Здесь есть вариант атаки отравлением данных (целевые модели обучаются на отравленных наборах данных) и атаки уклонением (враждебные примеры внедряются во входные данные на этапе эксплуатации модели).
Эксперты говорят также о том, что вместо массированной атаки с отравлением данных можно более простым способом «загипнотизировать» LLM и заставить её предоставлять неправильные и потенциально опасные ответы и рекомендации, причём основной инструмент «гипноза» — вовсе не JavaScript или Python, а хороший убедительный английский язык.
Угрозы ИБ исходят от самих обучающих датасетов: для моделей, особенно больших, используются различные способы автоматического обогащения наборов данных, а также специально подготовленные синтетические данные, которые могут оказаться «отравленными». Трансферное, федеративное обучение — подобные современные подходы к созданию обучающей выборки модели также приносят с собой риски (рис. 9).
Рис. 9. Защитные методы машинного обучения [Q.LIU et al., 2018]
Источник: «Ключевые области внимания на стыке искусственного интеллекта (ИИ) и кибербезопасности», доклад И. В. Котенко, Санкт-Петербургский Федеральный исследовательский центр Российской академии наук, «РусКрипто’2023» 23 марта 2023 г.
Очень похоже, что в плане практического применения продвинутых возможностей генеративного ИИ впереди идут киберпреступники. Они уже используют методы ИИ для организации и проведения атак с помощью дипфейков: история с кражей миллионов долларов у гонконгской компании с помощью ряда сеансов видеосвязи со сгенерированными персонажами стала хрестоматийной. «Взламывают даже отпечатки пальцев, — рассказывал Александр Егоркин, первый вице-президент «Газпромбанка», курирующий направление ИБ, в недавнем интервью на TAdviser. — Были же случаи, когда сделали фотографию клиента, который сидел на трибуне стадиона или ипподрома, кричал и показывал соответствующий жест «Победа! Victory!» Этого оказалось достаточно, чтобы снять его пальцы с противоположной трибуны телеобъективом, потом воспроизвести отпечатки на правильные резинки, которые надеть на тёплые пальцы, и нормально идентифицироваться. Никакой защиты от подобного мошенничества я не знаю. Это очень опасно».
Понятно, что истории такого рода — это сложные целевые APT-атаки с использованием сгенерированных фейковых изображений, голоса, видео. Однако от темпов роста сегодняшних функциональных возможностей создания аудио/видеодипфейков буквально захватывает дух! И не только у обывателей. Александр Егоркин высказался весьма категорично: «Я не вижу пока нормального способа защиты от этого. От биометрии, с моей точки зрения, нужно отказываться. Она ни как система идентификации, ни как система аутентификации сейчас не годится. Атака превосходит оборону на порядок». Может быть, страну, только-только занявшуюся реальной борьбой с мошенничествами социальной инженерии, накроет новая волна киберпреступности, вооружённой технологиями дипфейков? Возможно, это чрезмерный алармизм, но индустрию электронных методов удостоверения личности точно ждут большие изменения.
Развитие синтетического медийного контента также может иметь неблаговидное применение, например, в виде встраивания дипфейков в видеозаписи реальных событий. Более того, если технологии позволят, тут недалеко и до синтеза дипфейков в реальном времени. Некоторые эксперты уже говорят о начале эры политических дипфейков.
В целом возникает крамольный вопрос: не тесны ли рамки нейросетевых стереотипов идее реализации интеллектуальных систем новых поколений? По сути, сегодня большая языковая модель — это гора несистемных знаний, ещё не прошедшая путь воспитания и образования, которым обычно следует человеческий интеллект. Проблемы нынешних LLM носят системный характер и говорят о необходимости систематизации знаний модели и управления ими. Иными словами, главные проблемы и риски LLM — не в дипфейках и APT-атаках на датасеты моделей, а в принципиальных свойствах самой архитектуры LLM. Её нужно радикально совершенствовать, и тогда все «галлюцинации», «гипнотизирование», «отравление» моделей и прочий текущий криминал уйдут в прошлое. Реальная польза и безопасность языковых моделей достигается на уровне небольших прикладных Gen-AI-агентов, а большие модели — это исследовательские эксперименты, которые помогают оценить, какие принципиальные ограничения LLM порождают многочисленные риски и угрозы.
Что нужно добавить GenAI-моделям, чтобы выйти на принципиально новый уровень интеллектуального управления процессами и данными, сохранив главный навык GenAI-моделей — умение работать с более или менее широкими контекстами? К каким вариантам развития технологий и продуктов на базе LLM нужно готовиться корпоративному рынку уже сегодня? Об этом BIS Journal попросила рассказать российских экспертов, занимающихся различными аспектами создания и внедрения интеллектуальных программных систем.
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных