Искусственный интеллект: без ограничений — есть риск вырастить монстра

22 декабря, 2025

Искусственный интеллект: без ограничений — есть риск вырастить монстра

Искусственный интеллект на сегодняшний день перестал быть футуристической концепцией и перешел в разряд важных двигателей прогресса, без которого уже невозможно себе представить развитие современной цивилизации. Как и у любой новой технологии, меняющей сложившийся уклад жизни, у него есть свои ярые сторонники и критики, указывающие на врожденные изъяны и потенциальный вред. И в этих горячих спорах важно не впадать в крайности и найти разумную середину.

Наверное, ни одно мероприятие с цифровой тематикой не обходится без обсуждения роли алгоритмов в той или иной сфере жизни. На прошедшей недавно открытой конференции ИСП РАН в своей речи президент ГК InfoWatch Наталья Касперская нарисовала довольно мрачную картину, раскрывающую негативное влияние искусственного интеллекта на наше общество при отсутствии сдерживающих факторов. Когда появляется новая технология, безопасники в первую очередь должны понять, какие риски она несет, считает эксперт.

Ключевое отличие генеративного ИИ — это его способность к самокорректировке, самостоятельному принятию решений. Как отмечает Касперская, если нейросеть сама выдает результат, то даже для производителя она работает как «черный ящик»: «Те данные, на которых она обучается – это очень большие данные, которые невозможно проверить и проанализировать. Соответственно, туда можно "засунуть" все что угодно». На этом негативные свойства GenAI не ограничиваются — их целый список: вторичность с точки зрения иностранного происхождения, имитационный характер технологии, плохое влияние на когнитивные функции человека, галлюцинации и так далее.

Осознавая все эти минусы, глава InfoWatch предлагает оградить от внедрения ИИ наиболее чувствительные сферы, такие как законотворчество, судопроизводство, образование и государственное управление: «В противном случае мы можем проснуться в такой стране, в которой мы уже будем даже не гражданами, а непонятно какими людьми с "цифровыми ошейниками"». По мнению эксперта, необходимо разработать и принять закон, который бы стимулировал ИИ в тех областях, где он реально может принести пользу, но при этом притормозить в социальной сфере, с тем чтобы не наносить ущерб гражданам. Если выпустим этого «монстра» без всяких ограничений, «то вполне возможно, что никакой будущей жизни у нас уже не будет», предостерегла Касперская.

Между прочим, параллельно в тот же день проходило другое важное мероприятие — заседание Совета по развитию гражданского общества и правам человека. В качестве жесткого критика безоглядного и повсеместного внедрения нейросетей там выступил президент АО «Крибрум» Игорь Ашманов, выделивший главный риск — снятие ответственности с должностного лица. Это может привести к «возникновению нового вида цифровой власти, которую никто никому не делегировал». Обнадежила реакция президента страны Путина: «Ответственность за принятие окончательного решения должна лежать на конкретном человеке. И ссылка на то, что это подсказал искусственный интеллект, не должна приниматься».

 

Алгоритмы на службе управления и здравоохранения

Было бы неправильно увлекаться поиском негатива и не замечать позитивный эффект применения нейросетей, примеры которого мы можем наблюдать в промышленности, банковской сфере, медицине и в том же госуправлении. Ранее сообщалось, что правительство внедрило искусственный интеллект в государственную систему управления нацпроектами и госпрограммами. ИИ-модель будет анализировать проводимые мероприятия и сопоставлять их с целевыми показателями. Чтобы оценить почти полмиллиона потенциальных взаимосвязей между ними, потребовалось бы привлечь 76 экспертов из 38 отраслей. Ручной анализ занял бы у них около четырех лет, в то время как ИИ «позволяет проделать эту работу за один день». При этом алгоритмы не принимают финальное решение, а лишь упрощают работу человека, подчеркнул вице-премьер Дмитрий Григоренко.

Медицина давно демонстрирует свою способность быть «на ты» с передовыми технологиями: ее представители часто выступают в качестве спикеров на цифровых форумах. Несмотря на определенную сдержанность, вызванную чрезмерным «хайпом» при недостаточной проработке вопросов безопасности, заместитель руководителя ФМБА России Николай Лишин назвал целый ряд возможностей нейросетей, полезных для врачей: «Нельзя говорить об искусственном интеллекте в целом — это все равно что средняя температура по больнице. Есть разные области и типы применения. Если взять машинное зрение — анализ фотографий, рентген снимков, КТ — ИИ блестяще работает и подсказывает врачу, на что обратить внимание. Это идет на пользу здоровью граждан, так как различные отклонения выявляются уже на ранних стадиях».

Своим опытом плодотворной коллаборации между передовой наукой и медициной недавно поделился с представителями ИТ-сферы и академических кругов директор ФГБУ «НИЦЭМ им. Н. Ф. Гамалеи» Минздрава РФ», академик РАН Александр Гинцбург. В наших аптеках много всяких хороших лекарств, но подавляющее большинство — это дженерики и импорт. Чтобы вытянуть отечественную «биг фарму», надо прибегнуть к потенциалу ИИ, создав платформенное решение.

«С помощью одной и той же технологии можно создавать очень большое количество лекарственных препаратов, которые будут действовать на разные мишени в организме человека, — заметил академик. — С опорой на математическую среду, которая трансформируется у нас постепенно или быстро в искусственный интеллект, мы совместно с Институтом системного программирования и с рядом биологических медицинских институтов этим как раз занимаемся».

Это сотрудничество позволило разработать МРНК-технологию, которая имеет платформенный характер. Например, наличие многочисленных мутаций и необходимость индивидуального подхода на фоне 2,5-3 млн онкологических больных делает нереальным успешное лечение в таких масштабах без цифровых ресурсов. Со слов Гинцбурга, за счет объединения усилий решение было найдено: «Мы надеемся, что с 2026 года у нас в стране начнут функционировать центр обработки генетической информации онкобольных и дата-центр, который будет содержать десятки тысяч отцифрованных образцов взаимодействия опухолевых пептидов, несущих мутации, с иммунной системой. Тогда эффективность конечного продукта будет не 20%, как сейчас, а все 90 — это будет экономить время, а следовательно и сохранять жизни».

 

Не допустить верховенства ИИ над человеком

Недавно были опубликованы результаты исследования МТС Web Services «Технологические стратегии бизнеса», основанного на опросе более 700 компаний и серии глубинных интервью. Они гласят: лишь 26% российских компаний, закладывающих в бюджет траты на внедрение искусственного интеллекта, имеет стратегию его внедрения. В то же время по другим направлениям цифрового развития ситуация выглядит намного лучше: стратегии в области облачных технологий есть у 44% компаний, в сфере кибербезопасности — у 42%. Аналитики делают вывод о том, что ИИ в большинстве организаций пока воспринимается как экспериментальный инструмент, а не как элемент долгосрочной бизнес-архитектуры. Бывает и так, что из-за завышенных ожиданий ИИ внедряется ради самого факта внедрения, а это приводит к провальным проектам и разочарованию пользователей.

Между тем в случае наличия осознанной стратегии результат будет противоположным. Например, согласно утверждениям руководства «Сбера», общий экономический эффект от внедрения алгоритмов во все направления компании достигнет 550 млрд рублей к 2026 году. Такой подход вполне лежит в русле Национальной стратегии развития искусственного интеллекта, в которой поставлена цель — совокупный вклад этой важнейшей технологии в ВВП страны к 2030 году должен превысить 11 трлн рублей.

Выступая на конференции AI Journey 2025, Владимир Путин отметил, что технологии GenAI становятся ключевыми, стратегическими. За обладание собственными фундаментальными языковыми моделями конкурируют не только крупнейшие компании, но и ведущие государства. Основные инвестиции пойдут в наращивание вычислительных мощностей, а также формирование дополнительных гигаватт энергии. По прогнозам, только за текущее десятилетие более чем втрое вырастет потребление электроэнергии дата-центрами.

В заключение было бы уместно обратиться к идеям, высказанным в выступлении первого заместителя постоянного представителя РФ при ООН Дмитрия Полянского на заседании СБ ООН по вопросам искусственного интеллекта и поддержанию международного мира и безопасности. По его словам, всех рисков, связанных с ИИ, никто в мире до конца не понимает. Тем не менее при сохранении текущих темпов роста эта индустрия способна внести до 15,7 трлн долларов в мировую экономику к 2030 году.

Важно не допустить того, чтобы развитые страны поддались соблазну добиться доминирования за счет победы в «гонке ИИ», которая «вполне может, как и "гонка вооружений", нести в себе экзистенциальный риск для дальнейшего существования человечества». Дипломат призвал всех «не допустить верховенства ИИ над человеком и человеческими ценностями» и противопоставить «келейному формату» выход на универсальные договоренности на основе равноправного диалога между государствами.

 

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

22.12.2025
Итоги Окружного этапа Всероссийского конкурса «СтудRussia» в МГЛУ
19.12.2025
НСПК — о едином пространстве для проведения транзакций
19.12.2025
Пентагон видит в ISACA глобальный орган по контролю за ИБ-стандартами
19.12.2025
«Слишком жёсткие правила могут замедлить темпы внедрения ИИ»
19.12.2025
В Amazon предупреждают: опасайтесь российских хакеров
19.12.2025
«Здесь востребованы люди, которые умеют совмещать системное мышление с прикладной инженерией»
19.12.2025
NCSC стремится внедрить передовые методы защиты в цепочки поставок
19.12.2025
Рекордные DDoS-атаки инициированы теми же, кто год назад атаковал бизнес в рекламных целях
19.12.2025
Исследование «Телеком биржи»: спрос на услуги резервного копирования вырос вдвое
19.12.2025
Cloud.ru запустил новый сервис для визуализации и анализа данных в облаке

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных