Российские учёные разрабатывают модуль противодействия телефонным мошенникам мобильной ОС на основе ИИ

Россиянам приходится сталкиваться с постоянно меняющимися схемами телефонного мошенничества. Зачастую преступники на шаг опережают правоохранительные органы используя все новые и новые схемы обмана, в сочетании с современными технологиями искусственного интеллекта, а также учитывая различные пробелы в нормативно-правовой базе.

Следует отметить, что большинство телефонных звонков мошенников поступает из-за рубежа, в том числе и с территории Украины, при этом злоумышленники учитывают сложности раскрытия подобных преступлений ввиду различных юрисдикций и отсутствия единого глобального законодательства в этой сфере, равно как и сотрудничества правоохранительных структур. По данным аналитики Банка России в области информационной безопасности в первом квартале 2022 года зафиксирован значительный рост операций без согласия клиентов по сравнению с аналогичным периодом 2021 года, при этом следует отметить, что доля применения методов социальной инженерии превышает 50% случаев, а доля возмещенных (возвращенных) средств (от объема) в процентах снижается.

Комментарий Екатерины Плешаковой, эксперта Департамента информационной безопасности Финансового Университета:

В лаборатории искусственного интеллекта для обеспечения кибербезопасности (AI4CSLab, Artificial Intelligence for Cybersecurity Laboratory), по государственному заданию, группой российских ученых под моим руководством проводится прикладное научное исследование. Объектом исследования являются тексты диалогов жертвы и мошенника в системах телефонной связи. Цель работы – разработка моделей и методов распознавания текстов в системах противодействия телефонному мошенничеству. Научная новизна проекта заключается в создании новой технологии, основанной на методах искусственного интеллекта для обработки естественного языка и распознавания синтеза речи, а также интеграция системы анализа данных с мобильного устройства на обслуживающий сервер. В рамках первого этапа работы 2022 года проведен обзор алгоритмов машинного обучения для задач классификации эмоциональной окраски речи, анализ методов и инструментов машинного обучения для задач классификации эмоциональной окраски речи, разработана парсинговая система сбора данных для машинного обучения. Разработана специальная новая архитектура нейронной сети, позволяющая идентифицировать любой эмоционально окрашенный телефонный разговор для рекомендаций абоненту сотовой связи об оптимальном поведении. Также возможна интеграция рекомендательной системы с профильным подразделением мегарегулятора.

Потенциал исследования получил высокую оценку руководителя экспертной группы на промежуточном заслушивании результатов прикладной научно-исследовательской работы по государственному заданию.

Вторым этапом выполнения исследования в 2023 году станет разработка модуля противодействия мошенничеству отечественной мобильной операционной системы, который будет обрабатывать телефонные разговоры на основе созданной технологии, в реальном времени предупреждая граждан о возможном мошенничестве со стороны собеседника.

30 июня, 2022

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

28.04.2026
«Суверенность» ИИ-моделей более не фактор?
28.04.2026
НСФР: Фактически для нас установлен незаконный квазиналог
28.04.2026
«Зрелые» компании уже включают деградацию связи в сценарии непрерывности
28.04.2026
Финсектор — первый по внедрению ИИ-решений
28.04.2026
Лимит на VPN-трафик — «к 1 мая, к 1 сентября или к 2028 году»
27.04.2026
«Т-Банк» представил платёжный антишатдаун-сервис для iPhone
27.04.2026
Силовики советуют оставаться в пределах Рунета
27.04.2026
«Забытые» ИИ-агенты в корпоративных сетях приводят к инцидентам
27.04.2026
Telegram теряет в трафике, но удерживает лидерство в России
27.04.2026
К лаборатории кибербезопасности Servicepipe присоединяется СТКрипт

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных