Российские учёные разрабатывают модуль противодействия телефонным мошенникам мобильной ОС на основе ИИ

Россиянам приходится сталкиваться с постоянно меняющимися схемами телефонного мошенничества. Зачастую преступники на шаг опережают правоохранительные органы используя все новые и новые схемы обмана, в сочетании с современными технологиями искусственного интеллекта, а также учитывая различные пробелы в нормативно-правовой базе.

Следует отметить, что большинство телефонных звонков мошенников поступает из-за рубежа, в том числе и с территории Украины, при этом злоумышленники учитывают сложности раскрытия подобных преступлений ввиду различных юрисдикций и отсутствия единого глобального законодательства в этой сфере, равно как и сотрудничества правоохранительных структур. По данным аналитики Банка России в области информационной безопасности в первом квартале 2022 года зафиксирован значительный рост операций без согласия клиентов по сравнению с аналогичным периодом 2021 года, при этом следует отметить, что доля применения методов социальной инженерии превышает 50% случаев, а доля возмещенных (возвращенных) средств (от объема) в процентах снижается.

Комментарий Екатерины Плешаковой, эксперта Департамента информационной безопасности Финансового Университета:

В лаборатории искусственного интеллекта для обеспечения кибербезопасности (AI4CSLab, Artificial Intelligence for Cybersecurity Laboratory), по государственному заданию, группой российских ученых под моим руководством проводится прикладное научное исследование. Объектом исследования являются тексты диалогов жертвы и мошенника в системах телефонной связи. Цель работы – разработка моделей и методов распознавания текстов в системах противодействия телефонному мошенничеству. Научная новизна проекта заключается в создании новой технологии, основанной на методах искусственного интеллекта для обработки естественного языка и распознавания синтеза речи, а также интеграция системы анализа данных с мобильного устройства на обслуживающий сервер. В рамках первого этапа работы 2022 года проведен обзор алгоритмов машинного обучения для задач классификации эмоциональной окраски речи, анализ методов и инструментов машинного обучения для задач классификации эмоциональной окраски речи, разработана парсинговая система сбора данных для машинного обучения. Разработана специальная новая архитектура нейронной сети, позволяющая идентифицировать любой эмоционально окрашенный телефонный разговор для рекомендаций абоненту сотовой связи об оптимальном поведении. Также возможна интеграция рекомендательной системы с профильным подразделением мегарегулятора.

Потенциал исследования получил высокую оценку руководителя экспертной группы на промежуточном заслушивании результатов прикладной научно-исследовательской работы по государственному заданию.

Вторым этапом выполнения исследования в 2023 году станет разработка модуля противодействия мошенничеству отечественной мобильной операционной системы, который будет обрабатывать телефонные разговоры на основе созданной технологии, в реальном времени предупреждая граждан о возможном мошенничестве со стороны собеседника.

30 июня, 2022

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

06.02.2026
ФБР надеется усилить кибербезопасность, выставив «Зимний щит»
06.02.2026
Мессенджер imo занял место заблокированного «Вайбера»
06.02.2026
Банк России сопроводит спорные операции подробностями
06.02.2026
Внедряя ИИ, CISO отстают от «победных реляций»
06.02.2026
Число британских ИБ-специалистов растёт, но их всё равно мало
05.02.2026
Приложение Visit Russia пополнится новым функционалом
05.02.2026
В «Вышке» появился ИБ-департамент
05.02.2026
Присутствие эмодзи в коде PureRAT выявило роль ИИ в создании зловреда
05.02.2026
Газетчики не готовы давать ИИ-вендорам бесплатный «корм» для LLM
05.02.2026
Servicepipe внедрила расширенный фингерпринтинг в Cybert

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных