Российские учёные разрабатывают модуль противодействия телефонным мошенникам мобильной ОС на основе ИИ

Россиянам приходится сталкиваться с постоянно меняющимися схемами телефонного мошенничества. Зачастую преступники на шаг опережают правоохранительные органы используя все новые и новые схемы обмана, в сочетании с современными технологиями искусственного интеллекта, а также учитывая различные пробелы в нормативно-правовой базе.

Следует отметить, что большинство телефонных звонков мошенников поступает из-за рубежа, в том числе и с территории Украины, при этом злоумышленники учитывают сложности раскрытия подобных преступлений ввиду различных юрисдикций и отсутствия единого глобального законодательства в этой сфере, равно как и сотрудничества правоохранительных структур. По данным аналитики Банка России в области информационной безопасности в первом квартале 2022 года зафиксирован значительный рост операций без согласия клиентов по сравнению с аналогичным периодом 2021 года, при этом следует отметить, что доля применения методов социальной инженерии превышает 50% случаев, а доля возмещенных (возвращенных) средств (от объема) в процентах снижается.

Комментарий Екатерины Плешаковой, эксперта Департамента информационной безопасности Финансового Университета:

В лаборатории искусственного интеллекта для обеспечения кибербезопасности (AI4CSLab, Artificial Intelligence for Cybersecurity Laboratory), по государственному заданию, группой российских ученых под моим руководством проводится прикладное научное исследование. Объектом исследования являются тексты диалогов жертвы и мошенника в системах телефонной связи. Цель работы – разработка моделей и методов распознавания текстов в системах противодействия телефонному мошенничеству. Научная новизна проекта заключается в создании новой технологии, основанной на методах искусственного интеллекта для обработки естественного языка и распознавания синтеза речи, а также интеграция системы анализа данных с мобильного устройства на обслуживающий сервер. В рамках первого этапа работы 2022 года проведен обзор алгоритмов машинного обучения для задач классификации эмоциональной окраски речи, анализ методов и инструментов машинного обучения для задач классификации эмоциональной окраски речи, разработана парсинговая система сбора данных для машинного обучения. Разработана специальная новая архитектура нейронной сети, позволяющая идентифицировать любой эмоционально окрашенный телефонный разговор для рекомендаций абоненту сотовой связи об оптимальном поведении. Также возможна интеграция рекомендательной системы с профильным подразделением мегарегулятора.

Потенциал исследования получил высокую оценку руководителя экспертной группы на промежуточном заслушивании результатов прикладной научно-исследовательской работы по государственному заданию.

Вторым этапом выполнения исследования в 2023 году станет разработка модуля противодействия мошенничеству отечественной мобильной операционной системы, который будет обрабатывать телефонные разговоры на основе созданной технологии, в реальном времени предупреждая граждан о возможном мошенничестве со стороны собеседника.

30 июня, 2022

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

19.04.2024
Банкиры просят продлить сроки импортозамещения «инософта»
19.04.2024
Россияне смогут получить ЭП за пределами страны
19.04.2024
В России появится консорциум по кибербезопасности ИИ
19.04.2024
Сразу несколько мессенджеров пропали из китайского App Store
18.04.2024
У нас есть GitHub дома. Вместо нацрепозитория готовое решение от вендора?
18.04.2024
Минэк создаст профильную комиссию по ИИ-расследованиям
18.04.2024
Видеоидентификация клиентов банков уже в этом году?
18.04.2024
Дано: смартфон. Форма: «Аквариус». Суть: «Лаборатория Касперского»
18.04.2024
Члены АБД утвердили отраслевой стандарт защиты данных
17.04.2024
ФСТЭК будет аттестовать не готовое ПО, а процесс его разработки

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных