BIS Journal №4(47)2022

7 декабря, 2022

Современный антифрод. Искусственный интеллект против мошенников

Еще в недалеком 2016 году эксперты-практики не прекращали спор о том, заменит ли революционный концепт «машинного обучения» традиционное написание «правил антифрода», и какой метод эффективнее выявляет мошенничество: тот или другой, или оба метода в комбинации.  Рассмотрим подробнее эти методы.

Итак, если ядром антифрод системы мы считаем механизм оценки риска каждой совершаемой транзакции, то все существующие системы оценки рисков мы делим на два класса:

  • «rule-based» — оценка рисков на основе правил, примененных ко входным данным;
  • «model-based» — оценка рисков с применением самообучающихся систем принятия решения.

Сейчас, многие современные системы скрининга (фрода, или, например, кредитные системы)  совмещают эти два подхода следующим образом:

  • совмещение путем генерации человеко-читаемых деревьев (правил) из натренированных ML-моделей;
  • использование результатов скоринга ML-моделей в правилах, которые создаются вручную.

В нашей компании, развивая кроссканальную антифрод систему Smart Fraud Detection, мы используем оба подхода — комбинацию методов машинного обучения и методов на основе правил.

Каждый из этих подходов имеет свои преимущества: метод машинного обучения дает возможность обновлять параметры для создания профилей и параметры транзакций в процессе работы (квази-realtime) и детектировать новые типы фрода.

А на основе метода правил можно создавать единую модель для разных категорий клиентов, минимизируя «ручные» процессы.

Приведем пример использования правил «Крупный перевод новому получателю» и «Перевод с нового устройства новому получателю» для выявления одного из типов социальной инженерии.

Сначала полученные данные по клиенту аккумулируются в модуле оценки риска. Это динамическая самообучаемая модель оценки риска, которая позволяет дополнять модель при изменении данных и оперативно реагировать. Так, система собирает большое количество информации и оценивает риск для каждого события в диапазоне от 0 до 1000, чтобы снизить коэффициент ложных срабатываний. Чем больше у события признаков, отличных от модели типичного поведения, тем выше балл риска.

В первом случае возможная оценка риска 750 и более, правило срабатывает при условии минимального срока связи с получателем (меньше одного дня) и максимальной суммарной сумме денежных средств более или равно 10 млн руб. Здесь требуется проверка оператором легитимности транзакции, а карта получателя (возможно мошенника) отправляется в черный список.

Во втором случае, при заданной оценке риска проходит проверка по нескольким правилам, в результате которой система без оператора отклоняет сомнительную транзакцию.

Далее возможно выполнить оптимизацию правил по социальной инженерии: система по результатам работы предложит новые правила для лучшего нахождения таких операций при минимальном параметре ложных срабатываний.

Таким образом, сочетание методов машинного обучения и метода правил позволяют решать более сложные, комплексные задачи защиты от мошенничества, в том числе от «социальной инженерии».

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

16.12.2025
OpenAI совершенствует модели защиты «на передовых рубежах»
16.12.2025
Мнение: Риски для «Мира» — QR-коды, биометрия и цифровой рубль
16.12.2025
Решение регулятора — ещё не приговор
16.12.2025
PayPal станет банком и снизит зависимость от партнёров (?)
16.12.2025
Teneo: ИИ не уничтожает рабочие места, но трансформирует роли
15.12.2025
Форум «АнтиФрод Россия» подвёл итоги борьбы с мошенничеством в 2025 году
15.12.2025
Баланс людей и технологий: ключевые выводы CX Fintech Day
15.12.2025
В США появится госстандарт для LLM
15.12.2025
Экологи против новых дата-центров
15.12.2025
Неясный экономический эффект тормозит развитие ИИ-технологий

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных