ИИ в киберкриминалистике — Холмс или всё же только Ватсон?

Кибербезопасники из нескольких университетов попытались нащупать роль больших языковых моделей в цифровой криминалистике. Было установлено, что искусственный интеллект вполне можно использовать для классификации данных, анализа вредоносного ПО и развития систем распознавания лиц.

Исследователи особо отметили возможность быстрого создания скриптов в условиях ограниченных ресурсов, что критично для процесса восстановления файлов, работы с RAID-массивами, взлома паролей и восстановления ключей шифрования.

Однако стоит помнить, что, несмотря на впечатляющий потенциал ИИ, робот может совершать ошибки, что грозит ощутимыми юридическими последствиями, возникновением непростых этических дилемм, а также ростом зависимости учёных от такого рода технологий.

Плюс, нельзя забывать и про технические ограничения — ИБ-эксперты заключили, что описанное исследование не являлось исчерпывающим, и реальная ситуация может существенно отличаться от условий экспериментов.

24 июля, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

23.04.2026
Предупреждение: Без VPN-протоколов не может работать ни одна госсистема
23.04.2026
Роскомнадзор отозвал почти 2000 телеком-лицензий
23.04.2026
«Работать не по дропам, а по дроповодам и заказчикам»
22.04.2026
«Тем, кто делает это платно, надо просто предусмотреть возможные риски»
22.04.2026
Банк России ввёл механизм дополнительной проверки на фрод
22.04.2026
ЕК оспаривает доминирование Google и требует поделиться данными
22.04.2026
Российский телеком пока не готов к сбору VPN-налога
22.04.2026
Российский ИТ-рынок значительно просел в темпах роста, но нарастил объёмы
22.04.2026
Servicepipe и itmode заключили соглашение о сотрудничестве в области защиты от DDoS-атак и ботов
21.04.2026
ВТБ — о том, как собирать биометрию, не напрягая(сь)

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных