ИИ в киберкриминалистике — Холмс или всё же только Ватсон?

Кибербезопасники из нескольких университетов попытались нащупать роль больших языковых моделей в цифровой криминалистике. Было установлено, что искусственный интеллект вполне можно использовать для классификации данных, анализа вредоносного ПО и развития систем распознавания лиц.

Исследователи особо отметили возможность быстрого создания скриптов в условиях ограниченных ресурсов, что критично для процесса восстановления файлов, работы с RAID-массивами, взлома паролей и восстановления ключей шифрования.

Однако стоит помнить, что, несмотря на впечатляющий потенциал ИИ, робот может совершать ошибки, что грозит ощутимыми юридическими последствиями, возникновением непростых этических дилемм, а также ростом зависимости учёных от такого рода технологий.

Плюс, нельзя забывать и про технические ограничения — ИБ-эксперты заключили, что описанное исследование не являлось исчерпывающим, и реальная ситуация может существенно отличаться от условий экспериментов.

24 июля, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

16.04.2026
Global CIO: Усиление киберустойчивости — цель почти трети компаний
16.04.2026
Ограничение VPN своими силами vs. «экономический фильтр»
16.04.2026
Bitcoin Depot сообщила о краже коинов на сумму 3,6 млн долларов
15.04.2026
Клиенты банков смогут заключать договоры удалённо
15.04.2026
НВБС: Без модернизации рост ИИ-нагрузок будет повышать риск перегревов
15.04.2026
Силовики получат внесудебный доступ к гаджетам россиян?
15.04.2026
«Нацмессенджеру» — «Национальную информационную платформу»?
15.04.2026
В «СёрчИнформ КИБ» интегрирован ИИ-модуль для анализа инцидентов
15.04.2026
Конференция «Внутренний контроль и аудит в России. Повышение эффективности бизнеса»
15.04.2026
Цукерберг фильтрует рекламу в соцсетях, опасаясь судебных исков

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных