ИИ в киберкриминалистике — Холмс или всё же только Ватсон?

Кибербезопасники из нескольких университетов попытались нащупать роль больших языковых моделей в цифровой криминалистике. Было установлено, что искусственный интеллект вполне можно использовать для классификации данных, анализа вредоносного ПО и развития систем распознавания лиц.

Исследователи особо отметили возможность быстрого создания скриптов в условиях ограниченных ресурсов, что критично для процесса восстановления файлов, работы с RAID-массивами, взлома паролей и восстановления ключей шифрования.

Однако стоит помнить, что, несмотря на впечатляющий потенциал ИИ, робот может совершать ошибки, что грозит ощутимыми юридическими последствиями, возникновением непростых этических дилемм, а также ростом зависимости учёных от такого рода технологий.

Плюс, нельзя забывать и про технические ограничения — ИБ-эксперты заключили, что описанное исследование не являлось исчерпывающим, и реальная ситуация может существенно отличаться от условий экспериментов.

24 июля, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

05.05.2026
CISA и партнёры рекомендовали Zero Trust на основе конвергенции ИТ и ОТ
05.05.2026
Скамеры метят в экономически активных граждан
05.05.2026
Минцифры обсуждает с силовиками «белый список» на 5–9 мая
05.05.2026
Рост числа атак на КИИ: геополитика, щедрый даркнет, засилье нейросетей и бреши у партнёров
05.05.2026
В России активизируют молодёжные кибердружины и медиапатрули
04.05.2026
Роботы будут строить ЦОДы сами для себя
04.05.2026
Эксперты высоко оценили управление рисками, связанными с человеческим фактором
04.05.2026
KELA: Число DDoS-атак в мире увеличилось на 400%
04.05.2026
Cloud.ru предлагает облачные сервера с преднастроенным Keycloak
04.05.2026
Мнение: Среди российских аналогов Asus и Samsung есть «неплохие продукты»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных