ИИ в киберкриминалистике — Холмс или всё же только Ватсон?

Кибербезопасники из нескольких университетов попытались нащупать роль больших языковых моделей в цифровой криминалистике. Было установлено, что искусственный интеллект вполне можно использовать для классификации данных, анализа вредоносного ПО и развития систем распознавания лиц.

Исследователи особо отметили возможность быстрого создания скриптов в условиях ограниченных ресурсов, что критично для процесса восстановления файлов, работы с RAID-массивами, взлома паролей и восстановления ключей шифрования.

Однако стоит помнить, что, несмотря на впечатляющий потенциал ИИ, робот может совершать ошибки, что грозит ощутимыми юридическими последствиями, возникновением непростых этических дилемм, а также ростом зависимости учёных от такого рода технологий.

Плюс, нельзя забывать и про технические ограничения — ИБ-эксперты заключили, что описанное исследование не являлось исчерпывающим, и реальная ситуация может существенно отличаться от условий экспериментов.

24 июля, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

27.03.2026
Минфин расширит обмен данными между ФНС и ЦБ
27.03.2026
Apple создаёт спецнейросети для iPhone силами Google
27.03.2026
К2Тех: Есть запрос на доступность данных, защиту процессов и соблюдение нормативов
27.03.2026
ЕС наложит запрет на ИИ-сервисы для имитации обнажённого тела
27.03.2026
Gartner: К концу года более 40% операций SOC будет выполняться автоматически
26.03.2026
Кто сможет работать в аккредитованной ИТ-компании с 2026 года
26.03.2026
FCA обновило правила отчётности о киберинцидентах и ​​сообщениях от третьих лиц
26.03.2026
Банки, операторы связи и УЦ смогут купить данные о россиянах у МВД
26.03.2026
Банкиры и безопасники — против уведомлений в МАХ
26.03.2026
Студентов научат внедрять кибербез на ранних этапах создания ПО

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных