ИИ в киберкриминалистике — Холмс или всё же только Ватсон?

Кибербезопасники из нескольких университетов попытались нащупать роль больших языковых моделей в цифровой криминалистике. Было установлено, что искусственный интеллект вполне можно использовать для классификации данных, анализа вредоносного ПО и развития систем распознавания лиц.

Исследователи особо отметили возможность быстрого создания скриптов в условиях ограниченных ресурсов, что критично для процесса восстановления файлов, работы с RAID-массивами, взлома паролей и восстановления ключей шифрования.

Однако стоит помнить, что, несмотря на впечатляющий потенциал ИИ, робот может совершать ошибки, что грозит ощутимыми юридическими последствиями, возникновением непростых этических дилемм, а также ростом зависимости учёных от такого рода технологий.

Плюс, нельзя забывать и про технические ограничения — ИБ-эксперты заключили, что описанное исследование не являлось исчерпывающим, и реальная ситуация может существенно отличаться от условий экспериментов.

24 июля, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

25.12.2025
Microsoft: Ориентир — «один инженер, один месяц, один миллион строк кода»
25.12.2025
ЛК, Softline и «Газинформсервис» — лидеры российского ИБ-рынка в 2025 году
25.12.2025
В Китае уравняли нейросети и цунами
25.12.2025
NIST и MITRE объединили усилия вокруг ИИ-проектов
25.12.2025
Сибирь и Урал налегают на «добычу»
25.12.2025
Боярский — о «таких уголках интернета» и «необузданном» VPN
25.12.2025
Обновлённый MaxPatrol EDR: расширенные возможности для внедрения и для сбора данных
25.12.2025
PT Data Security 1.0: классификация данных стала быстрее, а мониторинг безопасности — проще
24.12.2025
«Альфа-Банк» переходит на российский SafeTech CA для управления цифровыми сертификатами
24.12.2025
Открытый API избавит от спама?

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных