ИИ в киберкриминалистике — Холмс или всё же только Ватсон?

Кибербезопасники из нескольких университетов попытались нащупать роль больших языковых моделей в цифровой криминалистике. Было установлено, что искусственный интеллект вполне можно использовать для классификации данных, анализа вредоносного ПО и развития систем распознавания лиц.

Исследователи особо отметили возможность быстрого создания скриптов в условиях ограниченных ресурсов, что критично для процесса восстановления файлов, работы с RAID-массивами, взлома паролей и восстановления ключей шифрования.

Однако стоит помнить, что, несмотря на впечатляющий потенциал ИИ, робот может совершать ошибки, что грозит ощутимыми юридическими последствиями, возникновением непростых этических дилемм, а также ростом зависимости учёных от такого рода технологий.

Плюс, нельзя забывать и про технические ограничения — ИБ-эксперты заключили, что описанное исследование не являлось исчерпывающим, и реальная ситуация может существенно отличаться от условий экспериментов.

24 июля, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

08.12.2025
«Мы такое требование введём». ИНН станет обязательным при открытии счетов
08.12.2025
ИИ-трафик в России растёт, доля ChatGPT — падает
08.12.2025
Банки могут легально купить информацию о гражданах у МВД
08.12.2025
Энергопотребление ЦОДов и майнеров в России увеличится в 2,5 раза за пять лет
08.12.2025
Компания ARinteg укрепила цифровой периметр экосистемы недвижимости М2
08.12.2025
Британия допустила исключения в запрете на выплаты вымогателям
08.12.2025
Почта Великобритании оказалась «под колпаком» ICO после утечки данных
05.12.2025
Топ-менеджеров больше всего тревожат дезинформация и киберугрозы
05.12.2025
Россияне стали реже отменять самозапрет на кредиты
05.12.2025
Банк России снимет лимиты на перевод средств за границу

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных