ИИ в киберкриминалистике — Холмс или всё же только Ватсон?

Кибербезопасники из нескольких университетов попытались нащупать роль больших языковых моделей в цифровой криминалистике. Было установлено, что искусственный интеллект вполне можно использовать для классификации данных, анализа вредоносного ПО и развития систем распознавания лиц.

Исследователи особо отметили возможность быстрого создания скриптов в условиях ограниченных ресурсов, что критично для процесса восстановления файлов, работы с RAID-массивами, взлома паролей и восстановления ключей шифрования.

Однако стоит помнить, что, несмотря на впечатляющий потенциал ИИ, робот может совершать ошибки, что грозит ощутимыми юридическими последствиями, возникновением непростых этических дилемм, а также ростом зависимости учёных от такого рода технологий.

Плюс, нельзя забывать и про технические ограничения — ИБ-эксперты заключили, что описанное исследование не являлось исчерпывающим, и реальная ситуация может существенно отличаться от условий экспериментов.

24 июля, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

12.12.2025
В Европе и США хотят дать «карт-бланш» этичным хакерам
11.12.2025
Кого подготовят в рамках соглашений ИТ-компаний с вузами
11.12.2025
Австралийским подросткам запретили соцсети
11.12.2025
Почему Роскомнадзор не блокирует iMessage: две версии
11.12.2025
В России впервые использовали GenAI при проведении прямой линии главы региона
11.12.2025
Gartner советует приостановить использование браузеров с ИИ-агентами
10.12.2025
ИБ-ведомства продвигают цифровое доверие к контенту в эпоху ИИ
10.12.2025
«Бизнес увидит более прозрачные требования финразведки, а банки — уменьшение нагрузки»
10.12.2025
MFASOFT снижает нагрузку на техподдержку с помощью личного кабинета управления аутентификацией
10.12.2025
ВТБ: Карты с истекшими сроками сертификатов не будут «биты»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных