ИИ в киберкриминалистике — Холмс или всё же только Ватсон?

Кибербезопасники из нескольких университетов попытались нащупать роль больших языковых моделей в цифровой криминалистике. Было установлено, что искусственный интеллект вполне можно использовать для классификации данных, анализа вредоносного ПО и развития систем распознавания лиц.

Исследователи особо отметили возможность быстрого создания скриптов в условиях ограниченных ресурсов, что критично для процесса восстановления файлов, работы с RAID-массивами, взлома паролей и восстановления ключей шифрования.

Однако стоит помнить, что, несмотря на впечатляющий потенциал ИИ, робот может совершать ошибки, что грозит ощутимыми юридическими последствиями, возникновением непростых этических дилемм, а также ростом зависимости учёных от такого рода технологий.

Плюс, нельзя забывать и про технические ограничения — ИБ-эксперты заключили, что описанное исследование не являлось исчерпывающим, и реальная ситуация может существенно отличаться от условий экспериментов.

24 июля, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

03.09.2025
В Госдуме заявили об интересе «людей в костюмах» к FaceTime
03.09.2025
TenChat внедряет сертификацию ИТ-специалистов на базе платформы РОКИС
03.09.2025
«Образовательный сектор — настоящий кладезь конфиденциальной информации»
03.09.2025
В китайском интернете ввели обязательную маркировку ИИ-контента
02.09.2025
В России вступили в силу антифрод-поправки от «связистов»
02.09.2025
«Звёздные врата» откроются и над Индией. OpenAI строит ЦОД в Азии
02.09.2025
ИИ-факультет — имиджевый и стратегический проект МГУ
02.09.2025
НИЦ «Телеком» против мобильного рабства россиян
02.09.2025
«Яблоки» под расписку. Россиянам предлагают «пустые» смартфоны и после 1 сентября
02.09.2025
Google скоро покажет свой криптоконструктор для финсервисов

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных