ЛК: Работа с нейросетями требует доверенности и верифицируемости

Анна Кулашова из «Лаборатории Касперского» сообщила, что в России уже в этом году может появиться единый специализированный центр по исследованию безопасности в сфере искусственного интеллекта — по аналогии с командами реагирования на компьютерные инциденты (CERT).

Она пояснила, что в кибербезе проводятся регулярные проверки на предмет безопасности разработки ПО, и аналогичную практику необходимо распространить в поле ИИ-алгоритмов. Работа с нейросетями, по словам Кулашовой, требует «доверенности, верифицируемости и надёжности, а также проверки инструментов разработки на наличие уязвимостей».

Топ-менеджер ЛК считает, что центр должен быть создан на базе регулятора, а после к нему смогут присоединиться операторы связи и члены Альянса в сфере ИИ. Отраслевые эксперты добавили в этот список разработчиков графических процессоров (GPU), способных на аппаратном уровне регулировать работу нейросетей.

Замминистра цифрового развития Александр Шойтов в свою очередь отметил, что его ведомство уже ведёт работу по созданию такого ИИ-CERT’а вместе с заинтересованными сторонами: «С учётом того что вопросы безопасности ИИ в отдельных компаниях и госструктурах развиваются, создание единого центра исследований информационной безопасности искусственного интеллекта как единой точки исследований необходимо». А советник гендиректора Positive Technologies Артём Сычёв напомнил, что создание центра обсуждается в контексте разработки нацпроекта «Экономика данных».

4 апреля, 2024

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.01.2026
Apple уводит своих фанатов в тень
30.01.2026
Более 80% этичных хакеров сегодня использует ИИ
30.01.2026
Компании «СПБ» и QRate объединяют усилия для развития квантовых коммуникаций
30.01.2026
«Мы увидели целую индустрию паспортов умерших, на которых оформляют карты»
30.01.2026
Дуров и Маск не сошлись в подходах к конфиденциальности данных
29.01.2026
Пять главных ИИ-рисков по версии Anthropic
29.01.2026
OpenAI будет отсекать ботов с помощью биометрии
29.01.2026
Дуров: Нужно быть полным идиотом, чтобы поверить в безопасность WhatsApp в 2026 году
29.01.2026
Штрафы за нарушение правил эксплуатации объектов КИИ достигнут полумиллиона рублей
29.01.2026
Британцев накажут за «неспособность предотвратить мошенничество»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных