Касперская: Системам ИИ полностью передавать решения нельзя

Риски широкого распространения и использования искусственного интеллекта обсудили участники пленарной сессии «Использование систем искусственного интеллекта: вопросы доверия и информационной безопасности» Дня Кибербезопасности Форума GIS DAYS 2023, который прошел 6 октября в Москве.

«Системы ИИ — любые системы, имитирующие когнитивные функции человека, — начала выступление с определений Наталья Касперская, Президент ГК «InfoWatch», сооснователь компании «Лаборатория Касперского», отвечая на вопрос модератора сессии Артёма Калашникова, управляющего директора Центра информационной безопасности дочерних и зависимых обществ (Газпромбанк) о решении проблемы «чёрного ящика» ИИ. — Антивирусные программы — пример систем ИИ. Встроенные системы Т9, которые подставляют слова в телефоне — системы ИИ».

«И мне неизвестно, чтобы проблема "чёрного ящика" была решена», — отметила Наталья Касперская, уточнив, что надо говорить про системы машинного обучения, поскольку в них сосредоточены наибольшие риски. «Машина делает что-то сама, что мы не в состоянии понять. И это является проблемой “чёрного ящика”, — заметила докладчик. — Эту задачу невозможно решить, но можно снижать риски».

В качестве примеров Касперская привела возможность использовать доверенные дата-сеты, на которых система будет обучаться, и сертифицировать процесс их разработки, можно брать доверенные фрейморки. Однако и тут есть вопрос доверия, поскольку за основу берутся разработки иностранных ИТ-гигантов. «Если предположить, что у нас есть доверенные платформы, мы не может гарантировать, что система не примет решения, которое не ожидаем, — считает спикер — Для систем ML — это некая побочная функция. Мы должны понимать, что в некоторых случаях можем получить непредсказуемый результат».

Эксперт также отметила, что когда ставится вопрос о доверенности, надо учитывать, помимо прочих, и гуманитарные риски принятия решения о людях: увольнение, расчёт дозы лекарства и так далее. В этом случае есть риск принятия неверного решения и вопрос ответственности за него.

«Системам ИИ полностью передавать решения нельзя», — полагает Наталья Касперская, отметив, что риск того, что система примет неправильное решение, должен быть нивелирован человеком, должна быть ответственность.

Отмечая другие гуманитарные аспекты использования ИИ, докладчик отметила тенденцию деградации умений человека: калькулятор отучил его считать, навигатор — ориентироваться на местности. Из программ обучения вторых пилотов исключили раздел ручной посадки самолетов. Многие медицинские диагнозы ставятся на основе BigData, врачи теряют профессиональные навыки и интуицию. Это огромные социальные риски, которые видны на больших данные. При опоре на дата-сеты через два поколения «мы получим искусственный интеллект и глупых людей», считает эксперт.

 

Медиа Группа «Авангард» в рамках GIS DAYS 2023 выступила организатором ключевой дискуссии в Москве.

6 октября, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

21.04.2026
ВТБ — о том, как собирать биометрию, не напрягая(сь)
21.04.2026
Банки грозят расторжением договоров с теми, кто слаб в кибербезе
20.04.2026
Проза ИИ-отрасли: строители не успевают за инвесторами
20.04.2026
Цифровые гарантии для россиян обсудят в Госдуме
20.04.2026
Минцифры простимулирует импортозамещение новыми штрафами
20.04.2026
Регистрация смартфонов в базе IMEI — обязательно и платно
20.04.2026
Николай Гончаров (Security Vision): «Главный фактор — способность быстро связать разрозненные сигналы, понять контекст атаки и принять решение по реагированию»
17.04.2026
Настоящий тест на киберграмотность — ценой пароля
17.04.2026
Банкиры не могут подключиться к СМЭВ
17.04.2026
Верификатор возраста взломали ещё до релиза

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных