Британская система распознавания лиц страдает ксенофобией?

Управление комиссара по информации (ICO) обратилось к британскому правительству с просьбой предоставить срочные ответы после того, как исследование Министерства внутренних дел выявило расовую предвзятость в технологии ретроспективного распознавания лиц (RFR), используемой полицией.

RFR применяется для сопоставления изображений, полученных с камер видеонаблюдения, а также видео с мобильных телефонов, видеорегистраторов или из соцсетей, с материалами из Национальной базы данных полиции. Ежемесячно проводится около 25 тысяч таких запросов для поимки потенциальных преступников.

В отчёте ведомства говорится, что «в ограниченном ряде случаев алгоритм с большей вероятностью ошибочно включает некоторые демографические группы в результаты поиска». В частности, частота ложноположительных результатов для белых респондентов (0,04%) значительно ниже, чем для азиатов (4%) и чернокожих (5,5%). А для чернокожих мужчин (0,4%) в свою очередь она ниже, чем для чернокожих женщин (9,9%).

Заместитель комиссара по информации Эмили Кини заявила, что Министерство внутренних дел принимает меры для исправления этих искажений. В то же время чиновник жалуется на недостаток сведений в рамках «более широкой работы по привлечению правительства и государственного сектора к ответственности за использование данных в их службах». Технологии играют важную роль, но доверие общественности к их использованию имеет первостепенное значение, и любое восприятие предвзятости и дискриминации может навредить делу, считает Кини.

Министерство сообщило о внедрении нового алгоритма на основе результатов тестирования, пообещав подвергнуть его оценке в начале следующего года. Ассоциация комиссаров по борьбе с преступностью заверила, что власти ввели «меры по смягчению последствий», чтобы гарантировать отсутствие предвзятости в системе RFR и работе полиции. Однако, как и ICO, она выразила обеспокоенность по поводу прозрачности.

«Системные сбои были известны уже некоторое время, однако, информация о них не была доведена до сведения пострадавших сообществ и ведущих заинтересованных сторон сектора, — гласит заявление организации. — Эти технологии становятся всё более инвазивными и сложными. Если мы хотим завоевать доверие и поддержку общественности, особенно тех групп, которые исторически не доверяли полиции, то полная прозрачность имеет жизненно важное значение».

Ассоциация выразила мнение, что такие технологии должны проходить тщательную и независимую оценку перед внедрением, а также предусматривать постоянный надзор во время операций и серьёзную подотчётность перед общественностью в случае возникновения проблем.

 

Усам Оздемиров

12 декабря, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

12.12.2025
В Европе и США хотят дать «карт-бланш» этичным хакерам
12.12.2025
Бакина: «Пластик» Visa и Mastercard остановился в развитии
12.12.2025
«Они готовы на это, они посчитали свою экономику». ЦОДы определились с аппетитами
12.12.2025
Британская система распознавания лиц страдает ксенофобией?
11.12.2025
Кого подготовят в рамках соглашений ИТ-компаний с вузами
11.12.2025
Австралийским подросткам запретили соцсети
11.12.2025
Почему Роскомнадзор не блокирует iMessage: две версии
11.12.2025
В России впервые использовали GenAI при проведении прямой линии главы региона
11.12.2025
Gartner советует приостановить использование браузеров с ИИ-агентами
11.12.2025
США сняли санкции с вице-президента «Лаборатории Касперского»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных