Британская система распознавания лиц страдает ксенофобией?

Управление комиссара по информации (ICO) обратилось к британскому правительству с просьбой предоставить срочные ответы после того, как исследование Министерства внутренних дел выявило расовую предвзятость в технологии ретроспективного распознавания лиц (RFR), используемой полицией.

RFR применяется для сопоставления изображений, полученных с камер видеонаблюдения, а также видео с мобильных телефонов, видеорегистраторов или из соцсетей, с материалами из Национальной базы данных полиции. Ежемесячно проводится около 25 тысяч таких запросов для поимки потенциальных преступников.

В отчёте ведомства говорится, что «в ограниченном ряде случаев алгоритм с большей вероятностью ошибочно включает некоторые демографические группы в результаты поиска». В частности, частота ложноположительных результатов для белых респондентов (0,04%) значительно ниже, чем для азиатов (4%) и чернокожих (5,5%). А для чернокожих мужчин (0,4%) в свою очередь она ниже, чем для чернокожих женщин (9,9%).

Заместитель комиссара по информации Эмили Кини заявила, что Министерство внутренних дел принимает меры для исправления этих искажений. В то же время чиновник жалуется на недостаток сведений в рамках «более широкой работы по привлечению правительства и государственного сектора к ответственности за использование данных в их службах». Технологии играют важную роль, но доверие общественности к их использованию имеет первостепенное значение, и любое восприятие предвзятости и дискриминации может навредить делу, считает Кини.

Министерство сообщило о внедрении нового алгоритма на основе результатов тестирования, пообещав подвергнуть его оценке в начале следующего года. Ассоциация комиссаров по борьбе с преступностью заверила, что власти ввели «меры по смягчению последствий», чтобы гарантировать отсутствие предвзятости в системе RFR и работе полиции. Однако, как и ICO, она выразила обеспокоенность по поводу прозрачности.

«Системные сбои были известны уже некоторое время, однако, информация о них не была доведена до сведения пострадавших сообществ и ведущих заинтересованных сторон сектора, — гласит заявление организации. — Эти технологии становятся всё более инвазивными и сложными. Если мы хотим завоевать доверие и поддержку общественности, особенно тех групп, которые исторически не доверяли полиции, то полная прозрачность имеет жизненно важное значение».

Ассоциация выразила мнение, что такие технологии должны проходить тщательную и независимую оценку перед внедрением, а также предусматривать постоянный надзор во время операций и серьёзную подотчётность перед общественностью в случае возникновения проблем.

 

Усам Оздемиров

12 декабря, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

15.01.2026
У «Сигнала» появится младший брат
15.01.2026
За «серую» продажу SIM-карт — штраф до миллиона рублей
15.01.2026
Члены Scattered Lapsus$ Hunters взломали Discord
14.01.2026
Europol помог испанской полиции в поимке хакеров
14.01.2026
Как «Мир» принимают в мире. Нюансы
14.01.2026
Три недели до 26-го Банковского форума iFin-2026
14.01.2026
DLP «СёрчИнформ КИБ» интегрировалась с архиватором ARZip для контроля передачи защищённых архивов
14.01.2026
ВЭФ предупредил о серьёзных рисках, связанных с deepfake-технологиями
14.01.2026
«Астра» покупает разработчика «МойОфис»?
13.01.2026
Личные аккаунты LLM, находящиеся в тени, повышают риски утечки

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных