Британская система распознавания лиц страдает ксенофобией?

Управление комиссара по информации (ICO) обратилось к британскому правительству с просьбой предоставить срочные ответы после того, как исследование Министерства внутренних дел выявило расовую предвзятость в технологии ретроспективного распознавания лиц (RFR), используемой полицией.

RFR применяется для сопоставления изображений, полученных с камер видеонаблюдения, а также видео с мобильных телефонов, видеорегистраторов или из соцсетей, с материалами из Национальной базы данных полиции. Ежемесячно проводится около 25 тысяч таких запросов для поимки потенциальных преступников.

В отчёте ведомства говорится, что «в ограниченном ряде случаев алгоритм с большей вероятностью ошибочно включает некоторые демографические группы в результаты поиска». В частности, частота ложноположительных результатов для белых респондентов (0,04%) значительно ниже, чем для азиатов (4%) и чернокожих (5,5%). А для чернокожих мужчин (0,4%) в свою очередь она ниже, чем для чернокожих женщин (9,9%).

Заместитель комиссара по информации Эмили Кини заявила, что Министерство внутренних дел принимает меры для исправления этих искажений. В то же время чиновник жалуется на недостаток сведений в рамках «более широкой работы по привлечению правительства и государственного сектора к ответственности за использование данных в их службах». Технологии играют важную роль, но доверие общественности к их использованию имеет первостепенное значение, и любое восприятие предвзятости и дискриминации может навредить делу, считает Кини.

Министерство сообщило о внедрении нового алгоритма на основе результатов тестирования, пообещав подвергнуть его оценке в начале следующего года. Ассоциация комиссаров по борьбе с преступностью заверила, что власти ввели «меры по смягчению последствий», чтобы гарантировать отсутствие предвзятости в системе RFR и работе полиции. Однако, как и ICO, она выразила обеспокоенность по поводу прозрачности.

«Системные сбои были известны уже некоторое время, однако, информация о них не была доведена до сведения пострадавших сообществ и ведущих заинтересованных сторон сектора, — гласит заявление организации. — Эти технологии становятся всё более инвазивными и сложными. Если мы хотим завоевать доверие и поддержку общественности, особенно тех групп, которые исторически не доверяли полиции, то полная прозрачность имеет жизненно важное значение».

Ассоциация выразила мнение, что такие технологии должны проходить тщательную и независимую оценку перед внедрением, а также предусматривать постоянный надзор во время операций и серьёзную подотчётность перед общественностью в случае возникновения проблем.

 

Усам Оздемиров

12 декабря, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

29.04.2026
Банк России: Не-предприниматели под новые критерии не подпадут
29.04.2026
Телеком — о введении лимита на VPN-трафик
28.04.2026
«Суверенность» ИИ-моделей более не фактор?
28.04.2026
НСФР: Фактически для нас установлен незаконный квазиналог
28.04.2026
«Зрелые» компании уже включают деградацию связи в сценарии непрерывности
28.04.2026
Финсектор — первый по внедрению ИИ-решений
28.04.2026
Лимит на VPN-трафик — «к 1 мая, к 1 сентября или к 2028 году»
27.04.2026
«Т-Банк» представил платёжный антишатдаун-сервис для iPhone
27.04.2026
Силовики советуют оставаться в пределах Рунета
27.04.2026
«Забытые» ИИ-агенты в корпоративных сетях приводят к инцидентам

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных