21 December 2019

Исследование: системы распознавания лиц склонны к расовой предвзятости

Официальное исследование правительства США подтвердило ранее установленные факты, что системы распознавания лиц чаще некорректно идентифицируют темнокожих и азиатов, чем белых — это усилило скептицизм к внедрению технологии, которую хотят повсеместно использовать правоохранительные органы.  

К такому выводу пришёл Национальный институт стандартов и технологии, сообщает Reuters. В ходе проверки выяснилось, что системы распознавания лиц некорректно идентифицируют темнокожих и азиатов от десяти до ста раз чаще, чем белых. Это значит, что при применении технологии в аэропортах, на таможнях и улицах темнокожих людей и азиатов могут несправедливо задерживать полицейские.

Также исследователи заметили уклон в сторону темнокожих женщин, которые больше рискуют быть несправедливо задержанными, чем белые женщины только потому, что система не умеет точно распознавать их лица.
.
Кого проверяли?
.
Исследователи протестировали 189 систем распознавания лиц от 99 различных разработчиков со всего мира, правда, в исследовании не приняла участия компания Amazon, которая не предоставила свой алгоритм. Китайский стартап SenseTime, оцененный в $7,5 млрд, показал «высокий уровень ложных совпадений для всех сравнений», немножко качественнее показала себя китайская система Yitu, однако и там ученые заметили расовый уклон.

Здесь можно подписать нашу петицию о наложении моратория на систему распознавания лиц в России. Ваша поддержка нужна нам, чтобы наша юридическая кампания была громче.

Поделитесь материалом

Похожие статьи

Контакты

По общим вопросам

[email protected]

По юридическим вопросам

[email protected]

Для СМИ

+7 903 003-89-52