21 December 2019

Исследование: системы распознавания лиц склонны к расовой предвзятости

Официальное исследование правительства США подтвердило ранее установленные факты, что системы распознавания лиц чаще некорректно идентифицируют темнокожих и азиатов, чем белых — это усилило скептицизм к внедрению технологии, которую хотят повсеместно использовать правоохранительные органы.  

К такому выводу пришёл Национальный институт стандартов и технологии, сообщает Reuters. В ходе проверки выяснилось, что системы распознавания лиц некорректно идентифицируют темнокожих и азиатов от десяти до ста раз чаще, чем белых. Это значит, что при применении технологии в аэропортах, на таможнях и улицах темнокожих людей и азиатов могут несправедливо задерживать полицейские.

Также исследователи заметили уклон в сторону темнокожих женщин, которые больше рискуют быть несправедливо задержанными, чем белые женщины только потому, что система не умеет точно распознавать их лица.
.
Кого проверяли?
.
Исследователи протестировали 189 систем распознавания лиц от 99 различных разработчиков со всего мира, правда, в исследовании не приняла участия компания Amazon, которая не предоставила свой алгоритм. Китайский стартап SenseTime, оцененный в $7,5 млрд, показал «высокий уровень ложных совпадений для всех сравнений», немножко качественнее показала себя китайская система Yitu, однако и там ученые заметили расовый уклон.

Здесь можно подписать нашу петицию о наложении моратория на систему распознавания лиц в России. Ваша поддержка нужна нам, чтобы наша юридическая кампания была громче.

Contacts

For general questions

[email protected]

For legal questions

[email protected]

Contacts for media:

Telegram: moi_fee
Signal: moi_fee.13

18+

On December 23, 2022, the Ministry of Justice included Roskomsvoboda in the register of unregistered public associations performing the functions of a foreign agent. We disagree with this decision and are appealing it in court.