12 ноября 2020

Ошибка в работе системы распознавания лиц едва не стоила свободы жителю Подмосковья

Искусственный интеллект в системе видеонаблюдения «Ашана» принял его за укравшего элитный алкоголь гражданина, после чего он был задержан охраной и доставлен в полицию, где правоохранители грозили ему обыском в квартире и восьмилетним сроком.  

Курьёзная и одновременно пугающая история произошла с жителем подмосковного Видного Антоном Леушиным, на публикацию в Facebook которого первым обратило внимание издание IT-World. В конце октября текущего года охранники гипермаркета «Ашан» на Красносельской (Москва) задержали мужчину на два с половиной часа, после чего он был доставлен в отделение полиции, где провел еще шесть часов.

По словам Леушина, полицейские угрожали ему обыском в квартире и 8 годами тюрьмы. Причина задержания раскрылась после прибытия адвоката — «Автоматическая система распознавания лиц» предположила, что это мог быть посетитель, который несколько недель назад украл из магазина элитный алкоголь на сумму 78 тысяч рублей. Сотрудники посчитали это достаточной причиной для обвинения. Стоит заметить, наводка искусственного интеллекта касалась изображения мужчины с бородой и в медицинской маске.

Адвокат, нанятый Антоном Леушиным, доходчиво объяснил полицейским, что их обвинения беспочвенны. Как пишет сам пострадавший:

«…меня отпустили без составления протокола, взяв объяснение под диктовку адвоката. Истинную причину моего задержания я узнал только через 5 часов в полиции, когда приехал адвокат. Расход: 15000 рублей на срочный вызов адвоката, 6 часов жизни, нервы.

Максимально наглое поведение охраны Ашана, которые в нарушение закона удерживали меня 2 часа, не должно остаться безнаказанным. Как и действия их руководства, которое сделало ложное заявление в полицию, обвинив меня в краже, основываясь на приметах, под которые может попасть половина людей в Москве, да ещё и ссылаясь на «автоматическое распознавание лиц» под медицинской маской.

Ну и полиция, конечно, хороша со своим стремлением не разобраться, а давить физически и психологически, чтобы сделать себе план и отправить невиновного под суд».

.

Опрошенные изданием эксперты заявили о том, что ошибки в работе искусственного интеллекта, задействованого в системах распознавания лиц, случаются, но нечасто. Для повышения процента распознавания, во-первых, необходимо обучать нейросеть «узнавать» лица с масками. Во-вторых, обучение должно проходить на очень большой выборке.

«Никто не обозначит, какова вероятность ошибки, — говорит представитель ITV AxxonSoft Яков Волкинд. — В целом, 90%-ая точность вполне достижима, но стоит понимать, что видеоаналитика — это помощь. Хорошо если она квалифицированная и оказана с должным качеством, но есть масса окружающих факторов. Определенные нормы и процент погрешности, которые должны соблюсти разработчики по требованию различных контор, выполняются во время испытаний при стандартной освещенности. Таким образом, разработчика данного решения нельзя привлечь к ответственности за случившееся, как к примеру, Gismeteo за ясный солнечный день, вопреки спрогнозированному дождю. Магазин может поставить систему, но говорить о том, что она на сто процентов заменит человека, неверно».

Это мнение подтверждает Кирилл Керценбаум, директор по продажам Symantec:

«Нейросети — как одна из разновидностей систем искусственного интеллекта не являются по определению на 100% эффективными в процессах распознавания объектов и лиц. Как и любые самообучаемые решения, особенно до момента накопления больших выборок данных, вероятность ложно положительных и ложно отрицательных срабатываний может составлять от нескольких процентов до нескольких долей процента. К сожалению, сейчас это общая проблема отрасли ИИ, однако в последнее время количество таких ложных срабатываний снижается. Тем не менее, в первую очередь мы говорим о системах с большими выборками, например, государственного масштаба. В частном бизнесе, на значительно меньших объёмах данных, риск ложных срабатываний намного выше, и потому использовать их нужно куда аккуратнее, четко описывая поведение сотрудников при в подобных случаях. Данный конкретный пример описывает скорее не ошибку в работе видеоаналитики, а абсолютно некорректные меры реагирования и поведения персонала».

Действия охранников магазина, пишет CNews, можно расценивать как нарушение ст. 127 УК РФ (незаконное лишение свободы), о чем Антону Леушину написали в комментариях к его публикации. Ему посоветовали написать два заявления – на охранников за незаконное задержание и на полицейских за превышение полномочий. Ситуация, в которой оказался Антон Леушин, не единична в мировой практике. Другой зарегистрированный случай такого рода, по данным издания New York Times (NYT), произошел в январе 2020 г., когда ошибка интеллектуальной системы распознавания лиц привела к аресту афроамериканца Роберта Джулиана-Борчака Уильямса (Robert Julian-Borchak Williams).

Полицейские Детройта (США) задержали Уильямса и доставили его в участок, где объяснили, что «умная» система распознавания лиц определила в нем преступника, ограбившего магазин еще в 2018 г. В итоге полицейские обнаружили, что система ошиблась, но к этому времени пострадавший уже успел провести 30 часов за решеткой.

Стоит напомнить, что «РосКомСвобода», которая выступает за введение пятилетнего моратория на использование систем распознавания лиц, в числе причин приостановки использования данной технологии указывает в том числе и вероятность ошибки, которая может стоить гражданам не только денег и времени, но и свободы.

Контакты

По общим вопросам

[email protected]

По юридическим вопросам

[email protected]

Для СМИ

Телеграм: moi_fee
Signal: moi_fee.13

18+

23 декабря 2022 года Минюст включил Роскомсвободу в реестр незарегистрированных общественных объединений, выполняющих функции иностранного агента. Мы не согласны с этим решением и обжалуем его в суде.