23 August 2021

Житель США был арестован почти на год по обвинению только на основе данных ИИ

Обвинение не указало мотив, не предоставило свидетелей и не нашло использованного оружия, но удовольствовалось только результатами алгоритма машинного обучения.

Житель США Майкл Уильямс просидел в тюрьме 11 месяцев в ожидании суда за предполагаемое убийство, пишет The Register. Единственным доказательством причастности Уильямса к преступлению послужили данные, полученные с помощью ИИ-системы, а именно алгоритма машинного обучения, идентифицирующего звуки выстрелов и предупреждающего о них полицейских. Такие сенсоры компании ShotSpotter установлены во многих американских городах, отмечает издание.

Прокуроры заявили, что одно из устройств уловило звук выстрела, когда Уильямс был рядом с убитым в своей машине (камеры наблюдения потом это показали). Обвинение не указало мотив, не предоставило свидетелей и не нашло использованного оружия. Однако Уильямс имел криминальное прошлое (срок за покушение на убийство, ограбление и стрельбу из огнестрельного оружия). Полиция допросила и арестовала его.

 

«Я всё думал, как им может сойти с рук использование подобной технологии против меня, — сказал Уильямс. — Это нечестно».

 

Адвокаты Уильямса попросили судью по этому делу провести расследование. Они заявили, что на самом деле сенсор зафиксировал взрывы петард в миле от того места, где машина Уильямса попала в объектив камеры. А уже сотрудники ShotSpotter объявили эти звуки хлопками выстрелов. И хотя сотрудники компании не согласились, что они неправильно интерпретировали данные, в итоге дело прекратили на основании недостаточных доказательств.

Впрочем, расследование Associated Press подтвердило, что система может пропускать стрельбу или неправильно определять звуки в качестве выстрелов. Анализ издания основан на обзоре внутренних документов, электронных писем, презентаций, а также интервью с десятками общественных деятелей, где развернуты сенсоры ShotSpotter. Информационное агенство пишет, что сотрудники ShotSpotter часто допускают ошибки, внося элемент человеческой предвзятости в работу алгоритма.

 

«В случае в ShotSpotter нет никакого способа определить, является ли система точной и откалиброванной, — сказала один из адвокатов Кэти Хиггинс. — Самое серьёзное последствие — быть осужденным за преступление на основе подобного доказательства».

 

Кроме того, авторы другого исследования обнаружили, что технология не помогла снизить уровень насилия с применением оружия и не улучшила общественную безопасность.

Поделитесь материалом

Похожие статьи

Контакты

По общим вопросам

[email protected]

По юридическим вопросам

[email protected]

Для СМИ

+7 903 003-89-52