Какова стратегия Европы в области развития и регуляции искусственного интеллекта, в чем их проблемы и какими они должны быть — в новом отчете организации Access Now.
В этом месяце Access Now выпустили отчет, в котором составили карту и проанализировали стратегии и предложения по регулированию искусственного интеллекта (ИИ) в Европе. Отчет охватывает как региональные стратегии Евросоюза и Совета Европы, так и национальные планы нескольких стран-участниц, включая Францию, Финляндию, Германию и Италию. Access Now предлагает критерии оценки стратегий ИИ, которые помогут убедиться, что в центре развития и внедрения ИИ находится человек и уважение к его правам.
.
Гонка в деле разработки искусственного интеллекта идет вовсю, и Европа не остается в стороне. Приглядывая одним глазом за конкурентами, от Кремниевой долины до Китая, отдельные страны-участницы и Евросоюз в целом анонсировали «стратегии ИИ», которые предписывают вложить деньги в образование, исследования и разработку, чтобы дать ход европейскому ИИ.
Мировые лидеры от Москвы до Вашингтона и Пекина участвуют в безумной гонке ИИ, так что страх отстать вполне реален. Все, по-видимому, согласны, что Европа должна запрыгнуть в поезд ИИ, но никто, похоже, не знает, куда этот поезд идет. Не забывают ли страны задать себе важнейшие вопросы: Какого рода ИИ мы хотим для нашего общества? Какое влияние эта технология окажет — или уже оказывает — на права человека, на жизни людей? Есть ли области общественной жизни, решения в которых слишком важны или слишком деликатны, чтобы отдавать их на откуп машине? Быть может, речь в конце концов идет вовсе не об одной гонке ИИ, а о нескольких, идущих в противоположных направлениях.
Правительства уже вынуждены отвечать на все эти вопросы для конкретных приложений ИИ. Им придется решить, где существующие законов и правоохранительные органы справятся с этими рисками, а где придется подстроиться — либо дать больше инструментов регуляторам, либо обновить регуляции. Это не обязательно означает удушение инновации. Как и с безопасностью автомобилей в XX веке, креативное регулирование может стать символом не европейской бюрократии, а европейского качества. У ЕС за плечами прочные традиции защиты прав человека и эффективного регулирования — взять для примера Хартию ЕС или Европейскую Конвенцию по Правам Человека, лидерство в вопросе прав, связанных с данными в виде Общего регламента по защите данных (GDPR), и правил ответственности производителей за продукцию — стоит рассматривать их как актив.
.
В своем отчете мы оценили и сравнили европейские стратегии в области ИИ, сопоставив их с набором принципов и прав человека, наиболее важных в контексте разработки, внедрения и использования ИИ. Мы разработали список критериев, в основе которых, с одной стороны, принципы и права, напрямую прописанные в самих стратегиях, а с другой — наиболее широко признанные проблемы, связанные с ИИ. Этот список включает 10 принципов и прав, от прозрачности и подотчетности до права на приватность, защиту данных и свободу самовыражения, а также более широкие коллективные и экономические права.
Если брать в целом, то через большинство стратегий ИИ проходит тема «этики искуственного интеллекта». Многие отмечают, что этика при правильном подходе может укрепить существующие правовые рамки и дать ответы на некоторые вопросы, поднятые использованием ИИ. Куда большие опасения вызывают стратегии, авторы которых, сделав реверанс в сторону «этики», демонстрируют главным образом готовность ослабить нормативную среду. Власти должны быть бдительны и не позволить под дымовой завесой этики дерегулировать технологическую среду.
Государства и эксперты предпочитают говорить об этике, по-видимому, из-за ощущения, что кодифицировать ИИ-специфичное регулирование еще слишком рано. Отчасти это вызвано тем, что для некоторых ключевых проблем, связанных с использованием ИИ, могут найтись технологические решения, которые сделают ненужными изменения правовых норм.
В целом, большинство опубликованных стратегий хотя бы вскользь упоминают многие важнейшие области, где ИИ будет иметь последствия для прав человека — в частности, прозрачность, подотчетность, приватность и будущее работы. Области, которые чаще всего обозначаются в качестве проблемных, — это, с одной стороны, те, где встречаются случаи дискриминации, в частности, система уголовного правосудия, а с другой — те, где возможны последствия для приватности и защиты данных. Вместе с тем, это те области, где ученые, организации, занимающиеся правами человека, и регуляторы уже ищут решения. Существующие принципы прав человека и защиты данных — если их подкрепить ресурсами для исполнения и волей органов власти к подотчетности — уже являются эффективными инструментами для управления ИИ на пользу обществу. GDPR еще слишком молод, и потому его влияние на ИИ еще недостаточно исследованы, но в будущем он может дать почву для интересных тематических исследований.
Несмотря на это, в большом числе стратегий ИИ мы обнаружили существенные пробелы в вопросах прав человека, и предложили ряд рекомендаций по их устранению. Наш общий вывод — в том, что целью Европы должна стать консолидированный подход к регулированию ИИ, который учитывает различные контексты, в которых ИИ уже разрабатывается и используется, а воплощение этого подхода должно быть последовательным и уважать права человека по всему Союзу.
.
В то время как такие страны, как Россия и Китай, по-видимому, заинтересованы преимущественно в военных разработках, ЕС потенциально может возглавить развитие человекоцентричного ИИ, подтвердив свои ценности и предоставив адекватные гарантии прав. Тогда у Европы будет возможность задать то направление развития ИИ, которое, хотелось бы верить, по-настоящему приведет к ИИ во имя Человечества.
В области технического развития, Европа всегда с завистью смотрела на США. Американскую нормативную среду, почти свободную от регулирования, часто изображали главной причиной, невероятного успеха технических компаний, которые находятся на переднем рубеже разработки ИИ. Но мрачная реальность: отключения интернета, закрытые пространств, цензура, уязвимости нулевого дня, речи ненависти, нарушения защиты данных и приватности, а также дезинформация все сильнее угрожают затмить прошлые надежды и поставить под угрозу трансформирующую силу интернета в деле реализации прав человека.
Тем временем, общим местом стало считать Китай с его зловещей системой «социального кредита» образцовой антиутопией, движимой ИИ; тем, чего следует избегать. Проще говорить, к примеру, что плюралистические демократии ЕС никогда не пойдут по китайскому пути, чем замечать и избегать проблемных местных аналогов, особенно с учетом того, что, невзирая на нарушения прав человека, усилия Китая по развитию ИИ активно восхваляются. Когда страховая компания извлекает ваши посты из социальных сетей, чтобы, оценив ваш образ жизни и уровень риска, тем самым определить страховой взнос — это ли не мягкая, приватизированная форма социального кредита? Случай Китая также служит напоминанием, что крупнейшие компании, работающие с данными — включая тех, что находятся на переднем рубеже развития ИИ — со временем эволюционируют и не всегда в лучшую сторону.
Вызов для Европы — в том, чтобы разработать политику в области искусственного интеллекта, которая будет стимулировать инновации, но при этом проскочит между «Диким Западом» — подходом, характерным для ранней Кремниевой долины, — и государственническим подходом Китая. Это и не простая золотая лихорадка, и не сценарий конца света, от которого надо отгородиться панцирем всеохватывающего регулирования. Скорее, следует рассмотреть каждое социально значимое применение искусственного интеллекта в его контексте, критически оценить его влияние на права и свободы в Европе, и соответствующим образом регулировать.
Чтобы разобраться в этом вопросе, будет важно также вывести эти дебаты за пределы специализированного технологического сообщества. Граждане также начинают понимать, как их данными могут злоупотребить, и одновременно осознают возможности ИИ. Обеспечить их участие в разговоре будет важнейшей задачей.
Государства и регуляторы, возможно, всегда будут в роли догоняющих по отношению к технологическим переменам, но это не повод сдавать целую область регулирования. Этические и юридические принципы, которые базируются на правах человека и ведут к лучшим, более подходящим предложениям, вполне возможно найти. Европейские законы вполне способны защитить граждан от ситуации, когда им приходится отказываться от права на частную жизнь в обмен на важнейшие интернет-сервисы из-за того, что им кажется, что выбора нет. Именно это — разработка умного регулирования ИИ, в центре которого находится человеческий фактор — может и должно быть уникальным предложением Европы.
Полностью отчет можно прочесть тут.
Читайте также:
Цифровая идентификация личности намного опаснее, чем ты думаешь
?
Россия будет сотрудничать в области IT, искусственного интеллекта и спутниковых систем с Китаем
?
Гаджеты на службе разведок
?
Минобороны зовёт на помощь искусственный интеллект для победы в кибервойне
?
Европа снабжает авторитарные режимы оборудованием для интернет-слежки
The main news of the week in the field of law.
On December 23, 2022, the Ministry of Justice included Roskomsvoboda in the register of unregistered public associations performing the functions of a foreign agent. We disagree with this decision and are appealing it in court.