База данных для управления всеми: невидимый картель подрывает свободу выражения мнений в интернете

Глобальный интернет-форум по борьбе с терроризмом имеет благую цель, но парадоксально наносит вред — каким образом, рассказывает The Electronic Frontier Foundation.  

Каждый год миллионы изображений, видео и постов, якобы содержащих террористический или экстремистский контент, удаляются из социальных сетей, таких как YouTube, Facebook или Twitter. Решающей силой здесь является Глобальный интернет-форум по борьбе с терроризмом (Global Internet Forum to Counter Terrorism, GIFCT). Его деятельность направлена на то, чтобы «не допустить использования цифровых платформ террористами и экстремистами». К сожалению, GIFCT потенциально может оказать огромное (и чрезмерное) негативное влияние на свободу выражения мнений определённых сообществ.

Социальные сети уже давно борются с проблемой экстремистского или насильственного контента на своих платформах. Они заинтересованы в том, чтобы предложить своим пользователям онлайн-среду, свободную от неприятного контента, поэтому услуги большинства соцсетей предоставляются на определённых условиях. В течение последнего десятилетия, однако, правительства по всему миру всё больше заставляли социальные медиа реагировать на насильственный и экстремистский контент. Подстёгиваемые террористическими атаками в Париже и Брюсселе в 2015 и 2016 годах соответственно и недальновидно верящие в то, что цензура является эффективным инструментом борьбы с экстремизмом, правительства обращаются к модерации контента как средству борьбы с международным терроризмом.

Модерация коммерческого контента — это процесс принятия решений людьми-рецензентами или, очень часто, машинами о том, какой контент может и не может быть на сайтах. Процесс строится на условиях предоставления услуг, «стандартах сообщества» или других правилах.

Во время пандемии коронавируса компании могли меньше обращаться к людям и стали больше полагаться на алгоритмы машинного обучения для модерирования контента и его маркировки. Эти алгоритмы, которые на самом деле являются просто набором инструкций для определённых действий, снабжаются начальным набором правил и большим количеством данных для обучения в надежде, что машины научатся определять подобный контент. Но человеческая речь — сложное социальное явление, сильно зависящее от контекста. Алгоритмы модерации контента неизбежно делают ошибки. Что еще хуже, поскольку алгоритмы машинного обучения обычно работают как чёрные ящики, которые не объясняют, как они пришли к решению, третьи стороны мало что могут сделать, чтобы предотвратить эти ошибки.

Эта проблема обострилась с введением хеширования баз данных для отслеживания и удаления экстремистского контента. Хеши — это цифровые «отпечатки пальцев» контента, которые компании используют для идентификации и удаления материалов со своих платформ. По своей природе они уникальны и позволяют легко идентифицировать конкретный контент. Когда изображение определяется как «террористический контент», оно помечается хешем и вводится в базу данных, что позволяет легко идентифицировать любые загрузки того же изображения в будущем. Именно на это и нацелена инициатива GIFCT — распространить массивную базу данных предполагаемого «террористического» контента, добровольно предоставленного компаниями, среди членов своей коалиции. База данных собирает хеши, или уникальные отпечатки пальцев, предполагаемого «террористического» или экстремистского и насильственного контента, а не сам контент. Хотя это звучит как эффективный подход к сложной задаче правильного выявления и уничтожения террористического контента, это также означает, что одна единственная база данных может быть использована для определения того, что допустимо говорить, а что нет. Причём, для всего интернета.

Бесчисленные примеры доказали, что людям очень трудно — а машинам невозможно — понять нюансы активистского и самого экстремистского контента. В результате часто допустимые выражения ложно классифицируются как террористический материал и удаляются из социальных сетей. Из-за распространения базы данных GIFCT любая ошибочная классификация видео, изображения или поста как «террористического» отразится на всех социальных сетях, подрывая право пользователей на свободное выражение мнений. А это, в свою очередь, может иметь катастрофические последствия для интернета как пространства памяти и документирования. Топорные системы модерации контента могут привести к удалению жизненно важной информации, недоступной в других местах, например, доказательств нарушений прав человека или военных преступлений. Так, «Сирийский архив», неправительственная организация, занимающаяся сбором, распространением и архивированием свидетельств бесчинств, совершённых во время сирийской войны, сообщает, что ежегодно YouTube удаляет сотни тысяч видео с этими свидетельствами. Организация оценила сокращение показов видео в 13%, после коронавирусного кризиса число выросло до 20%. Как уже отмечалось, многие социальные медиа, включая YouTube, используют алгоритмические инструменты для модерации контента более интенсивно, чем обычно, что приводит к увеличению удалений. Когда YouTube вносит хэши контента с изображением нарушений прав человека в Сирии в базу данных GIFCT, эти материалы могут быть навсегда удалены на нескольких платформах.

GIFCT не только рискует потерять ценную правозащитную документацию, но и оказывает непропорционально негативное воздействие на некоторые сообщества. Определение понятия «терроризм» является по своей сути политическим предприятием и редко бывает долговременным. Из-за отсутствия международного соглашения о том, что именно представляет собой террористический или насильственный и экстремистский контент, компании смотрят на список террористических организаций ООН или перечень иностранных террористических организаций Госдепартамента США. Но эти списки в основном состоят из исламистских организаций и довольно и слепы, например, по отношению к правым экстремистским группам. Это означает, что ошибочная классификация GIFCT тяжким бременем ложится на мусульманские и арабские сообщества и подчёркивает тонкую грань между эффективной борьбой с плохим контентом в интернете и всё сметающей на своём пути цензурой.

С момента нападения на две мечети в Крайстчерче в марте 2019 года GIFCT стал более заметным, чем когда-либо. В ответ на стрельбу, в ходе которой был убит 51 человек, президент Франции Эммануэль Макрон и премьер-министр Новой Зеландии Джасинда Ардерн начали Christchurch Call. Эта инициатива по ликвидации насильственного и экстремистского контента в интернете определяет GIFCT огромную роль. В связи с этим GIFCT объявил, что превратится в независимую организацию, включающую новый Независимый консультативный комитет (Independent Advisory Committee, IAC), который будет представлять голоса гражданского общества, правительства и межправительственных организаций.

Однако IAC имеет серьёзные недостатки, как неоднократно отмечала коалиция организаций за гражданские свободы. Например, правительства, участвующие в IAC, похоже, будут использовать свои рычаги, чтобы влиять на политику компаний по модерации контента и формировать определения террористического контента, которые соответствуют их интересам, подальше от общественности и, следовательно, будучи неподотчётными. Включение правительств в состав IAC может также подорвать важное по своей сути участие организаций гражданского общества, поскольку многие из них финансово зависят от правительств или могут столкнуться с угрозами репрессий за критику правительственных чиновников на этом форуме. Недостатки GIFCT и их разрушительное влияние на свободу выражения мнений, права человека и сохранение доказательств военных преступлений были известны в течение многих лет. Организации гражданского общества пытались помочь реформировать организацию, но GIFCT и её новый исполнительный директор не отреагировали на это, что привело к последней проблеме IAC: ведущие НПО предпочитают вообще не участвовать в форуме.

Куда это приведет GIFCT и миллионы интернет-пользователей, на которых влияет его политика? Не туда, куда надо. Без значимого представительства и участия гражданского общества, полной прозрачности и эффективных механизмов подотчетности GIFCT рискует стать ещё одним отраслевым форумом, который обещает многосторонний подход, но даёт немногим больше, чем разрешённая правительством показуха.

Оригинал статьи

Поделитесь материалом

Похожие статьи

Контакты

По общим вопросам

[email protected]

По юридическим вопросам

[email protected]

Для СМИ (предпочтительнее Telegram)

+7 903 003-89-52