Модераторы контента: работа, которой никто не замечает

Все мы знаем о том, что в социальных сетях работают определённые алгоритмы, благодаря которым мы видим тот контент, который хотим видеть. Т.е. релевантный нам контент. Эти алгоритмы анализируют наши запросы, репосты, лайки, комментарии, словом, все наши действия. Мы видим посты, фотографии, видео, прямые трансляции которые подтверждают наш взгляд на мир. Увы, мы не видим другого взгляда, другого мнения. Таким образом, социальные сети сделали мир очень полярным.

Каким образом это происходит?

Если ты тайный поклонник куклусклана, ты найдёшь в соцсети тысячи себе подобных и это утвердит тебя во мнении, что твои взгляды правильны. В Мьянме (ранее — Бирма), существуют гонения на этническую группу рохинджа. И это, по данным ООН, самая преследуемая группа меньшинств в мире. В Мьянме только ленивый не запостил что-то с хештегом рохинджа. Потому что такие посты моментальное лайкаются и репостятся, и разместивший их человек становится «любимцем публики». Часто эти посты являются откровенной ложью. Примеры подобного рода можно приводит бесконечно. Это происходит повсюду и постоянно.

Геоблокировка контента

Соцсети вынуждены работать в тесном сотрудничестве с политическими силами разных стран и блокировать в этих странах контент им неугодный. Больше всего запросов на блокировку контента определённого рода поступает из Турции. Если соцсети не будут делать это, они будут полностью отключены на территории страны и понесут убытки.

Модераторы контента — нюансы профессии

На Facebook на данный момент времени работает более 7500 модераторов контента. Это люди, которым ежедневно приходится просматривать и блокировать всё самое худшее, что может появиться в интернете — это записи, фото, видео со сценами насилия, пыток, издевательств над животными, самоубийст, расстрелов, обезглавливаний и всего прочего. Если вы этого не видите, то только благодаря модераторам. А такие фото и видео публикуются ежесекундно. Да-да, так часто люди творят зверства.

В 2018 году, бывшая сотрудница FacebookСелена Скола (Selena Scola) подала иск в суд на соцсеть, поскольку руководство не приняло во внимание её просьбу защитить модераторов от непоправимых травм.

Модераторы контента есть в Facebook, YouTube, Twitter, Google и в практически любой другой компании, которая публикует что-то в интернете. Длительная работа с токсическим контентом вызывает тяжелые эмоциональные реакции, а порой даже расстройство психики. Были модераторы, которые подавали иски на Microsoft обвиняя компанию в том, что приобрели посттравматический синдром.

Многие модераторы не способны проработать дольше суток, в среднем люди работают несколько месяцев и увольняются. Обычно модераторы — это внештатные сотрудники, часто удалёнщики, которые никак не защищены перед работодателем. И они получают самые минимальные зарплаты в IT-отрасли — от 13 до 28 долларов за час.

Таким образом, помимо нищенских зарплат, жёстких условий труда (на принятие решения у модератора есть не больше 10 секунд, а в месяц разрешается сделать не более 3 ошибок), остаётся ещё целый пласт психологических и эмоциональных проблем. Сейчас компании организуют целые центры реабилитации и помощи модераторам.

Их отправляют на тренинги по психологической устойчивости, организуют разные консультации с экспертами по теме жестокого обращения с детьми, суицида, насилия над женщинами, терроризма и т.д.

Модераторам предоставляют руководства к действию. Но даже целый штат психологов не сможет помочь, если человек не хочет, чтобы ему помогли. А психика от подобного контента может съезжать фундаментально. Был случай, когда модератор прямых трансляций самоубийств не выдержал, и тоже покончил с собой. Хотя он трижды приходил в центр реабилитации. Там он рассказал, что просит руководство перевести его на модерацию другого контента, но ему в этой просьбе было отказано.

Почему модераторы наблюдают за прямой трансляцией самоубийства и не останавливают её?  

Существует более 100 инструкций, которые устанавливают темы, ограничения и пр.

Facebook запрещает темы разжигания ненависти, терроризма, порнографии, расизма, каннибализма, информации о договорных матчах и соревнованиях.

А вот членовредительство, самоубийство или насильственная смерть в реальном времени прямой трансляции не всегда нужно удалять, так как считается, что такое видео может помочь понять психологические отклонения или даже прийти на помощь человеку.

Модераторы имеют огромное влияние на нашу жизнь и на политику. В 2009 году в Тегеране во время акции протеста после победы в президентских гонках Махмуда Ахмадинежада была застрелена Неда Ага-Солтан. У кого-то в руках оказался смартфон, смерть девушки была запечатлена на видео и попала в интернет. Модератор YouTube приняла решение не блокировать запись, и она быстро разлетелась по интернету. Хотя запись содержала сцены насилия, что было запрещено к показу правилами сайта. YouTube пришлось быстро изобрести кнопку, предупреждающую о содержании насилия в контенте. Убийство Неда стало «голосом Ирана» во всём мире, символом демократической оппозиции, которая борется с исламистским режимом. Отказ модератора удалить это видео показало, что модераторы не роботы, у них есть свои взгляды на мир, и они влияют на свободу слова, политику, социальные нормы, безопасность пользователей в сети и восприятия смысла жизни.    

модераторы контента

Почему модерацией не занимается компьютер?

Всё очень просто, искусственный интеллект не настолько умён, чтобы отличать тонкие грани, присутствующие в контенте. Facebook пытались запустить робота, но он допустил ошибку, пропустив несколько видео со сценами насилия и убийства. Порой живым людям тяжело разбираться в контексте оскорблений, ненависти или унижений в той культуре, к которой они не относятся. Искусственный интеллект это не может сделать и подавно. Например, есть видео, на котором деруться индийские подростки. По правилам, модератор YouTube должен удалить это видео, так как оно содержит несовершеннолетних, вовлечённых ради забавы в насилие. Но в Индии мальчики этого возраста считаются взрослыми и поэтому там это видео не сочтут неприемлемым. Как быть человеку в этом случае? Не говоря уже об искусственном интеллекте. Или ещё пример: модератору запрещено пропускать видео с преступлениями наркокартелей в Мексике, но можно пропускать насилие на политической почве в Сирии или в России. Почему первое — это жестокий контент, а второе — политически значимый контент?

Конечно, уже есть технологии, которые могут выявлять потенциально вредоносную деятельность в интернете. Например, есть PhotoDNA (от Microsoft), которая автоматически определяет, удаляет и докладывает об изображениях с эксплуатацией детей и детской порнографией. Через PhotoDNA проходят все изображения, загруженные на Facebook, Tumblr, Twitter. По этому же принципу разрабатывается робот, распознающий экстремистские изображения.

Почему мы ничего не знаем о процессе модерации контента?

Потому что интернет-компании его намеренно скрывают. Вы не найдёте на их сайтах руководств по внутренней модерации, а сотрудники вам об этом не расскажут, так как подписали NDA.

Лидером в вопросе прозрачности процесса модерации, на данный момент, является Pinterest. На его сайте есть правила политики допустимого использования с визуальными примерами контента.

Есть сайты которые вообще полностью снимают с себя ответственность за содержание контента и оставляют это на совести пользователей.

Пользователи интернета слишком привыкли считать себя только пользователями. А ведь именно вы создаёте контент и принимаете активное участие в его модерации, отмечая тот или иной пост или видео приемлемым или неприемлемым. Есть даже кампании, такие как counter speech в Facebook, в которых могут участвовать пользователи соцсети и помогать сайту выявлять тех, кто пропагандирует экстремизм. Есть те, кто выступают против таких кампаний, так как это может подвергать опасности самого «доносчика».

Быть или не быть?

Морально ли, демократично ли то, что делают эти люди? Мы не видим зверств, которые творятся. Благодаря этому мы спим спокойно. Можно сказать, что нам закрывают глаза и мы позволяем этим зверствам оставаться безнаказанными. Психика людей такова, что различного рода видео и фотографии способны побудить их на свершение того, что там запечатлено. Внутри нас протекает бессознательный процесс, называемый подкреплением. Он связан с процессом, которое нам хорошо знакомо — ощущение удовольствия. Всплеск дофамина в мозге (стриатуме) связан с удовольствием. Всё, что вызывает всплеск дофамина закрепляется как желательный вариант поведения. Чем сильнее закрепляется поведение, тем ближе мы к зависимости. Наркота вызывает дофаминовый взрыв и отмечает вариант поведения (т.е. поиск и приём) как желательный. Одной из лучших стратегий по избавлению от наркотической зависимости является устранение раздражителей, вызывающих ассоциацию с наркотиками. Представьте. Наркоман не принимает наркотики уже год, его организм чист. Но вот он вдруг видит трубку для курения крэка, чувствует его запах, проходит мимо того места, где он обычно его покупал. И ему будет чертовски тяжело не подойти к “распространителю” и не купить дозу. Тоже самое происходит с серийными убийцами, педофилами, фанатиками и пр. Многие осознают, что они делают что-то плохое, стремятся остановить это, уезжают подальше от раздражителей. Но интернет есть везде. И разного рода видео и фото может вызвать мотивацию к действию.  

Сегодня, чтобы продвигать разрушительные террористические идеи не нужно увешивать себя автоматами и взрывчаткой, достаточно иметь в кармане смартфон. В Telegram в среднем закрывается около сотни каналов, по самым скромным подсчётам, действующих каналов для вербовки не менее тысячи. Facebook блокирует фейковые страницы, содержащие фальшивые новости, спам, пропаганду, террористическую информацию. В первом квартале 2018 года было заблокировано 534 млн. аккаунтов, во втором квартале — 800 млн., а в третьем — 754 млн. За 2015-2016 года Twitter удалил 1,2 млн. аккаунтов террористов. Учёные создали алгоритм, который будет определять экстремистов в социальных сетях ещё до публикации постов.

Так хорошо или плохо то, что делают эти модераторы контента? Должна ли существовать подобная профессия? Сколько будет людей, столько будет и мнений. А вопрос полярности: “хорошо” или “плохо” — это вопрос лишь зашоренного сознания, которое способно мыслить лишь в двояких категориях, выдавая оценки и цепляя ярлыки. И именно существование такого сознания, неспособность человека преодолеть его, делает возможным существование модераторов контента. И делает возможным существование всего того, что существует, но остаётся за завесой нашего внимания.