«Людям приходится отмечать время прихода и ухода даже при походе в туалет, и объяснять, почему они там задержались – это унизительно и оскорбительно»
Когда Валера Зайцев пару лет назад начал работать в Дублине в должности модератора Facebook, он знал, что ему придётся смотреть на наиболее резкий и жёсткий контент из интернета. Чего он не знал, так это того, что Facebook будет подсчитывать длительность его походов в туалет в секундах.
«Людям приходится отмечать время прихода и ухода даже при походе в туалет, и объяснять, почему они там задержались – это унизительно и оскорбительно», — рассказал Зайцев журналу VICE News.
Facebook, отдающий большую часть задач по модерации контента сторонним компаниям, которых насчитывается более 15 000, не всегда держал своих сотрудников на таком коротком поводке. Когда Зайцев, которому тогда было 33, присоединился к армии модераторов Facebook в июле 2016 года, он столкнулся с профессионально организованным рабочим процессом, где он проходил подробные тренировки и к нему отлично относились.
Но вскоре всё изменилось. Количество модераторов в дублинском офисе начало резко расти – со 120 до 800 всего за два года – условия начали ухудшаться, а обучение модераторов практически исчезло.
К 2018 году количество модераторов контента во всём мире выросло до десятков тысяч, и Facebook начал испытывать систему тайм-менеджмента, призванную отслеживать каждую минуту дня работников – включая перерывы на обед, обучение, «перерывы на обеспечение хорошего самочувствия» для посещения психолога или тренировки по йоге, и даже время, проведённое ими на горшке, как утверждает Зайцев и ещё один работающий и сегодня в компании сотрудник, пожелавший остаться неизвестным.
За последние несколько лет Facebook пытался бороться с критикой того, как соцсеть справляется с ужасающим контентом. Компания потратила не менее полумиллиарда долларов на найм модераторов-людей в дополнение к алгоритмам, следящим за чистотой страниц.
Из-за постоянно усиливающегося контроля со стороны правительств разных стран, работа этих модераторов крайне важна. Они являются первой линией защиты компании от ужасающих и нелегальных материалов, но при этом они жалуются на плохую зарплату и отсутствие поддержки. В итоге одна за другой возникают проблемы с психологическим здоровьем, а в прошлом месяце был подан первый из, вероятно, множества исков из-за того, что компания не обеспечивает безопасность на рабочем месте.
Модераторы Facebook всё чаще говорят о том, что отслеживается каждый их шаг. Принимая решения по поводу контента, модераторам приходится следовать указаниям из постоянно меняющегося документа, который они называют «библией». А каждому модератору назначается «оценка качества».
«Ты можешь делать 4-5 ошибок в месяц – это 2% ошибок, 98% качество, — сказал Крис Грей, бывший модератор Facebook, работавший в компании 11 месяцев. – Если ты пришёл на работу, и сегодня вторник или среда, а ты сделал пять ошибок, то весь твой месяц летит к чертям, и ты можешь думать только о том, как бы вернуть себе эту отметку».
Грей страдает от посттравматического стрессового расстройства после своей работы модератором, и в прошлом месяце подал в суд в Ирландии против соцсети и против CPL, одного из подрядчиков Facebook, нанимающего тысячи рецензентов контента в США, Европе и Азии. В иске компания обвиняется в причинении «психологической травмы» из-за плохих рабочих условий и необходимости просмотра неприятного материала.
Ожидается, что подобные иски подадут десятки, если не сотни, модераторов. Источник из юридической компании Coleman & Partners, работающей на Грея, рассказал нам, что новые документы будут отправлены в Верховный суд в этом месяце.
CPL не отреагировала на наш запрос по поводу заявлений, которые делают текущие и бывшие модераторы, а Facebook отказался комментировать заявления о том, что записывает каждую минуту рабочего времени сотрудников.
Представитель Facebook Дрю Пусатери сообщил нам, что «хорошее самочувствие людей, занимающихся рецензированием контента для Facebook, было и остаётся нашим главным приоритетом».
Но модераторы говорят, что это не так. Facebook дал доступ к психологическим консультациям, многим модераторам кажется, что они просто не могут этим воспользоваться из-за постоянной слежки, постоянно меняющихся политик и безжалостным принуждением к соответствию стандартам качества.
«В Евросоюзе работают тысячи модераторов, и у всех них рабочие условия небезопасны для психологического здоровья, и вообще, с нашей точки зрения, просто незаконны», — говорит Кори Крайдер, директор британской лоббистской группы Foxglove, занимающейся помощью в судебных исках. «Европейские законы сильно защищают работников, и мы считаем, что Facebook и остальные соцсети должны гораздо больше делать для создания безопасных рабочих мест для модераторов».
Следуя «библии»
Модераторы Facebook просматривают и удаляют контент, отмеченный миллиардами пользователей Facebook со всего мира, а также ИИ-алгоритмами компании. Большая часть контента достаточно обычная, но некоторые примеры оказываются очень неприятными – сексуальное насилие, зоофилия, насилие.
Каждый день, когда модератор отмечается с утра на работе, он получает т.н. «игровой план» – распорядок, где указано, сколько примеров контента модератору нужно обработать, и из каких очередей – оскорбительный текст, приставание, угрозы причинения вреда самому себе.
Грей сказал, что в CPL модераторам также навязывают среднее время на обработку запроса, или количество времени, которое можно затратить на каждый из примеров. Время меняется в зависимости от типа изучаемого контента, но Грей говорит, что обычно оно составляет не более минуты.
И если некоторые примеры контента явно нарушают правила, и на их обработку не требуется долгих раздумий, другие оказываются не такими очевидными, из-за чего приходится консультироваться с «исполнительными стандартами» Facebook, или, как называют их некоторые модераторы, с «библией».
В документе из 10 000 слов содержатся 24 различных категории, разбитые на три группы: пагубное поведение, чувствительный контент и нарушения закона – так следует из копии документа, опубликованной в марте 2018 года и рассмотренной редакцией VICE News.
По правилам, модератор может решить либо игнорировать контент, либо удалить его. Если он решает удалить его, ему нужно очень подробно описать этот контент, пометить тегами из нескольких категорий и подкатегорий. Затем эту информацию скармливают в алгоритмы Facebook. Это значит, что модераторы сами обучают программу, которая однажды может их заменить.
И хотя «библия» – это полезное руководство, обновляется она каждые две недели, и описывает при помощи туманных обобщений широкий спектр контента, публикуемого на Facebook.
«Приходится иметь общие правила, которые кому угодно будет легко применять в различных ситуациях», — сказал Грей.
И во многих ситуациях модераторы просто не знают, что делать.
«Бывали дни, когда мы вдесятером стояли у экрана, у кого-то на другом экране была открыта политика, мы смотрели на экран и спорили по поводу того, как применяется политика к этому видео», — сказал Грей.
В большинстве случаев у модераторов нет возможности поднять проблему до более старшего сотрудника. В любом случае им приходится принимать решение, и если оно окажется неправильным, это повлияет на оценку качества их работы.
Нереалистичные стандарты качества
Команда аудиторов, рецензирующих избранные примеры решений модераторов каждый месяц, определяют, был ли модератор прав или нет. Однако эти аудиторы – это такие же модераторы, чья оценка качества оказалась выше средней.
Модератором даётся один шанс для апелляции к решениям аудиторов у этих же аудиторов, и это нужно сделать в течение 48 часов – и все модераторы, с которыми беседовала редакция VICE News, сказали, что им приходилось подавать апелляции, чтобы поддерживать уровень качества на отметке в 98%.
Аудиторы ставят негативные оценки за неверное решение, из-за которого контент, подлежащий удалению, остался на Facebook, или наоборот. Также процесс позволяет аудиторам штрафовать модераторов, если те сделали правильный выбор по неправильной причине.
Но аудиторы далеки от непогрешимости и часто не могут объяснить свои решения. Определяя, нужно ли было оставлять в онлайне пост пользователя, где было сделано предложение «наверное, тебе стоит самоубиться», один из аудиторов не смог дать определённого ответа – так следует из скриншотов дискуссии с модератором, поступивших в распоряжение VICE News.
«Аудиторам ничего не известно про ваш рынок, поскольку они происходят из разных стран и говорят на разных языках», — сказал Зайцев.
Однако у Facebook не получается не только нанимать людей с адекватным опытом для модерирования. Компания также допускает, чтобы личные данные модераторов попадали к третьим лицам.
Зайцев оказался среди более 1000 модераторов Facebook, чьи личности случайно раскрыли тем людям, учётные записи которых они блокировали. В Facebook извинились перед Зайцевым и пообещали лучше защищать своих сотрудников. Это одно из многих обещаний, данных соцсетью в последнее время в свете множества скандалов.
Политики Facebook
Несмотря на то, что в Facebook настаивают на улучшении условий труда, новая политика управления временем и постоянные требования достижения определённого качества работы ещё сильнее разъедают то время, которое сотрудники могли бы использовать для снятия стресса после работы с травматическим контентом.
Новая программа для управления временем, заставляющая модераторов записывать каждую минуту своего рабочего времени, добавила проблем в и так уже стрессовое рабочее окружение. В Facebook эту программу начали использовать в этом году. Она работает настолько эффективно, что если модератор отходит от своего компьютера, программа записывает ему уход с рабочего места. И потом ему приходится объяснять эти разрывы менеджерам.
Также эта программа усложняет попытки модераторов воспользоваться программами поддержания хорошего самочувствия. Во многих случаях вместо посещения психолога или занятий йогой модераторы тратят свободное время на споры с аудиторами по поводу правильности принятого решения или изменений в «библии».
Один из модераторов Facebook, работающий там по сей день, говорит, что людей, работающих на «загруженных рынках», например, в англоговорящем регионе, «не поощряют» пользоваться программами для улучшения самочувствия, и что из-за этого им сложно бывает проработать весь день, не ощущая себя психологически выжатыми.
А на разных рынках нагрузка бывает очень разной. Модераторы в странах типа Филиппин или Таиланда говорят, что рассматривают по 1000 экземпляров контента в день, а европейский модератор может встретить менее 150 экземпляров в более сложных разделах, таких, как эксплуатация детей.
Менеджеры не всегда могут заметить причины проблем модераторов – последствия просмотренного контента, испытываемого стресса, или комбинации обоих факторов.
Один модератор, работавший в CPL 14 месяцев, с 2017 по 2018, рассказал VICE News, что решил уволиться из компании, когда менеджер оштрафовал его за паническую атаку на рабочем месте. В тот момент модератор узнал, что его престарелая мать, жившая в другой стране, пропала после перенесённого инсульта.
«В такой день, когда я испытал самый серьёзный стресс за всю жизнь, когда я думал, что могу потерять маму, мой руководитель команды, 23-летний человек без опыта работы, решил ещё сильнее надавить на меня, пообещав, что я могу потерять работу», — сказал модератор, пожелавший остаться неизвестным.
Отношение «как к преступникам»
Когда стресс, наконец, заставляет модераторов покинуть компанию, многие из них бояться критиковать Facebook или CPL из-за соглашения о неразглашении, которое они подписывали перед началом работы. Зайцев сказал, что при увольнении в CPL его заставили подписать второе подобное соглашение.
«Я отказался подписывать, и меня заставили, надавив, — сказал он. – После многих отказов меня выпроводили из здания как преступника, хотя ещё не кончилась моя смена и я не успел попрощаться с коллегами».
Компания также предупреждает сотрудников, чтобы они не говорили с прессой. VICE News получила копию емейла, отосланного CPL своим сотрудникам в Дублине в 2018 году, в котором предупреждала о тайно готовящемся рассказе о компании на канале Channel 4. В письме описывалось, как сотрудники должны отвечать на вопросы. «Вам, возможно, лучше ответить на вопрос как-то вроде ''Безопасность использующих Facebook людей является одним из главных наших приоритетов''», написано в одной из частец документа.
Facebook также призвал модераторов удалить любые ссылки на Facebook со своих страниц в LinkedIn, чтобы журналисты не могли связаться с ними и расспросить о спорных случаях, говорит Зайцев.
Facebook сообщили VICE News, что выступают против ссылок на компанию в онлайне «по причинам, связанным с безопасностью», и в качестве примера привели стрельбу в штаб-квартире YouTube в Сан-Бруно, Калифорния, в апреле 2018.
Несмотря на паранойю Facebook, Зайцев сегодня входит в группу из нескольких десятков текущих и бывших модераторов, связавшихся с Coleman Legal Partners по поводу судебных исков к этой компании, не справившейся с обеспечением безопасного рабочего окружения. В отличие от недавнего коллективного иска в США, каждый модератор в Ирландии обязан подавать отдельный иск.
«Чем дальше от Facebook, тем счастливее человек. Чем менее ты счастлив, тем больше времени ты будешь проводить на Facebook», — рассказал VICE News один из бывших модераторов, готовящийся подавать иск к Facebook. «И мы целый, мать его, день проводили на Facebook. Можете догадаться, что это нездоровая практика».
Автор: Вячеслав Голованов